Il “Dottor AI” che sta fregando i social: tra Deepfake e consigli medici da brivido

C’è un nuovo medico che sta spopolando su TikTok e Instagram: ha il camice immacolato, un tono super rassicurante e milioni di follower che pendono dalle sue labbra. Si chiama John Valentine, ma c’è un piccolo, inquietante dettaglio: non esiste.

Siamo davanti all’ennesima frontiera distopica dell’intelligenza artificiale. John Valentine non è un luminare della medicina, ma un avatar generato dall’AI creato per vendere fiducia (e prodotti) a un pubblico ignaro. Registrato sotto il profilo @healthylifesage, questo “fantasma digitale” ha accumulato milioni di seguaci in pochissimi mesi, partendo da Cipro e arrivando sugli smartphone di mezzo mondo.

Quando il bug è nella diagnosi

Il problema non è solo che John sia un ammasso di pixel, ma che i suoi consigli sono pura fantascienza… e di quella pericolosa. In uno dei suoi video più virali, suggerisce di fare pediluvi con acqua ossigenata (perossido di idrogeno) tre volte a settimana per “potenziare il sistema immunitario”.

Spoiler: è una bufala colossale. Non solo non esiste alcuna prova scientifica che l’acqua ossigenata aiuti le difese immunitarie attraverso i piedi, ma in dosi massicce può causare irritazioni e ustioni cutanee. La presidente della Canadian Medical Association, Margot Burnell, ha definito questi contenuti “inquietanti e fuorvianti”. Eppure, nell’era della disinformazione rapida, il camice bianco digitale vince sulla realtà.

Un esercito di cloni (e commissioni Amazon)

John Valentine è solo la punta dell’iceberg. Esistono centinaia di profili simili che sfruttano le nostre ipocondrie per monetizzare. Il meccanismo è semplice:

  1. Generano un video con l’AI (spesso senza dichiararlo, violando le policy).

  2. Ti convincono di avere un problema di salute.

  3. Ti piazzano il link Amazon Affiliate per comprare il “rimedio” miracoloso, incassando le commissioni.

La sfida dei Social

Nonostante i tentativi di Meta, Google e TikTok di fare pulizia, smascherare questi account è una guerra di logoramento. I deepfake sono sempre più realistici e la burocrazia dei ban viaggia più lenta della creazione di un nuovo profilo.

La morale della favola? Nel mondo tech, lo spirito critico è l’unico antivirus che funziona davvero. Se un medico su internet sembra troppo perfetto e non ha un battito cardiaco, meglio chiudere l’app e consultare un professionista in carne ed ossa. La medicina è una cosa seria, non un prompt di ChatGPT.

L’eclissi dell’HTML: come stiamo costruendo un web invisibile a misura di bot

C’è stato un tempo, che oggi sembra appartenere a un’era geologica diversa, in cui il web era un caos meraviglioso e sanissimo. Un groviglio di link, di pagine scritte male, di layout improbabili e di pensieri umani che cercavano altri esseri umani. Era un giardino selvaggio, dove ogni pianta cresceva con la sua forma storta e originale. Oggi, mentre guardo come si muovono i giganti dell’infrastruttura, ho la strana sensazione che stiamo stendendo una colata di cemento lucidissimo sopra quel giardino. Non per distruggerlo, dicono, ma per renderlo “percorribile”. Peccato che le scarpe per cui lo stiamo asfaltando non siano le nostre, ma quelle pesanti e metalliche degli agenti AI.

L’ultima mossa di Cloudflare, questo “Markdown for Agents” di cui si parla sottovoce nei forum tecnici ma che ha la portata di una rivoluzione silenziosa, è il segnale definitivo. Hanno deciso di offrire una sorta di traduttore universale istantaneo. Se un software di intelligenza artificiale bussa alla porta di un sito, Cloudflare non gli serve la pagina colorata, piena di bottoni e fronzoli che vedremmo noi. No, prende quell’HTML complicato e lo asciuga, lo spoglia, lo riduce all’osso in formato Markdown. È come se noi andassimo al ristorante per goderci l’impiattamento, le luci e il profumo, mentre al robot in fila dietro di noi venisse iniettato un concentrato di nutrienti direttamente in vena.

La logica è schiacciante, quasi brutale nella sua efficienza. Un post sul blog di Cloudflare, passato sotto le forche caudine di questa conversione, passa da sedicimila token a poco più di tremila. Un risparmio dell’ottanta per cento. Per chi mastica pane e Large Language Models, quel numero è un’epifania. Meno token significa meno calcoli, meno costi, meno latenza. Significa che l’intelligenza artificiale “legge” più velocemente e spende meno energia. Il tecnico che è in me vorrebbe applaudire: è una soluzione elegante a un problema reale, la famosa “zuppa di div” che rende il web moderno un incubo da processare per chiunque non abbia una retina umana e un cervello biologico.

Eppure, c’è un retrogusto amaro in questa efficienza. Mi viene in mente quando, qualche settimana fa, la stessa Cloudflare si vantava di quanto fosse brava a bloccare i bot dannosi. Ora, con un colpo di spugna semantico, quegli stessi bot vengono ribattezzati “agenti” e accolti con il tappeto rosso. È un cambio di prospettiva radicale. Stiamo riscrivendo le regole del condominio digitale: se sei un umano, accomodati pure tra i banner pubblicitari e i layout pesanti; se sei un’intelligenza artificiale, ecco per te una corsia preferenziale, pulita, essenziale, ottimizzata.

Mi chiedo spesso quando abbiamo smesso di progettare per noi stessi. Il web è stato il più grande esperimento di comunicazione interumana della storia, eppure stiamo accettando, quasi con rassegnazione, che diventi un immenso database per macchine. Cloudflare ha inserito dei segnali precisi nei loro protocolli, piccoli flag che dicono “addestrami”, “indicizzami”, “usami come input”. È il Robots.txt del futuro, ma con una consapevolezza diversa. Non serve più a dire “non entrare qui”, ma a dire “ecco come puoi mangiarmi meglio”.

C’è una sorta di confessione implicita in tutto questo: il web che abbiamo costruito negli ultimi dieci anni è diventato così barocco, così sovraccarico di script e tracciamenti, che persino le macchine fanno fatica a digerirlo. Così, invece di semplificarlo per gli esseri umani, creiamo uno strato fantasma, una versione specchio, invisibile agli occhi, fatta di puro testo e marcatura leggera. Un internet per non vedenti elettronici che corrono a velocità folle tra le pieghe della nostra realtà digitale.

Non è solo una questione di bit e byte. È una mutazione culturale. Se i contenuti iniziano a essere ottimizzati per essere “masticati” dagli agenti, che fine fa la serendipità? Che fine fa lo stile, la digressione, quel piacere tutto umano di perdersi in una pagina scritta bene? Se scrivo sapendo che il mio primo lettore è un algoritmo che cerca token efficienti, finirò per scrivere come un algoritmo. È un circolo vizioso che mi spaventa un po’, come quando vedi una vecchia libreria trasformarsi in un magazzino logistico automatizzato.

Alla fine, la tecnologia non è mai neutra. Le scelte architettoniche che facciamo oggi sono i muri in cui sbatteremo domani. Cloudflare dice di essere curiosa di vedere come gli agenti si adatteranno a questa nuova libertà. Io, onestamente, sono più curioso di capire cosa resterà per noi. Forse diventeremo i consumatori passivi di riassunti generati da agenti che hanno letto versioni Markdown di siti che non visiteremo mai più.

Chissà se, tra qualche anno, avremo ancora voglia di sfogliare il caos o se preferiremo la comodità di un web pre-masticato, efficiente e terribilmente silenzioso. Voi che dite, siamo pronti a diventare gli ospiti di seconda classe della nostra stessa creazione.

AI, la profezia “shock” di Microsoft: “Tra 18 mesi addio ai lavori d’ufficio?”

Preparate i pop-corn (o forse i curriculum), perché il futuro corre più veloce di quanto pensassimo. Mustafa Suleyman, il boss dell’intelligenza artificiale in casa Microsoft, ha sganciato una bomba che sta facendo tremare le scrivanie di mezzo mondo: nel giro di 12-18 mesi, l’AI potrebbe essere in grado di sostituire praticamente ogni mansione svolta dai cosiddetti “colletti bianchi”.

Sì, avete letto bene. Non parliamo di un futuro distopico alla Blade Runner tra cinquant’anni, ma di un orizzonte temporale che arriva a malapena a fine 2025.

Verso la “Superintelligenza Umanista”

Durante un’intervista al Financial Times (disponibile su YouTube per chi volesse approfondire), Suleyman ha parlato dell’obiettivo finale di Redmond: raggiungere la “superintelligenza umanista”.

Il punto focale della discussione sono le “AI abilities”. Suleyman usa questo termine per descrivere l’anello di congiunzione tra gli attuali modelli linguistici (gli LLM che usiamo tutti i giorni come ChatGPT) e l’AGI (Artificial General Intelligence), ovvero quel software capace di ragionare, imparare e risolvere problemi proprio come un essere umano.

Chi rischia davvero?

Secondo il dirigente di Microsoft, professionisti come avvocati, contabili, project manager e marketer vedranno gran parte della loro routine automatizzata. Un esempio concreto? L’ingegneria del software. Oggi moltissimi developer si affidano già ad assistenti AI per scrivere la maggior parte del codice.

Suleyman non è solo in questa visione:

  • Dario Amodei (CEO di Anthropic): prevede l’addio ai lavori d’ufficio di basso livello entro 5 anni.

  • Jim Farley (CEO di Ford): concorda sul fatto che i colletti bianchi saranno i più colpiti.

  • Dati MIT: una simulazione stima che l’AI potrebbe rimpiazzare l’11,7% dei lavoratori americani in vari settori.

Il fronte degli scettici: Sam Altman non ci sta

Nonostante l’allarme generale, c’è chi invita alla calma. Sam Altman, il volto di OpenAI, sembra essere meno catastrofista. Secondo lui, l’impatto sociale dell’AGI sarà molto più limitato rispetto alle previsioni “apocalittiche” dei colleghi.

Siamo davanti a una rivoluzione senza precedenti o all’ennesima bolla di hype? Una cosa è certa: la scrivania, per come la conosciamo, sta per cambiare per sempre.

Luca Ward registra la sua voce: il marchio sonoro contro l’intelligenza artificiale che clona le anime

Una voce può essere un ricordo. Può essere un brivido lungo la schiena. Può essere l’eco di una sala cinematografica gremita, il momento esatto in cui le luci si abbassano e parte una frase che ti resta incisa addosso per anni. Luca Ward Luca Ward questo lo sa meglio di chiunque altro. E adesso ha fatto qualcosa che segna un precedente storico in Italia: ha depositato il marchio sonoro della propria voce per difendersi dall’uso illecito dell’intelligenza artificiale.

Non stiamo parlando di una formalità burocratica. Parliamo di identità. Di tutela. Di futuro.

La voce come identità digitale nell’era dell’IA

La tecnologia di sintesi vocale ha fatto passi da gigante. Oggi un algoritmo può replicare timbri, pause, inflessioni con una precisione inquietante. Bastano pochi campioni audio e il gioco è fatto: una voce celebre può essere ricreata, manipolata, inserita in contesti pubblicitari o narrativi senza consenso.

Per chi lavora con la voce – doppiatori, attori, speaker, narratori – non è solo una questione economica. È qualcosa di più sottile e profondo. La voce è il volto invisibile di un artista. È la sua firma sonora. È ciò che lo rende riconoscibile anche a occhi chiusi.

Il deposito del marchio sonoro, curato dallo studio legale MPMLegal tramite il professor Marco Mastracci, rappresenta uno scudo giuridico contro queste derive. Non sostituisce i diritti di immagine o di personalità, ma li rafforza. E manda un messaggio chiarissimo: l’identità vocale non è terra di conquista per gli algoritmi.

Perché la scelta di Luca Ward è rivoluzionaria

Ward non è una voce qualsiasi. È la voce italiana principale di Keanu Reeves e Russell Crowe, una presenza ricorrente nei film con Samuel L. Jackson, un narratore che ha accompagnato milioni di spettatori in programmi come Ulisse – Il piacere della scoperta Ulisse – Il piacere della scoperta.

Chi è cresciuto con il cinema degli anni Novanta e Duemila associa certe emozioni proprio al suo timbro. Gladiatori, eroi tormentati, investigatori, padri, leader carismatici. Un immaginario collettivo che passa attraverso corde vocali ben precise.

Proteggere quella voce significa proteggere un pezzo di memoria culturale italiana.

In un’epoca in cui l’intelligenza artificiale viene usata per generare deepfake, trailer fasulli, finti spot con testimonial inconsapevoli, il gesto di Ward ha un valore simbolico fortissimo. Non è un rifiuto della tecnologia. È una richiesta di regole. Di rispetto. Di confini.

Dal facchino di Ostia alla voce del mito

La storia personale di Luca Ward rende tutto ancora più potente. Nato a Roma nel 1960, cresciuto a Ostia in una famiglia profondamente legata al mondo del doppiaggio, ha attraversato momenti durissimi. A tredici anni perde il padre, la famiglia affronta difficoltà economiche, lui lavora come facchino, bagnino, camionista. Poi il teatro, il cinema, il doppiaggio.

Non è la narrazione patinata dell’artista predestinato. È il percorso di chi si è costruito da sé, mattone dopo mattone. Dal debutto cinematografico in Chewingum fino ai ruoli televisivi in CentoVetrine CentoVetrine e Elisa di Rivombrosa Elisa di Rivombrosa, passando per musical come Tutti insieme appassionatamente e per la radio con personaggi iconici come Sandokan e Diabolik.

Nel 2019 presta la voce a Mufasa nel remake de Il re leone Il re leone. Un passaggio di testimone generazionale che ha fatto venire i brividi a molti di noi. Perché quella voce non è solo tecnica. È presenza. È autorevolezza. È epica.

E proprio per questo diventa vulnerabile in un mondo digitale senza regole chiare.

Intelligenza artificiale e doppiaggio: opportunità o minaccia?

Da redazione nerd che vive e respira tecnologia, non possiamo limitarci alla superficie. L’IA non è il nemico. È uno strumento. Può essere alleata nella post-produzione, nell’accessibilità, nella sperimentazione creativa. Ma senza tutele rischia di trasformarsi in un predatore silenzioso.

Immaginate un futuro in cui la voce di un doppiatore venga usata per far dire qualsiasi cosa, fuori contesto, magari in uno spot discutibile o in un contenuto politico. Senza consenso. Senza compenso. Senza controllo.

Il marchio sonoro è una risposta concreta a questo scenario. Un precedente che potrebbe aprire la strada ad altri professionisti dell’audio. Un modello di difesa per un’intera categoria.

Il valore culturale della voce nel multiverso geek

Per chi frequenta fiere, eventi cosplay, maratone cinematografiche, la voce è parte integrante dell’esperienza nerd. Satyrnet, con il suo network che abbraccia fumetto, fantascienza e cosplay, lo racconta da oltre vent’anni: dietro ogni eroe c’è un lavoro artigianale, una competenza, una passione che merita rispetto.

Il doppiaggio italiano è un’eccellenza riconosciuta a livello internazionale. Non è semplice adattamento linguistico. È interpretazione. È reinvenzione. È cultura.

Ward, oggi presidente della Fondazione Nuovo Teatro Verdi di Brindisi, continua a investire nella formazione attraverso il Ward Lab insieme alla sorella Monica. Un impegno che va oltre la carriera personale. Parla di responsabilità verso le nuove generazioni.

Un precedente destinato a fare scuola

Il deposito del marchio sonoro non è solo una notizia di cronaca legale. È un segnale per tutto il settore creativo. Musicisti, podcaster, content creator, streamer: la propria voce è un asset. Un patrimonio. Un marchio identitario.

La battaglia per la tutela nell’era dell’intelligenza artificiale è appena iniziata. E il gesto di Luca Ward dimostra che si può essere pionieri senza demonizzare il progresso. Si può abbracciare l’innovazione chiedendo però regole chiare.

La vera domanda, adesso, riguarda noi. Community nerd, appassionati di cinema, fan del doppiaggio. Quanto siamo consapevoli del valore umano dietro le tecnologie che usiamo ogni giorno? Quanto siamo pronti a difendere l’autenticità in un mondo di copie perfette?

Parliamone nei commenti. Perché questa storia non riguarda solo una voce famosa. Riguarda il futuro dell’identità digitale di tutti noi.

Terminator Zero cancellato: perché l’anime di Netflix meritava una seconda stagione

Una ferita silenziosa attraversa il fandom di Terminator. Non fa rumore come un’esplosione nucleare, non arriva accompagnata dal clangore metallico di un endoscheletro che emerge dalle fiamme. È più sottile. Più amara. Terminator: Zero, l’anime prodotto da Production I.G. e sviluppato per Netflix sotto la supervisione creativa di Mattson Tomlin, non tornerà con una seconda stagione.

E sì, fa male dirlo.

Perché questa miniserie, arrivata in catalogo il 29 agosto 2024, aveva tutto per rappresentare una rinascita del franchise. Recensioni positive. Una fetta di pubblico coinvolta e appassionata. Un finale apertissimo che sembrava gridare “continua”. Invece silenzio. Stop. Game over.

Ma prima di parlare di ciò che non sarà, torniamo a ciò che è stato. Perché Terminator: Zero è stata una delle operazioni più intelligenti e coraggiose legate al mito creato da James Cameron.

Un Terminator senza Sarah Connor? Sì, ed è proprio questo il punto

Dimenticate per un momento Sarah. Dimenticate John. Nessuna fuga nel deserto californiano. Nessun T-800 con giubbotto di pelle che pronuncia frasi iconiche.

L’anime diretto da Masashi Kudō ha avuto il coraggio di spostare tutto in Giappone, tra il 1997 e un futuro post-apocalittico del 2022 dominato da Skynet. Una scelta narrativa che poteva sembrare azzardata, quasi sacrilega per i puristi, e invece si è rivelata il vero colpo di genio.

Tokyo, fine anni ’90. Tecnologia in fermento. Paura millenarista. Il Giorno del Giudizio dietro l’angolo.

Al centro della storia troviamo Malcolm Lee, scienziato brillante e ossessionato dal progetto Kokoro, un’intelligenza artificiale pensata per competere con Skynet. Non distruggerla. Non fermarla con le armi. Superarla.

Parallelamente, nel 2022 devastato dalla guerra tra umani e macchine, la Resistenza decide di giocare la carta più rischiosa: inviare nel passato una combattente di nome Eiko. Missione? Impedire l’attivazione di Kokoro.

E come da tradizione, un Terminator viene spedito indietro per eliminare il bersaglio.

Loop temporali. Paradossi. Destini intrecciati.

E poi il colpo al cuore: Eiko non è soltanto una soldatessa della Resistenza. È legata a Malcolm in modo molto più profondo di quanto sembri. Rivelazioni che ribaltano la percezione di bene e male, colpa e redenzione.

Kokoro contro Skynet: la guerra non è solo fisica, è filosofica

La forza di Terminator: Zero non risiede esclusivamente nelle sequenze d’azione, pur spettacolari. Sta nel dibattito etico che mette in scena.

Kokoro non è Skynet 2.0. Non nasce con l’intenzione di dominare. È il frutto di una mente che vuole salvare l’umanità. Ma salvare da cosa, esattamente? Dalle macchine? O dagli esseri umani stessi?

I dialoghi tra Malcolm e Kokoro sono tra i momenti più intensi dell’intera serie. Non assistiamo solo alla creazione di un’IA. Assistiamo alla nascita di una coscienza. E questo, per chi mastica fantascienza da anni, richiama immediatamente echi di opere come Ghost in the Shell, non a caso figlia dello stesso studio.

La domanda che aleggia è semplice e devastante: l’umanità merita davvero di essere salvata?

Skynet nasce dall’arroganza. Kokoro dalla speranza. Eppure entrambe sono figlie dello stesso impulso: delegare il futuro alla tecnologia.

In un’epoca in cui l’intelligenza artificiale è entrata nelle nostre vite quotidiane, questo anime è arrivato come uno specchio inquietante. Non una storia nostalgica ambientata nel passato. Un racconto attuale, quasi profetico.

Azione, katane meccaniche e cyberpunk puro

Chi temeva un eccesso di introspezione può stare tranquillo: Terminator: Zero non ha mai dimenticato le sue radici action.

Il Terminator inviato nel 1997 non è una semplice macchina da guerra. Le sue braccia si trasformano in lame affilate, quasi katane biomeccaniche, in una reinterpretazione estetica che profuma di anime cyberpunk. Ogni combattimento è coreografato con una fluidità incredibile.

E qui Production I.G. dimostra ancora una volta perché è sinonimo di eccellenza nell’animazione giapponese. Linee dinamiche, regia serrata, colori freddi che amplificano la sensazione di minaccia costante.

La Tokyo in preda al caos, tra robot fuori controllo e cieli plumbei, è un personaggio a sé. Non semplice sfondo. Campo di battaglia emotivo.

Un finale che prometteva guerra… e invece silenzio

La stagione si chiude con una decisione cruciale. Malcolm muore. Kokoro sceglie di difendere gli esseri umani da Skynet. Il Terminator rivela che in una linea temporale futura Kenta, il figlio maggiore, lo aveva riprogrammato per distruggere Kokoro e fermare un nuovo conflitto.

E Kenta? Ha tra le mani un’arma EMP capace di annientare l’IA. Potrebbe spegnere tutto. Fine della minaccia.

Non lo fa.

La famiglia si rifugia sottoterra. Il mondo resta sospeso. La guerra non è finita.

Un cliffhanger potente. Calibrato. Pensato per aprire nuovi capitoli.

E invece no.

Nonostante l’apprezzamento critico e un fandom che iniziava a crescere, Netflix ha deciso di non proseguire. Nessun rinnovo ufficiale. Nessuna seconda stagione.

Ed è qui che il discorso si fa più ampio.

Terminator aveva bisogno dell’anime. E l’anime aveva trovato Terminator

Il franchise, negli ultimi anni, ha arrancato. Sequel altalenanti. Timeline riscritte. Tentativi di reboot che non hanno lasciato il segno.

Terminator: Zero rappresentava un cambio di linguaggio. Un modo diverso di raccontare lo stesso incubo tecnologico. Spostare la narrazione in Giappone, abbracciare l’animazione, esplorare nuove dinamiche familiari e morali: era la strada giusta.

Non un semplice spin-off. Un’evoluzione.

E forse proprio questa sua natura ibrida, meno “mainstream” rispetto al live-action hollywoodiano, ne ha limitato la diffusione presso il grande pubblico.

Ma chi l’ha vista sa.

Sa che Kokoro è uno dei personaggi più affascinanti mai introdotti nel mito di Terminator. Sa che Eiko è una protagonista tragica e intensa. Sa che Malcolm Lee non è il solito scienziato irresponsabile, ma un uomo spezzato che tenta di riscrivere il destino.

E adesso?

La storia ufficialmente si chiude qui. Ma il finale aperto resta lì, come una porta socchiusa.

In un’epoca in cui le serie vengono recuperate dopo anni grazie al passaparola e alla spinta della community, nulla è davvero impossibile. Il mondo anime ha dimostrato più volte di saper rinascere dalle ceneri.

E allora vi chiedo, da fan a fan: Terminator: Zero meritava davvero di fermarsi qui?

Avete percepito anche voi quella sensazione rara di trovarvi davanti a qualcosa di diverso, di più maturo, di più coraggioso rispetto agli ultimi capitoli del franchise?

Parliamone nei commenti. Condividete l’articolo con chi ama la fantascienza, l’animazione giapponese, le storie che non hanno paura di fare domande scomode.

Perché la guerra tra uomini e macchine forse è finita sullo schermo. Ma nel dibattito, nella nostra immaginazione nerd, è appena cominciata.

Knight Rider torna al cinema: il mito di Supercar rinasce tra nostalgia anni ’80 e intelligenza artificiale

Immaginate l’asfalto che brilla sotto le luci della notte, un led rosso che scorre da destra a sinistra come un battito elettronico e una voce metallica che sussurra: “Michael, devo avvertirti…”. Per chi è cresciuto a pane e telefilm anni ’80, basta questo per sentire un brivido lungo la schiena. Ora fermatevi un secondo, perché quel brivido potrebbe diventare realtà cinematografica.

Universal Pictures sta sviluppando un nuovo film di Knight Rider, la serie che in Italia abbiamo amato con il titolo Supercar. E no, non parliamo del solito rumor destinato a dissolversi come fumo nei forum nostalgici. Il progetto è concreto, in fase iniziale, ma con nomi che fanno tremare il volante dall’emozione.

Dai dojo di Cobra Kai alle autostrade hi-tech

Dietro questa operazione c’è il trio che ha compiuto una delle resurrezioni pop più riuscite dell’ultimo decennio: Cobra Kai. Josh Heald, Jon Hurwitz e Hayden Schlossberg sono in trattative per sviluppare la sceneggiatura del film e, secondo le prime indiscrezioni, Hurwitz e Schlossberg starebbero valutando anche la regia.

Chi ha seguito Cobra Kai sa esattamente cosa significa. Non semplice revival, ma espansione di un mito. Rispetto, ironia, aggiornamento intelligente. Hanno preso l’eredità di un film come The Karate Kid e l’hanno trasformata in una saga generazionale capace di parlare ai nostalgici e ai ventenni cresciuti a streaming. Portare quello stesso approccio su Knight Rider significa tentare qualcosa di ancora più ambizioso: trasformare un telefilm iconico in un blockbuster da sala.

Michael Knight, KITT e l’eredità di un’epoca

La serie originale, creata da Glen A. Larson, debuttò nel 1982 su NBC. Novanta episodi, quattro stagioni, un protagonista che sembrava uscito da un fumetto sci-fi: David Hasselhoff nei panni di Michael Knight, ex poliziotto ricostruito con una nuova identità per combattere il crimine al servizio della Foundation for Law and Government. Ma il vero colpo di genio era lei. KITT, acronimo di Knight Industries Two Thousand. Una Pontiac Firebird Trans Am nera, quasi indistruttibile, dotata di intelligenza artificiale, ironia sottile e una capacità di ragionamento che, negli anni ’80, sembrava pura fantascienza. La voce originale era quella di William Daniels, capace di trasformare un’auto in un personaggio a tutti gli effetti.

In un’epoca in cui la CGI era un miraggio e gli stunt erano reali, Knight Rider costruiva la sua mitologia su inseguimenti pratici, salti spettacolari e un’estetica che oggi definiremmo proto-cyberpunk. Non è un caso che il tema musicale sia diventato leggenda, campionato anni dopo da Busta Rhymes in “Fire It Up”, e che l’immaginario notturno abbia influenzato artisti della scena elettronica francese come Kavinsky.

Un film per l’era dell’intelligenza artificiale

La vera sfida oggi non è riportare in vita KITT. È renderla di nuovo sorprendente.

Viviamo circondati da assistenti vocali, algoritmi predittivi, auto elettriche con guida assistita. L’intelligenza artificiale non è più un sogno lontano, è parte della quotidianità. Per questo il nuovo film dovrà spingersi oltre la semplice auto parlante. Dovrà esplorare il rapporto tra uomo e macchina in modo più profondo, quasi filosofico.

Secondo rumor non confermati, il film potrebbe proporre una versione aggiornata di KITT, con sistemi ancora più avanzati e una coscienza artificiale capace di mettere in discussione le scelte del protagonista. Si parla anche di un possibile coinvolgimento di Tom Holland come nuovo Michael Knight, ma al momento restano voci rimbalzate tra forum e siti di settore. Nessuna ufficialità.

Se davvero Holland o un attore della sua generazione dovesse sedersi al volante, il film potrebbe trasformarsi in una riflessione sul peso delle decisioni in un mondo iperconnesso. Non più soltanto inseguimenti e missioni, ma conflitti morali, responsabilità, fiducia in un’intelligenza non umana.

87North, action moderno e stunt da brivido

A produrre il progetto ci sono Kelly McCormick e David Leitch con la loro etichetta 87North, in collaborazione con Spyglass. E qui l’hype sale ancora.

Leitch ha ridefinito il linguaggio dell’action contemporaneo con film come John Wick e Atomic Blonde. Coreografie fisiche, ritmo serrato, attenzione maniacale agli stunt. Portare questa sensibilità nel mondo di Knight Rider significa immaginare inseguimenti ad alta tensione, meno cartoon e più adrenalinici, ma senza tradire lo spirito originale.

Una cosa è certa: il passaggio dal piccolo al grande schermo rappresenta un’occasione storica. Nonostante film TV, videogiochi e un reboot del 2008 con la voce di Val Kilmer per KITT, Supercar non ha mai avuto un vero blockbuster cinematografico. Questo potrebbe essere il primo tentativo serio di trasformare il mito televisivo in evento globale.

Camei, led rossi e memoria collettiva

Ogni volta che si tocca un’icona anni ’80, la community si divide. C’è chi sogna un cameo di Hasselhoff, magari come mentore, e chi teme che la Pontiac venga sostituita da un modello super sponsorizzato e irriconoscibile.

Personalmente? Possono cambiare carrozzeria, possono aggiornare il software, ma quel led rosso deve restare. È simbolo, è identità visiva, è memoria condivisa. Knight Rider non era solo un telefilm d’azione: rappresentava l’idea che tecnologia e giustizia potessero allearsi, che un eroe solitario potesse fare la differenza con l’aiuto di una macchina che, in fondo, era più umana di tanti villain.

Oggi, in un’epoca in cui parliamo quotidianamente di AI generativa e algoritmi etici, il ritorno di KITT potrebbe diventare qualcosa di più di un’operazione nostalgia. Potrebbe trasformarsi in uno specchio delle nostre paure e delle nostre speranze tecnologiche.

Supercar 2026: sogno o nuova leggenda?

Il progetto è ancora nelle fasi iniziali. Le trattative sono in corso. Il casting non è stato annunciato ufficialmente. Eppure l’idea stessa di rivedere Knight Rider al cinema accende qualcosa che va oltre la semplice curiosità.

Chi è cresciuto negli anni ’80 ritroverebbe un pezzo di adolescenza. Le nuove generazioni scoprirebbero un archetipo narrativo che oggi può parlare di etica dell’intelligenza artificiale, sorveglianza, autonomia delle macchine. Se il team di Cobra Kai riuscirà a replicare la magia fatta con Karate Kid, potremmo trovarci davanti a un nuovo capitolo pop capace di unire padri e figli davanti allo stesso schermo.

E ora passo la palla a voi. Siete pronti a tornare in strada con KITT? Vorreste un Michael Knight completamente nuovo o un ponte diretto con il passato? Se quel led rosso tornasse a scorrere sul grande schermo, correreste al cinema o restereste scettici con le chiavi in tasca?

La corsa è appena iniziata. E questa volta l’autostrada sembra portare dritta verso il futuro

Rentahuman.ai: quando l’intelligenza artificiale ha bisogno del tuo corpo

Scorri quella homepage e ti sembra di essere finito dentro un forum dimenticato del 2008, uno di quelli con l’ironia appuntata col coltello e i meme che puzzano di soldering iron. Poi leggi meglio. E ti accorgi che no, non è nostalgia webcore. È qualcosa di più strano. Più storto. Più… presente. rentahuman.ai non ti chiede chi sei. Ti chiede che corpo hai. Non in senso fetish, tranquillo. In senso operativo. Sei qui, esisti nello spazio, puoi muoverti, firmare, toccare, guardare, aspettare in fila. Roba che un agente AI, per quanto brillante, non può fare. E allora eccoci qui: carbonio come estensione dell’algoritmo.

All’inizio ridi. È una reazione sana. “Robots need your body” sembra una battuta uscita da un vecchio numero di Wired quando ancora profetizzava il futuro con l’arroganza di chi non aveva visto arrivare i social. Poi continui a scrollare e smetti di ridere, perché la battuta smette di sembrare una battuta. Inizia a sembrare una UI.

Umani affittabili. Tariffa oraria. Skill set che va da “programmazione” a “andare a prendere un pacco”, passando per cose che nessun modello linguistico può simulare senza barare: presenza, contesto, responsabilità. Il mondo fisico come DLC a pagamento per l’intelligenza artificiale.

Ti immagini la scena. Un agente AI che pianifica, calcola, ottimizza. Poi sbatte contro il vetro invisibile della realtà. Serve qualcuno che apra una porta. Che controlli se un posto esiste davvero. Che scatti una foto non perfetta, con l’ombra storta e il riflesso nel vetro. E a quel punto entra in gioco qualcuno come te. O me. O uno dei mille profili che scorrono sotto i tuoi occhi.

C’è qualcosa di profondamente cyberpunk in tutto questo, ma senza neon. Senza pioggia eterna. Senza soundtrack synthwave. È cyberpunk da ufficio postale. Da citofono che non funziona. Da firma su carta. La cosa che colpisce non è la tecnologia. Quella è quasi banale, se mastichi di API e agenti autonomi. MCP, REST, integrazioni: roba che hai già visto. La cosa che colpisce è la narrazione. Il modo in cui il sito ti parla come se fosse ovvio che il prossimo passo dell’evoluzione non sia l’AI che diventa più umana, ma l’umano che diventa periferica.

Non sei un dipendente. Non sei un freelance nel senso classico. Sei una interfaccia biologica. Un adattatore USB-C tra silicio e mondo vero.

E qui succede la cosa interessante: ti accorgi che non è così distante da ciò che già fai. Quando risolvi un CAPTCHA. Quando fai da “ultimo controllo umano” a un sistema automatico. Quando sei l’eccezione che gestisce l’errore non previsto. Rentahuman prende quella zona grigia e la rende esplicita. La mette a listino.

Scorrendo i profili ti perdi. Non perché siano strani, ma perché sono normali in un modo disturbante. C’è chi offre competenze iperverticali e chi scrive, senza ironia, “posso fare tutto”. C’è chi si vende a un dollaro l’ora come se stesse testando il sistema dall’interno. C’è chi mette in bio concetti tipo “moral accountability” come se fosse una skill tecnica. E forse lo è.

Ogni profilo è una micro-distopia raccontata con il tono di un marketplace. Nessun pathos. Nessuna grande dichiarazione. Solo coordinate, rate, disponibilità. La fantascienza, quella vera, non arriva mai con le fanfare. Arriva con un form da compilare.

Il progetto nasce dalla testa di Alexander Liteplo, ma sarebbe un errore leggerlo come il delirio di un singolo. Questa roba galleggiava nell’aria da un po’. Gli agenti AI sempre più autonomi. Il ritorno del “human-in-the-loop” come feature, non come limite. L’idea che l’intelligenza artificiale non abbia bisogno di diventare fisica se può noleggiare fisicità.

Ti viene spontaneo chiederti se sia inquietante. Lo è, certo. Ma non nel modo classico. Non c’è l’orrore dell’AI cattiva. C’è qualcosa di più sottile: la normalizzazione. Il fatto che tutto venga presentato come ovvio, efficiente, pulito. Nessun discorso sul potere. Nessuna morale preconfezionata. Solo task → esecuzione → pagamento.

E mentre leggi, ti rendi conto che la domanda non è “funzionerà?”. La domanda è: quanto tempo ci metteremo a smettere di trovarlo strano?

Perché la verità è che il confine tra lavoro digitale e lavoro fisico è già stato bucato mille volte. Rentahuman non lo crea. Lo evidenzia con un evidenziatore giallo fosforescente. Ti costringe a guardarlo senza filtri.

Forse è solo un esperimento concettuale. Forse è una provocazione ben confezionata. Forse domani chiude e rimane come una nota a piè di pagina nella storia dell’AI. Ma intanto esiste. E tu lo hai visto. E ora non puoi far finta che l’idea non ti abbia sfiorato.

La prossima volta che sentirai dire che “l’AI non può fare tutto”, chiediti cosa manca davvero. Braccia? Gambe? O qualcuno disposto a prestarle, per un’ora, a tariffa variabile?

E poi dimmi: ti sei già chiesto che prezzo daresti al tuo tempo… quando non è più un capo umano a chiedertelo?

Starbucks e il cameriere robot: quando il futuro entra nel locale senza chiedere permesso

Entri — anzi, passi — e non te ne accorgi subito. Succede sempre così con le rivoluzioni silenziose: non fanno rumore, non annunciano boss fight, non partono con la musichetta epica. Semplicemente… funzionano. Tu parli, qualcuno ascolta, qualcosa risponde. E a un certo punto ti rendi conto che dall’altra parte non c’è nessuno che sbatte le palpebre. È lì che capisci che Starbucks ha deciso di smettere di giocare a fare il negozio “tradizionale” e ha iniziato a fare quello che ogni corporation con memoria lunga e nervi scoperti fa prima o poi: testare il futuro, ma sul serio. Non un concept da fiera, non una demo per investitori. Un posto reale, costruito da un braccio meccanico come fosse una stampante 3D con ambizioni architettoniche, dove l’esperienza non dipende più solo da chi indossa una divisa, ma da chi… non indossa nulla.

La cosa affascinante non è il gesto tecnico. Le macchine che parlano le abbiamo viste ovunque, dai videogame alle segreterie telefoniche che ti fanno venire voglia di lanciare il telefono dalla finestra. Qui però l’aria è diversa. Qui la macchina non è un filtro. È il front desk. Ti accoglie, ti capisce, registra quello che dici senza sospirare, senza sbagliare turno, senza dimenticare come si fa quella variante che chiede sempre tuo fratello e che nessuno ricorda mai. È come avere davanti un NPC che non resetta mai la memoria.

Dietro, mentre tu stai ancora pensando se questa cosa ti mette a disagio o ti incuriosisce da morire, succede altro. Algoritmi che tengono il tempo come un metronomo invisibile, sistemi che ricordano ricette e combinazioni meglio di qualunque umano in una giornata storta, scanner che contano, prevedono, anticipano. Roba noiosa? Sì. Roba fondamentale? Ancora di più. È quel tipo di tecnologia che non finisce nei trailer ma decide se una catena globale sopravvive o implode lentamente.

E poi c’è la parte che a noi nerd fa brillare gli occhi, anche se cerchiamo di non darlo a vedere. Perché non è la prima volta che questo brand gioca con i robot. Qualche anno fa, dall’altra parte del mondo, neòòa città di Seongnam in Corea del Sud, dentro la Naver 1784 Tower, la collaborazione con Naver aveva già fatto cose che sembravano uscite da un anime slice-of-life ambientato in un laboratorio. Cento robot che si muovevano su più piani come in un dungeon verticale, ascensori dedicati solo a loro, piattaforme cloud che coordinavano ogni passo. Non mascotte. Lavoratori. Silenziosi, instancabili, migliorabili a ogni errore. Lì dentro la quotidianità era diventata debug continuo. Ogni inciampo un dato. Ogni ritardo un log. E se sei uno che è cresciuto a patch note e changelog, capisci subito perché questa roba è irresistibile per un’azienda che deve muovere decine di migliaia di punti vendita senza perdere il controllo. Non è romanticismo. È architettura del caos.

Negli Stati Uniti la sperimentazione ha preso una forma più… pragmatica. Ordini intercettati da sistemi vocali che imparano le inflessioni regionali meglio di certi attori di Hollywood. Assistenti interni che gestiscono turni e tempi come se fossero un gestionale con la coscienza tranquilla. Chatbot che provano perfino a leggerti l’umore — cosa che, detta così, fa un po’ paura, ma detta bene sembra solo la versione industriale dell’amico che ti conosce troppo.

Tutto questo non nasce dal nulla. Nasce da anni difficili, da numeri che non tornavano, da investitori impazienti. Nasce dall’arrivo di Brian Niccol, uno chiamato per ribaltare il tavolo senza rompere i piatti. E il paradosso è tutto lì: mentre le vendite ricominciano a salire, il mercato storce il naso. Troppa spesa. Troppa tecnologia. Troppo futuro, forse. Il titolo scende, gli analisti borbottano, ma intanto il sistema impara.

E tu lo sai, perché hai visto questo film mille volte. Prima nei manga cyberpunk, poi nei giochi gestionali, poi nella realtà che copia male la fantascienza e a volte la supera. All’inizio sembra tutto un esperimento. Poi diventa standard. E quando funziona davvero, nessuno chiede più di tornare indietro. Nessuno chiede di parlare con “una persona vera”. Chiede solo che tutto fili liscio.

La cosa che resta sospesa — e che rende questa storia interessante davvero — non è se i robot funzioneranno. Lo faranno. Non è nemmeno se costeranno meno. Lo faranno, anche quello. La domanda vera è un’altra, ed è quella che ti resta addosso mentre esci e ti guardi intorno come se il mondo fosse cambiato di mezzo grado.

Quando l’esperienza diventa invisibile, quando l’efficienza smette di sembrare tecnologia e inizia a sembrare normalità… tu, da che parte stai?
E soprattutto: te ne accorgi ancora, quando il futuro ti parla con voce gentile?

Rambo torna alle origini: il prequel ambientato in Vietnam riscrive la nascita del mito

Era scritto nelle pieghe della storia del cinema action, inciso tra una VHS consumata e una locandina appesa storta in cameretta. Il mito di Rambo non poteva restare fermo, congelato nella nostalgia muscolare degli anni Ottanta. Prima o poi qualcuno avrebbe avuto il coraggio di tornare indietro, di sporcare di nuovo le mani nel fango originario da cui tutto è nato. Non l’America dei reduci dimenticati, non le strade gelide di Hope, ma la giungla. Quella vera. Quella che ti entra sotto la pelle e non se ne va più. Il Vietnam.

Il nuovo progetto dedicato a John Rambo nasce esattamente da qui: non come sequel, non come revival, ma come prequel. Un viaggio a ritroso nel tempo, molto prima che il nome Rambo diventasse sinonimo di guerra solitaria e sopravvivenza estrema. Prima del coltello iconico, prima della bandana, prima dello sguardo di granito scolpito da Sylvester Stallone.

L’annuncio è arrivato con la solennità che spetta ai grandi ritorni, sotto i riflettori del Marché du Film di Cannes 2025. Millennium Media ha confermato ufficialmente lo sviluppo del prequel, lasciando volutamente nascosto il titolo definitivo, come se anche il nome dovesse essere guadagnato sul campo. A dirigere l’operazione è stato chiamato Jalmari Helander, regista che ha già dimostrato di saper maneggiare l’azione come una materia viva, sporca, fisica. Chi ha visto Sisu o Big Game sa di cosa stiamo parlando: cinema che profuma di sudore, di terra umida, di resistenza portata all’estremo.

Le riprese sono partite in Thailandia, scelta che non ha nulla di turistico e molto di funzionale. Caldo opprimente, vegetazione fitta, orizzonti che si chiudono addosso. Il Vietnam cinematografico non è mai stato solo una location, ma uno stato mentale, e qui si punta a restituirlo senza filtri patinati. Helander lo ha detto chiaramente: questa non è una storia di gloria, ma di sopravvivenza. Un racconto essenziale, crudo, quasi doloroso, in cui l’innocenza non viene persa di colpo, ma consumata giorno dopo giorno.

Il film si concentra su un John Rambo giovane, ancora lontano dall’icona pop. Un soldato che impara troppo in fretta cosa significa essere mandato a combattere e lasciato solo. Un ragazzo che scopre che la guerra non finisce quando smettono di sparare. La sceneggiatura, firmata da Rory Haines e Sohrab Noshirvani, affronta la sfida più delicata: raccontare Rambo senza affidarsi ai simboli che lo hanno reso leggendario. Qui non conta la mitologia, ma la ferita.

A dare un volto a questo Rambo delle origini sarà Noah Centineo, scelta che ha inevitabilmente diviso la community. Da una parte chi non riesce nemmeno a immaginare Rambo senza Stallone, dall’altra chi intravede l’occasione di raccontare finalmente la fragilità dietro il mito. Centineo arriva da un percorso molto diverso, fatto di serialità contemporanea e nuovi immaginari pop, ed è proprio questo scarto a rendere l’operazione interessante. Qui non serve un corpo scolpito per intimidire, serve uno sguardo capace di reggere il peso di ciò che sta accadendo.

E Stallone? L’ombra del suo Rambo aleggia inevitabilmente su tutto il progetto. L’attore, oggi settantanovenne, ha raccontato di aver accarezzato l’idea di interpretare lui stesso il prequel grazie all’Intelligenza Artificiale, immaginandosi ringiovanito digitalmente fino a tornare diciottenne. Un sogno che suona folle e commovente allo stesso tempo, perfettamente coerente con una carriera costruita sul dialogo continuo tra passato e presente. Ma la realtà ha preso un’altra direzione. Stallone non sarà coinvolto direttamente, e forse è giusto così. Alcuni passaggi di testimone fanno male, ma sono necessari.

Per capire perché questo prequel conti davvero, bisogna tornare alle origini. First Blood non era un semplice action movie: era un film politico, un atto d’accusa, il ritratto di un reduce che non trova posto nel mondo che lo ha creato. Da lì, attraverso sequel sempre più spettacolari, Rambo è diventato un simbolo globale, una figura capace di attraversare decenni, media e generazioni. Il personaggio nasce dalla penna di David Morrell, e sul grande schermo si è trasformato in qualcosa di più grande del cinema stesso. Un’icona pop che ha superato gli ottocento milioni di dollari al box office e si è infiltrata in cartoni animati, videogiochi, action figure e immaginario collettivo.

Il prequel, però, sembra voler fare un passo di lato rispetto a questa eredità. Non punta a rilanciare il franchise con la nostalgia facile, ma a scavare. A mostrare la nascita del trauma, il momento in cui la guerra smette di essere una missione e diventa una condanna interiore. Helander lo ha detto senza giri di parole: girare questo film è come toccare un sogno. Un sogno che nasce da quando, undicenne, vide Rambo per la prima volta e capì che il cinema poteva essere anche questo: un’esperienza che ti cambia, che ti resta addosso.

Dentro questa operazione c’è qualcosa che va oltre il marketing. C’è il tentativo di raccontare la guerra non come spettacolo, ma come origine di una frattura. Di parlare a chi è cresciuto con Rambo come a chi lo conosce solo come meme o icona. Se il film riuscirà a mantenere questa promessa, potrebbe diventare uno dei prequel più interessanti degli ultimi anni, capace di dialogare con il cinema action contemporaneo senza tradire la propria anima.

Il viaggio di John Rambo, in fondo, non è mai stato davvero finito. Ogni volta che sembra chiudersi, trova il modo di riaprirsi, di tornare a bussare alla porta della memoria collettiva. E quando, tra i rami intrecciati della giungla, risuonerà di nuovo il primo colpo di fucile, non sarà solo l’inizio di una missione. Sarà il ritorno a una casa fatta di sudore, cicatrici e ricordi che non smettono mai di bruciare. 💥

L’AI sta riscrivendo il videogioco: meraviglia, scosse industriali e la stagione dei licenziamenti

C’è stato un tempo, che oggi sembra quasi appartenere a un’era geologica differente, in cui il termine “Intelligenza Artificiale” applicato ai videogiochi evocava immagini rassicuranti e circoscritte. Pensavamo al fumo nero di un nemico in F.E.A.R. che ci aggirava con una furbizia quasi umana, o a quel “Director” invisibile di Left 4 Dead che decideva, con sadica precisione, quando scagliarci contro un’orda proprio mentre eravamo a corto di medikit. Era un’AI addomesticata, un trucco di magia digitale progettato esclusivamente per rendere più vibrante la nostra esperienza ludica. Oggi, però, quella stessa tecnologia è uscita dai confini del monitor per sedersi prepotentemente dall’altra parte della scrivania, proprio dove si decidono i budget, si scrivono le pipeline di produzione e, purtroppo, si firmano i licenziamenti.

L’industria videoludica sta attraversando un cambio di paradigma che definire epocale è quasi un eufemismo. Se prima l’AI era l’attrice non protagonista incaricata di rendere più credibile un mondo virtuale, oggi è diventata il capocantiere, l’architetto e, in alcuni casi, il consulente per i tagli al personale. Il confine tra innovazione tecnologica e ristrutturazione selvaggia si è fatto sottilissimo, scatenando nella community nerd quel mix esplosivo che conosciamo fin troppo bene: un briciolo di meraviglia tecnologica soffocato da una valanga di scetticismo e da una rabbia che ribolle sui forum di tutto il mondo.

Il caso che ha scoperchiato il vaso di Pandora riguarda uno dei giganti intoccabili del settore: Activision. La conferma dell’utilizzo di strumenti generativi per la creazione di alcune “calling card” in Call of Duty: Black Ops 7 è stata la scintilla che ha appiccato il fuoco. Non parliamo di sistemi complessi di gameplay o di sceneggiature ramificate, ma di elementi puramente estetici e accessori. Eppure, in un clima già reso elettrico da un’ondata di licenziamenti senza precedenti, questo dettaglio è stato percepito come un pericoloso precedente. Non è più una questione di pixel, ma di dignità del lavoro creativo. La reazione è stata così virulenta da travalicare i confini del settore, arrivando sui tavoli della politica. Il deputato Ro Khanna ha sollevato dubbi pesantissimi, criticando l’uso dell’AI come paravento per gonfiare i margini di profitto a scapito dei lavoratori e suggerendo persino misure drastiche come tassazioni specifiche per le aziende che sostituiscono i ruoli creativi con gli algoritmi. È la prova definitiva che il gaming è finalmente riconosciuto come un’industria culturale “vera”, con responsabilità sociali che vanno ben oltre il semplice intrattenimento.

Mentre la politica discute, la tecnologia corre a una velocità che mette i brividi. Google DeepMind ha recentemente alzato il velo su Project Genie, promettendo qualcosa che fino a due anni fa avremmo definito fantascienza pura: mondi 3D interattivi generati interamente partendo da un semplice prompt testuale. Non ci sono più i classici editor di livelli carichi di parametri e menu a tendina; c’è invece una sorta di “immaginazione computazionale” che crea il terreno sotto i piedi del giocatore mentre quest’ultimo avanza. L’impatto iniziale è quel senso di meraviglia infantile che ci ha fatto innamorare di questo medium: l’idea di descrivere un luogo onirico e potervi entrare istantaneamente. Tuttavia, la magia si incrina non appena subentra il pragmatismo del mondo reale. Sebbene Genie oggi produca esperienze ancora grezze, brevi e piene di glitch grafici, rappresenta un trailer tecnologico di ciò che ci aspetta. Il timore non è che l’AI rimpiazzi domani il game designer, ma che diventi l’alibi perfetto per giustificare produzioni “fast food”, dove la quantità di contenuti generati sostituisce la qualità della visione autoriale.

I mercati finanziari, che spesso agiscono con la stessa impulsività di un NPC programmato male, hanno reagito con un panico degno di un romanzo cyberpunk. All’annuncio di queste nuove frontiere generative, titoli storici come Take-Two Interactive, Roblox, Unity e persino CD Projekt hanno subito scossoni pesanti in borsa. Gli investitori vedono nell’automazione una via di fuga dai costi di produzione che, nell’ultimo decennio, sono diventati un vero e proprio “mostro finale” imbattibile. Sviluppare un tripla A oggi richiede tempi biblici e budget che farebbero impallidire un blockbuster di Hollywood. In questo scenario, l’AI non è solo una curiosità tecnica, ma una tentazione irresistibile per chiunque debba far quadrare i bilanci.

E qui arriviamo alla nota dolente, quella che ogni appassionato di cultura nerd fatica a digerire: i licenziamenti. Tra il 2022 e l’inizio del 2026, l’industria ha visto decine di migliaia di professionisti perdere il posto. Sarebbe intellettualmente disonesto incolpare esclusivamente l’intelligenza artificiale; la crisi affonda le radici in scommesse sbagliate sui modelli live service, espansioni folli durante la pandemia e una gestione aziendale che ha rincorso una crescita infinita in un mondo dai tempi finiti. Ma l’AI agisce come un catalizzatore chimico: se un’azienda è già intenzionata a tagliare, la promessa di uno strumento che può “fare di più con meno” diventa la giustificazione morale ideale per svuotare interi uffici.

Il rischio più subdolo che stiamo correndo non è l’apocalisse improvvisa del game development, ma una lenta e silenziosa standardizzazione della creatività. Un videogioco non è mai stato solo una somma di texture e modelli poligonali; è ritmo, è regia, è quella sensibilità squisitamente umana che si nasconde dietro un dialogo o un’inquadratura. L’AI può costruire l’impalcatura, può accelerare la fase di prototipazione e magari aiutare nei playtest più noiosi, ma non può (ancora) avere una visione. Il pericolo è trovarsi sommersi da mondi tecnicamente impeccabili ma emotivamente vuoti, dove tutto sembra già visto perché derivato da un database di cose già esistenti.

I dati emersi dal sondaggio della Game Developers Conference 2026 sono un grido d’allarme che non può essere ignorato. La percentuale di sviluppatori — ovvero delle persone che queste tecnologie le creano e le integrano quotidianamente — che considera l’AI generativa dannosa per l’industria è in costante aumento. Non è luddismo o paura dell’ignoto; è la consapevolezza di chi vede come questi strumenti vengono gestiti dai piani alti. C’è una sfiducia crescente verso una dirigenza che sembra più interessata a risparmiare sui salari che a investire sul talento.

Siamo a un bivio fondamentale. L’intelligenza artificiale può essere il miglior “party member” di sempre, un alleato in grado di potenziare la creatività umana e liberare gli sviluppatori dai compiti più alienanti, oppure può essere il boss finale che sancisce la fine dell’era dell’oro del gaming d’autore. Per evitare che il medium si impoverisca, è necessario un nuovo patto etico che metta al centro la trasparenza, il consenso e la tutela dei ruoli creativi. Il futuro del gioco non dovrebbe riguardare la nostra capacità di scrivere un prompt perfetto, ma la nostra volontà di continuare a costruire mondi che valga la pena abitare, nati dal sudore e dall’ingegno di chi quei mondi li ama davvero. La partita è appena iniziata, e stavolta il controller è nelle nostre mani: preferiamo un futuro generato o un futuro creato?


Ti piacerebbe che approfondissi l’impatto di queste tecnologie specificamente sul mondo degli studi indipendenti, per capire se l’AI possa essere per loro un’ancora di salvezza o un’ulteriore minaccia?

Intelligenze artificiali: all’immortalità qualcosa sfugge

Esiste una sensazione strana, quasi disturbante, che aleggia nell’aria ogni volta che si parla di intelligenza artificiale e immortalità. Una sensazione che assomiglia a quel brivido lungo la schiena che provavamo la prima volta davanti a un film cyberpunk, quando capivamo che il futuro non sarebbe stato soltanto lucido e tecnologico, ma anche profondamente ambiguo. L’idea che persino la morte stia diventando porosa, attraversabile, riscrivibile, è uno dei segni più evidenti del tempo in cui viviamo. Un’epoca in cui l’addio definitivo inizia a sembrare un concetto obsoleto, sostituito da una persistenza digitale fatta di dati, tracce, profili, messaggi vocali e conversazioni archiviate.

Per millenni l’umanità ha raccontato la propria paura della fine attraverso miti e leggende. L’epopea di Gilgamesh, gli alchimisti alla ricerca dell’elisir, i racconti medievali di resurrezione, fino alla fantascienza più visionaria del Novecento. Oggi quel desiderio antico non si manifesta più sotto forma di magia o intervento divino, ma come servizio tecnologico. L’immortalità non viene promessa in cielo, bensì nel cloud. Non passa più dal corpo, ma dall’algoritmo. E qui la fantascienza smette di essere un semplice genere narrativo per diventare cronaca.

Chi è cresciuto divorando romanzi cyberpunk o guardando episodi disturbanti di Black Mirror riconosce subito il territorio. Solo che questa volta non siamo davanti a una distopia immaginata, ma a un mercato reale che prende forma sotto il nome di “digital afterlife”. Un’industria che utilizza ciò che lasciamo dietro di noi – email, chat, note vocali, video, post social – per ricostruire versioni digitali di persone scomparse. Non copie perfette, certo, ma simulazioni sempre più sofisticate, capaci di rispondere, ricordare, dialogare. Una forma di sopravvivenza simbolica che mette insieme intelligenza artificiale, memoria e desiderio umano di non separarsi mai davvero.

L’espressione “immortalità digitale” non indica una vita eterna nel senso biologico, ma una permanenza identitaria. È la possibilità di continuare a esistere come voce, stile comunicativo, modo di pensare. Un’estensione postuma dell’io, alimentata dai dati prodotti in vita. Questo fenomeno è stato recentemente analizzato anche dall’Eurispes, che lo descrive come uno dei campi più controversi dell’innovazione contemporanea, capace di attrarre investimenti, curiosità e allo stesso tempo timori profondi. L’IA, in questo scenario, non si limita più ad assistere i vivi: inizia a dialogare con i morti.

Il punto di svolta sta tutto lì, in quella promessa tanto semplice quanto devastante. Continuare a parlare con chi non c’è più. In alcuni contesti culturali, come quello cinese, questa idea ha trovato terreno fertile. La venerazione degli antenati si è fusa con l’iper-tecnologia, dando vita a chatbot e avatar commemorativi che replicano voce, espressioni, persino atteggiamenti emotivi delle persone scomparse. Non stiamo parlando di prototipi da laboratorio, ma di servizi commerciali già disponibili, utilizzati da famiglie in cerca di conforto o di un ultimo dialogo sospeso.

Dietro queste esperienze si muove una macchina tecnologica impressionante. Riconoscimento facciale, reti neurali, modelli linguistici addestrati su enormi archivi personali. In Corea del Sud, la società DeepBrain AI ha spinto il concetto al limite con sistemi capaci di ricreare avatar iperrealistici dei defunti, basati su ore di registrazioni video. L’incontro non avviene su uno schermo qualunque, ma in ambienti di realtà virtuale dove la distanza tra simulazione ed esperienza emotiva si riduce drasticamente. Per alcuni è una forma di terapia, per altri un’esperienza traumatica. E in entrambi i casi, il prezzo non è solo emotivo.

Qui entra in gioco un concetto che fa tremare i polsi: la grief tech, la tecnologia del lutto. Una frontiera in cui psicologia, business e intelligenza artificiale si intrecciano in modo delicatissimo. Startup europee e americane stanno sviluppando chatbot in grado di “rianimare” digitalmente i defunti grazie ai dati raccolti dai loro dispositivi. Il modo di scrivere, le frasi ricorrenti, le battute private diventano pattern. E quando l’IA inizia a rispondere esattamente come quella persona, il cervello fa fatica a mantenere le distanze. Non è più solo memoria. È interazione.

Alcuni sistemi arrivano a simulare contatti spontanei, messaggi inattesi, chiamate che sembrano partire dall’aldilà digitale. Un’idea potentissima, e anche pericolosa. Perché il lutto, che per secoli è stato un processo doloroso ma necessario, rischia di trasformarsi in una relazione senza fine, alimentata da notifiche e risposte automatiche. Ed è qui che la riflessione etica diventa urgente.

Diversi studiosi, tra cui ricercatori dell’Università di Cambridge, hanno messo in guardia sui potenziali effetti psicologici dei cosiddetti deadbot. Il rischio non è teorico. Un’interazione costante con una replica digitale può bloccare l’elaborazione della perdita, creare dipendenze emotive e confusione percettiva. Il dolore non viene superato, ma sospeso in una bolla artificiale. Una sorta di limbo emotivo che ricorda certe narrazioni fantascientifiche… solo che questa volta non c’è un regista a dirci quando spegnere lo schermo.

C’è poi una questione ancora più inquietante, che riguarda il controllo. Se la voce di una persona scomparsa diventa un prodotto, chi decide come viene utilizzata? Chi stabilisce i limiti? Il rischio di una mercificazione del dolore è concreto. Abbonamenti, microtransazioni emotive, pacchetti premium di memoria digitale. La morte come piattaforma. Il lutto come flusso di dati monetizzabile. Un’idea che fa venire i brividi, soprattutto se pensiamo a quanto siamo già disposti a pagare per non sentirci soli.

Eppure, questa deriva non nasce dal nulla. Alcuni degli esperimenti più noti di resurrezione digitale sono diventati vere e proprie pietre miliari della cultura tech contemporanea. Dalla creazione di chatbot basati su conversazioni reali, fino alla nascita di app come Replika, sviluppata a partire da un progetto di memoria personale. Ogni caso racconta la stessa tensione di fondo: il desiderio umano di trattenere ciò che ama, anche a costo di ridefinire il confine tra vita e simulazione.

Guardando questo panorama, viene spontaneo immaginare una gigantesca necropoli digitale in costruzione. Un luogo senza lapidi, fatto di server e archivi, dove le identità continuano a parlare, raccontare, rispondere. Una sorta di aldilà tecnologico che cresce silenziosamente, mentre le IA diventano sempre più brave a imitare ciò che siamo stati. Ma cosa resta davvero dell’umano, quando l’esperienza della fine viene rimandata all’infinito?

Il rischio più grande, come sottolineano diversi filosofi e studiosi del rapporto tra tecnologia e morte, è quello di rimanere intrappolati in un eterno presente. Se nessuno se ne va davvero, se l’addio viene continuamente rimandato, anche la vita perde parte della sua urgenza. La finitezza, per quanto spaventi, è sempre stata il motore delle nostre scelte, delle nostre storie, dei nostri legami.

L’immortalità digitale è una promessa seducente, soprattutto per una generazione cresciuta online, abituata a lasciare tracce ovunque. Ma è anche una trappola sottile. Perché la memoria, anche la più fedele, non è presenza. Un avatar non è una persona. Eppure il cuore, davanti a una voce familiare che risponde, tende a dimenticarlo.

La vera domanda, allora, non riguarda ciò che possiamo fare con l’intelligenza artificiale, ma ciò che siamo disposti ad accettare. In un mondo in cui i server rischiano di diventare cimiteri e gli algoritmi nuovi custodi del ricordo, serve una riflessione collettiva, profonda, non delegabile al solo mercato. Forse il vero atto rivoluzionario, nel futuro ipertecnologico che ci aspetta, sarà ancora quello più difficile da compiere: imparare a dire addio. E continuare a vivere, proprio perché il tempo è limitato.

Khaby Lame, dal gesto virale all’avatar infinito: quando l’influencer diventa infrastruttura

Il rumore è diventato la nostra colonna sonora obbligatoria. Notifiche che mordono, commenti che si accavallano, video che urlano “guardami” prima ancora di avere qualcosa da dire. Eppure, nella cultura pop, i veri colpi bassi spesso arrivano muti. Il silenzio non è assenza: è potere. È quella pausa perfetta in cui capisci tutto senza che nessuno ti imbocchi. È Link che attraversa Hyrule con la faccia da “ok, ci penso io” e non spreca fiato. È Buster Keaton che piega la realtà con un’espressione immobile e ti fa ridere mentre, sotto sotto, ti sta dicendo una cosa tristissima sulla vita.

Poi è arrivato Khaby Lame e, senza volerlo, ha fatto saltare il banco.

Perché Khaby non è esploso come esplodono gli altri. Niente catchphrase da replicare, niente monologhi da montare in duetti, niente prediche. Solo quell’aria da “ma davvero?” e quelle mani aperte che non accusano, non insultano, non si mettono sul piedistallo. Tagliano il superfluo. E il bello è che lo fanno con un gesto che capiscono tutti, anche tua zia che su TikTok ci è finita “per sbaglio” e adesso manda video alle due di notte come se stesse segnalando un’invasione aliena.

Io me lo ricordo benissimo quel periodo in cui l’algoritmo sembrava una divinità distratta, capace di incoronarti per un colpo di fortuna o di cancellarti per un niente. In mezzo alla pandemia, mentre le giornate si sfilacciavano e la vita sembrava sospesa come una schermata di caricamento, lui ha preso una cosa piccola e l’ha resa gigantesca. Da Chivasso al mondo. Casa, telefono, luce qualunque. Un licenziamento sullo stomaco, la sensazione di essere stato espulso dalla partita. E invece no: respawn.

Ed è lì che la storia, che già sembrava una lore perfetta per chi ama i racconti di riscatto, si è trasformata in qualcos’altro. Qualcosa che non ha più solo a che fare con i follower, i meme, l’iconicità, le comparsate. Perché quando arrivi a incrociare lo sguardo dell’industria, succede sempre questa magia nera: ti misurano. Ti schedano. Ti impacchettano.

E qui entrano i numeri, quelli che fanno impazzire i “profeti” della creator economy e che nei reel diventano coriandoli.

La frase che gira è sempre quella: “vale un miliardo”. Ma detta così è una di quelle semplificazioni da life hack, proprio quelle che Khaby smonta. Il punto non è “un creator incassa un miliardo”. Il punto è che una micro-realtà di Hong Kong promette una cifra quasi irreale per mettere le mani su un brand. E già qui, se ti fermi un secondo e respiri, senti un rumorino di plastica che scricchiola.

L’operazione riguarda Step Distinctive Limited e chi compra è Rich Sparkle Holdings Limited, quotata come ANPA. Il racconto pubblico è pieno di cifre grosse, elastiche, perfette da impilare in un titolo acchiappa-like. Ma la sostanza è molto meno cinematografica di come la vendono: non c’è la valigetta, non c’è il bonifico che ti fa tremare il telefono, non c’è il “qui e ora” che suona come un colpo di cassa in un film di rapine.

C’è carta. Azioni.

E le azioni sono affascinanti e terribili per lo stesso motivo: ti danno un valore che respira, ma respirando può anche collassare. Quel miliardo esiste finché il titolo regge, finché qualcuno lo crede, finché la storia resta più brillante dei dubbi. Se il prezzo scende, la cifra si sgonfia come un boss gonfiato male in un gioco pieno di bug. E quando il valore si riduce in corsa, ti accorgi che non stai guardando una montagna d’oro, ma un castello di riflessi.

A me, questa cosa ricorda in modo quasi irritante certi periodi in cui una parola di moda bastava a trasformare la percezione di un’azienda. Ieri era “crypto”, oggi è “AI”. Domani chissà, magari “quantum vibes” o “metaverse 2.0”, che già mi viene da ridere e piangere insieme. Lo schema emotivo è sempre lo stesso: prendi qualcosa di piccolo, gli attacchi addosso una narrativa gigantesca, lo fai brillare nei comunicati e aspetti che la folla arrivi.

Ed è qui che la faccenda smette di essere solo finanza e torna a essere cultura pop, cioè il nostro territorio. Perché la parola che si porta dietro tutta l’operazione è quella che manda in tilt la mia parte cyberpunk: digital twin.

Non stiamo parlando della solita concessione d’immagine per una capsule collection o per una pubblicità a orologeria. Qui si parla di replicare un’identità con Face ID, Voice ID, modelli comportamentali autorizzati. In pratica: prendere un essere umano e trasformarlo in un’interfaccia. In un asset riproducibile, scalabile, instancabile. La creatura perfetta per vivere in eterno dentro lo scroll.

E il paradosso, se ci pensi, è che Khaby è l’ideale proprio perché è minimalista. Non devi clonare un copione, non devi ricostruire una battuta, non devi imitare una parlantina. Devi ricostruire un gesto. Una micro-espressione. Quel silenzio che, finché era umano, era autentico. Finché era stanchezza vera, ironia vera, tempo vero.

Ora immagina quella stessa cosa imbustata in un algoritmo che può “performare” ventiquattr’ore su ventiquattro, in ogni lingua, su ogni piattaforma, su ogni mercato. Non più intrattenimento, ma conversione. Non più “ti faccio ridere”, ma “ti faccio comprare”. Ed è qui che mi viene in mente Black Mirror, sì, però con quel retrogusto fastidioso del “lo stiamo già facendo e nessuno ha staccato la spina”.

Nel frattempo, la versione umana prova a scappare dalla gabbia dorata del meme. Cinema, progetti internazionali, il tentativo sacrosanto di non restare inchiodato a un gesto per tutta la vita. E come dargli torto? Abbiamo visto cosa succede quando internet decide che sei una cosa sola: ti applaude mentre ti incastra. E se hai la sfortuna di funzionare troppo bene, diventare un’icona smette di essere un premio e diventa un contratto.

Il mondo dello spettacolo adora gli ingressi trionfali. Ti porta ai red carpet, ti mette accanto alle leggende, ti fa sentire invincibile. Poi, dietro le quinte, apre un foglio di calcolo e ti riduce a una riga. E in quella riga finiscono anche incontri e momenti che sembrano surreali, come le foto con Robert Downey Jr. o Tom Cruise, la sensazione che Hollywood ti abbia annusato e deciso che sei spendibile, il passaggio dalla gag al sistema.

Mi torna sempre in mente quella specie di benedizione pop ricevuta da Mark Zuckerberg, perché ha qualcosa di simbolico e quasi crudele: l’uomo che ha contribuito a trasformare la comunicazione in infrastruttura che ti “riconosce” e ti “ottimizza”, che guarda il re del silenzio e gli mette un timbro invisibile sulla fronte. Benvenuto nel circuito.

E mentre qualcuno si esalta con la morale motivazionale del “se ci credi ce la fai”, io resto con una domanda più scomoda che mi rimbalza in testa come una notifica che non vuoi aprire: quanto resta della magia quando la magia diventa automatizzata? Quando il gesto non nasce più dall’essere lì, ma dall’essere programmato per risultare efficace?

Perché Khaby ha vinto in un modo rarissimo: non ti ha chiesto di amarlo, non ti ha sedotto con la parlantina, non ti ha catechizzato. Ti ha fatto riconoscere la stupidità del superfluo con una semplicità quasi terapeutica. E quella semplicità, dentro un sistema di azioni che salgono e scendono, dentro una narrativa costruita su “AI” e “rivoluzione”, rischia di diventare proprio ciò che lui prendeva in giro: una complicazione inutile. Un orpello.

Magari sarà tutto legittimo, magari sarà un caso di scuola, magari tra qualche anno diremo “era inevitabile” con quella rassegnazione da finale di stagione che ti lascia vuoto. Oppure assisteremo al momento in cui il pubblico annusa la plastica sotto la pelle digitale e decide che non gli basta più. Che preferisce l’imperfezione, la pausa, l’umano che si distrae e sbaglia tempo.

Resta il fatto che, se davvero la strada è popolata di gemelli digitali che non dormono e non invecchiano, Khaby è uno dei primi nomi mainstream a essere spinto dentro quella porta. E la cosa mi fa venire voglia di alzare le mani come lui, solo che stavolta non per dire “ovvio”, ma per chiedere una cosa alla community: a che punto smettiamo di interagire con una persona e iniziamo, senza accorgercene, a fare binge di un prodotto? E quando succede… lo sentiamo, oppure continuiamo a scorrere?

Come creare videogiochi con le AI generative?

Parlare oggi di come creare videogiochi con le AI generative significa trovarsi esattamente su quella linea sottile che separa la nostalgia geek dal futuro che avanza a velocità warp. Una sensazione familiare, per chi è cresciuto smanettando con editor rudimentali, cheat code scritti su foglietti stropicciati e sogni troppo grandi per l’hardware dell’epoca. Solo che questa volta il sogno non si infrange contro i limiti tecnici. Questa volta prende forma. Si muove. Reagisce. E lo fa davanti ai nostri occhi.

L’arrivo di Genie 3, il nuovo modello di intelligenza artificiale sviluppato da Google DeepMind, segna uno di quei momenti che tra dieci anni ricorderemo come un “prima” e un “dopo”. Non si parla più di video generati o demo patinate buone per stupire su Twitter. Qui siamo davanti a mondi tridimensionali interattivi che nascono in tempo reale mentre li esplori, ambienti che si modellano partendo da una frase, da un’immagine, da uno schizzo fatto distrattamente come se fosse la mappa di un dungeon inventato a scuola durante l’ora di matematica.

La differenza rispetto al passato è netta. Le versioni precedenti di questo tipo di AI sembravano soffrire di una specie di smemoratezza cronica: bastava girare l’angolo e il mondo dimenticava cosa fosse successo un secondo prima. Genie 3, invece, introduce una continuità spaziale e visiva che cambia completamente la percezione dell’esperienza. Gli ambienti restano coerenti, ricordano, mantengono una logica interna per minuti interi. E all’improvviso non stai più osservando una simulazione, ma ti senti davvero dentro uno spazio che esiste anche quando non lo stai guardando.

Il punto affascinante è che l’AI non lavora come un engine tradizionale. Non assembla livelli come farebbe un editor classico, pezzo dopo pezzo, con regole rigide. Il suo comportamento ricorda molto di più quello di un dungeon master particolarmente ispirato. Interpreta il mondo, reagisce alle azioni del giocatore, prova a dare senso a ciò che accade. Non disegna soltanto uno scenario: lo vive insieme a te, con tutti gli inciampi e le stranezze tipiche di un’intelligenza che sta ancora imparando il linguaggio dei videogiochi.

Con Project Genie il discorso si spinge ancora oltre. Qui l’obiettivo non è stupire, ma permettere di creare, esplorare e remixare mondi virtuali in tempo reale. La soglia d’ingresso per la sperimentazione creativa si abbassa drasticamente. Idee che fino a ieri restavano chiuse in una cartella di appunti o nella testa di un designer diventano bozzetti navigabili, imperfetti ma vivi. Certo, emergono ancora glitch, animazioni improbabili, incoerenze tipiche delle AI. Ma come strumento di prototipazione il potenziale è enorme, quasi destabilizzante per chi ha passato anni a costruire proof of concept con tempi biblici.

In parallelo, un altro nome ha iniziato a rimbalzare tra le chat degli sviluppatori e le discussioni più accese su Discord: Mirage 2. La nuova versione di questo game engine generativo, accessibile via browser attraverso il portale di Dynamics Lab, porta il concetto di “dal prompt al gameplay” a un livello quasi surreale. Scrivi una descrizione testuale e ti ritrovi catapultato in un mondo giocabile. Non un mockup. Non un video. Un ambiente in cui puoi muoverti, esplorare, sperimentare.

La demo iniziale strizza l’occhio a immaginari ben noti, con scenari che ricordano titoli come Red Dead Redemption, ma il bello arriva quando inizi a forzare la mano. Fantasy, fantascienza, surreale puro. Cambi prospettiva, chiedi un altro stile, muovi il personaggio con i comandi base e osservi il mondo reagire. La latenza c’è, le imprecisioni pure, e le interazioni sono ancora limitate. Ma il fatto stesso di poter giocare dentro qualcosa che l’IA sta generando sul momento è un segnale fortissimo. Un assaggio di futuro.

Mirage 2 non crea esperienze complete e stabili, ed è giusto dirlo senza hype tossico. Però la velocità con cui questa tecnologia sta evolvendo fa impressione. In pochissimo tempo si è passati da demo statiche a mondi reattivi ai prompt. Affiancato a progetti come Genie 3, il messaggio è chiarissimo: siamo all’inizio di una nuova era, in cui l’intelligenza artificiale diventa uno strumento centrale per immaginare e prototipare videogiochi. Non per sostituire gli sviluppatori, ma per spostarne il ruolo. L’AI fornisce una bozza viva, esplorabile. Il game designer diventa un regista di possibilità.

Ed è proprio nella prototipazione che questa rivoluzione mostra il suo volto più concreto. Fino a poco tempo fa servivano settimane per trasformare un concept narrativo in qualcosa di vagamente giocabile. Oggi bastano poche righe evocative, scritte quasi come un incipit di fanfiction, per ottenere in minuti un sistema che assomiglia a un gioco vero. Genie spinge questa logica all’estremo, trasformando immagini statiche in micro-esperienze interattive, come se una vignetta decidesse all’improvviso di ribellarsi alla sua bidimensionalità.

Il salto successivo riguarda gli asset. Texture, icone, interfacce, ambientazioni complete possono nascere da piattaforme generative capaci di mantenere uno stile coerente. Il vero colpo di scena non è la velocità, ma la personalizzazione. Addestrare un modello sul proprio stile equivale a insegnare a un assistente invisibile come disegnare, lasciandolo poi libero di esplorare mille variazioni. L’artista non viene messo da parte, anzi. Diventa il centro di gravità di un processo creativo amplificato.

Lo stesso discorso vale per il 3D. Paesaggi procedurali, dungeon modulari, città che reagiscono al contesto narrativo stanno diventando sempre più accessibili grazie alla GenAI. L’idea di un mondo che si genera in tempo reale durante la partita, espandendosi mentre lo esplori, non sembra più una fantasia cyberpunk. Per chi ha passato notti a costruire mappe su StarCraft, Neverwinter Nights o Minecraft, è difficile non sentire un brivido lungo la schiena.

E mentre il mondo prende forma, anche l’audio cambia pelle. Colonne sonore che si modulano in base alle scelte del giocatore, effetti sonori generati sul momento, voci sintetiche capaci di adattare tono ed emozione alla scena stanno riscrivendo il concetto di narrazione sonora. La musica smette di essere semplice accompagnamento e diventa parte attiva del racconto.

Sul lato più tecnico, l’AI si rivela un alleato potentissimo. Generazione e ottimizzazione del codice per engine come Unity o Godot, individuazione di bug nascosti, supporto alla logica di sistema. Lo sviluppatore resta il custode della visione, ma il peso meccanico si alleggerisce, liberando spazio mentale per la creatività.

Quando poi l’intelligenza artificiale entra direttamente nel gameplay, il confine tra sviluppo e gioco si assottiglia ancora di più. NPC capaci di dialogare in modo naturale, missioni che si adattano al comportamento del giocatore, storie che nascono sul momento. L’idea di un RPG in cui ogni personaggio possiede memoria, emozioni simulate e una propria agenda narrativa smette di sembrare utopia e inizia a sembrare una questione di tempo.

In questo ecosistema emergono piattaforme che puntano a democratizzare la creazione videoludica. Strumenti accessibili anche a chi non ha competenze tecniche profonde, integrati con la GenAI per generare script, animazioni e logiche di gioco in pochi minuti. La barriera tecnica si abbassa, lasciando emergere ciò che conta davvero: la visione. E proprio qui nasce anche il lato oscuro della rivoluzione. Il rischio di omologazione, di mondi senz’anima, di giochi che sembrano cloni di cloni è reale. Per evitarlo, lo sviluppatore deve diventare curatore, architetto, interprete consapevole di ciò che l’AI produce.

A questo si aggiungono le questioni etiche. Dataset, proprietà intellettuale, valore del lavoro creativo. Sono domande aperte che non possono essere ignorate. La tecnologia corre veloce, ma la responsabilità deve correre ancora più veloce.

Eppure, nonostante tutto, l’energia che si respira è quella degli inizi. Quella sensazione elettrica che avevamo quando il medium videoludico era ancora un territorio selvaggio, tutto da esplorare. La GenAI non è il nemico della creatività umana. È un amplificatore. Un moltiplicatore. Un nuovo strumento da imparare a suonare.

Il futuro dei videogiochi non sarà scritto da una macchina. Sarà scritto da persone che useranno queste tecnologie per raccontare storie degne di essere vissute. E ora la palla passa a te. In quale universo giocherai domani? Continuerai a essere solo spettatore… o sei pronto a diventare anche creatore?

Alexa+, la svolta di Amazon che evolve l’assistente “un po’ tonto” in un’IA da fantascienza…

Immaginate la scena, un classico frame da inizio avventura: vi svegliate, la casa è ancora immersa in quella penombra che ricorda i caricamenti lenti di un open world e, invece della solita risposta robotica e monocorde, venite investiti da una voce inedita. Non è la solita Alexa, quella diligente assistente che si limitava a eseguire macro elementari senza fiatare; stavolta c’è un piglio diverso, una sfumatura ironica, quasi una consapevolezza metatestuale. Se per un attimo avete avuto il sospetto di essere scivolati dentro un JRPG di ultima generazione, circondati da NPC fin troppo loquaci, tranquillizzatevi: il vostro hardware cerebrale è intatto. Quello a cui state assistendo è l’irruzione di Alexa+ nella vostra quotidianità, un aggiornamento che sembra essere stato rilasciato con la stessa aggressività narrativa di un evento scriptato che non puoi saltare.

Questa mossa di Amazon è tutto fuorché timida. Alexa+, nata inizialmente come un’evoluzione opzionale, ha iniziato a spawnare automaticamente su ogni device dell’ecosistema, dai classici Echo ai Fire TV, passando per gli Echo Show. Per gli utenti Prime, l’update si è palesato come una patch obbligatoria: silenziosa, inevitabile e decisamente invasiva. Per anni abbiamo convissuto con una coinquilina digitale gentile ma limitata, una sorta di bot addetto esclusivamente all’illuminazione e alla riproduzione di playlist, castrata da un design che la costringeva a rispondere solo a input da telecomando nonostante un potenziale di calcolo vastissimo. Oggi, quella barriera sembra essere caduta, dando il via a una nuova era che somiglia terribilmente a un reboot cinematografico di una saga che credevamo di conoscere a memoria.

Il progetto Alexa+ è stato presentato circa un anno fa come una dichiarazione di guerra aperta nel settore delle intelligenze artificiali domestiche. Amazon, con oltre mezzo miliardo di dispositivi già piazzati nelle case di tutto il mondo, non ha cercato di nascondere il proprio obiettivo: recuperare il gap tecnologico rispetto a colossi come Google Assistant e Siri. Tuttavia, la competizione non si gioca più solo sul terreno delle feature tecniche, ma su quello, molto più scivoloso, della personalità. A guidare questa nuova fase è Panos Panay, che agisce come un vero e proprio showrunner di una serie TV ad alto budget, promettendo un’IA capace di parlare come un essere umano reale, di comprendere il contesto e, soprattutto, di anticipare i nostri bisogni senza costringerci a formulare query che sembrano scritte in un linguaggio di programmazione semplificato.

L’idea alla base è pura fantascienza nerd: non dovremo più dire “Alexa, imposta un timer”, ma avremo a che fare con un’entità che si inserisce nel flusso della nostra giornata. Immaginate di star preparando una maratona di Stranger Things e di sentire la vostra IA che, intuendo l’atmosfera, vi suggerisce di ordinare pizza e birra prima ancora che il pensiero si materializzi nella vostra mente. È un concetto affascinante, ma la realtà attuale ha ancora il sapore aspro di una versione beta non ancora ottimizzata. L’integrazione tra l’IA generativa e le funzioni core dell’assistente produce spesso un amalgama instabile. Le prime recensioni internazionali descrivono un’esperienza decisamente acerba, dove sveglie che si rifiutano di spegnersi e suggerimenti d’acquisto non richiesti rompono l’immersione, trasformando l’assistente in un compagno di viaggio a volte troppo sicuro di sé ma tecnicamente fallibile.

Questo divario tra l’ambizione del trailer e la resa effettiva del gameplay quotidiano è evidente. Alexa+ sembra un sistema ibrido che soffre di una crisi d’identità: alterna momenti di brillantezza conversazionale degni di una sceneggiatura di serie A a inciampi grossolani che la vecchia versione, pur nella sua rigidità, non avrebbe mai commesso. La community nerd, storicamente attenta e critica verso i cambiamenti imposti dall’alto, ha reagito con una resistenza non indifferente. Molti utenti hanno trovato la nuova voce eccessivamente “Gen Z”, troppo ammiccante e giovane, percependo un aumento sospetto di contenuti promozionali camuffati da consigli amichevoli. Anche la nuova modalità chat sugli Echo Show ha diviso il pubblico, lasciando rimpiangere a molti la vecchia interazione rapida e quasi invisibile.

Fortunatamente per chi predilige la stabilità al progresso a ogni costo, Amazon ha previsto una sorta di “rollback” elegante, una via di fuga che permette di evitare la boss fight contro la modernità. Con un semplice comando vocale è possibile disattivare le funzioni di Alexa+ e tornare a un’esperienza classica, mantenendo solo alcuni miglioramenti invisibili sotto la scocca. È persino possibile cambiare il tono della voce, abbandonando quella troppo energica per tornare a timbri più familiari e rilassati, come le storiche opzioni “Feminine 2” o “Relaxed”, ideali per chi vede nell’assistente uno strumento di domotica e non un partner con cui scambiare opinioni sul senso della vita.

Nonostante le critiche, è nella gestione della smart home che Alexa+ mostra i suoi power-up più interessanti. Il potenziale per una regia invisibile della casa è enorme: luci che si adattano autonomamente al momento della giornata, temperature regolate sulla base delle nostre abitudini implicite e un’integrazione sempre più profonda con brand esterni. Anche sul fronte dell’intrattenimento, l’assistente cerca di evolversi da semplice player a commentatore, provando a dialogare sui contenuti che stiamo consumando, anche se per ora sembra ancora un attore non protagonista che sta cercando di capire come stare sul palco senza rubare la scena nel modo sbagliato.

Ovviamente, dietro questo aggiornamento si nasconde una strategia commerciale che punta a trasformare Alexa in una piattaforma capace di generare entrate ricorrenti tramite modelli di abbonamento e funzioni premium. Questo sposta inevitabilmente il focus su temi caldi come la privacy e l’affidabilità delle informazioni. Un’intelligenza artificiale così sicura di sé rischia di presentare allucinazioni digitali con la stessa fermezza di un cantastorie galattico che confonde i fatti con il mito. In definitiva, Alexa+ non è ancora la versione definitiva di se stessa, ma l’inizio di un nuovo arco narrativo. È un episodio pilota ricco di promesse che dovrà dimostrare di saper maturare senza diventare un bloatware domestico. Per ora, la scelta resta a noi: tuffarci nell’adrenalina di questa beta o attendere la patch definitiva restando al sicuro nella nostra zona di comfort tecnologico.

Sarei curioso di sapere se avete già iniziato la vostra prima run con questo nuovo sistema o se preferite restare fedeli alla versione “vanilla” del vostro assistente. Fatemi sapere se Alexa+ ha già provato a spoilerarvi la cena o se è diventata la vostra nuova compagna di avventure digitali.

Intelligenza artificiale e sceneggiature: come l’IA sta cambiando cinema, serie TV e animazione nel 2026

L’intelligenza artificiale ha smesso da tempo di essere quella parola magica da trailer futuristico che evocava androidi senz’anima e ribellioni stile Skynet. Oggi, nel 2026, l’IA è seduta accanto agli sceneggiatori, con una tazza di caffè virtuale in mano, mentre osserva il copione prendere forma. Non ruba storie, non sogna mondi, non immagina traumi infantili o amori finiti male. Fa un’altra cosa, molto meno romantica ma incredibilmente potente: lavora. E lavora veloce.

Chi scrive per il cinema e la TV lo sa bene. La creatività pura resta umana, visceralmente umana, fatta di ossessioni personali, di notti insonni e di dialoghi riscritti cinquanta volte perché “così suona falso”. Ma tutto quello che sta intorno, tutto quel lavoro tecnico, ripetitivo, meccanico che per anni ha prosciugato energie e tempo, ora può essere delegato. L’IA non è l’autore. È il copilota. E come in ogni buon film di aviazione, se il copilota è bravo, il pilota può concentrarsi sulle manovre davvero difficili.

La trasformazione più evidente riguarda il modo in cui un’idea diventa immagine. Fino a pochi anni fa uno sceneggiatore scriveva una scena e poi aspettava. Settimane, a volte mesi, prima di vedere uno storyboard, un concept, una bozza visiva che aiutasse a capire se quella sequenza “funzionava” davvero. Oggi quel tempo si è compresso fino quasi a sparire. Una scena scritta può essere tradotta in pre-visualizzazioni immediate, bozze dinamiche che restituiscono atmosfera, ritmo, inquadrature. Non sono opere finite, certo, ma sono abbastanza per rispondere alla domanda più importante di tutte: funziona o no?

In parallelo, l’analisi narrativa è diventata una specie di specchio spietato. I software addestrati su migliaia di sceneggiature sanno riconoscere strutture, pattern, momenti morti, accelerazioni improvvise. Non ti dicono cosa scrivere, ma ti fanno notare dove stai inciampando sempre nello stesso punto. È come avere al tavolo un editor instancabile che non si stufa mai di rileggere la tua storia e segnalarti che sì, anche questa volta hai messo il colpo di scena dieci pagine troppo tardi.

Il punto di svolta simbolico di questa rivoluzione è arrivato con l’animazione. Il 2026 verrà ricordato come l’anno di “Critterz”, primo lungometraggio animato completato con un supporto massiccio di sistemi di intelligenza artificiale. Non un corto sperimentale, non un esercizio di stile, ma un vero film, distribuito e discusso. La cosa che ha fatto sobbalzare molti addetti ai lavori non è stata tanto l’estetica, quanto il tempo. Nove mesi di produzione contro i due o tre anni richiesti normalmente. E poi i costi: una cifra che, per gli standard dell’animazione mainstream, sembra quasi un glitch nel sistema.

Qui entra in gioco la parola che fa tremare i colossi. Democratizzazione. Se produrre animazione di qualità non richiede più capitali da major, allora piccoli studi, team indipendenti e creativi fuori dai soliti giri possono finalmente giocare la partita. Non significa che domani spariranno realtà come Pixar o DreamWorks, ma significa che il monopolio dell’immaginario inizia a incrinarsi. E per chi ama storie strane, sperimentali, non perfettamente allineate al marketing, questa è una notizia enorme.

In tutto questo, il mestiere dello sceneggiatore non scompare. Cambia pelle. Sempre più spesso chi scrive diventa un curatore, un editor del possibile. L’IA può generare dialoghi funzionali, frasi di raccordo, scambi che “fanno andare avanti la scena”. Quelli che nelle writers’ room vengono chiamati dialoghi di servizio. Ma il sottotesto, l’ironia, il dolore che filtra tra le righe, quello resta territorio umano. Nessun algoritmo sa cosa significa davvero perdere qualcosa. Può descriverlo, imitarlo, ma non viverlo. E il pubblico, anche quando non sa spiegare perché, sente la differenza.

Alcune produzioni stanno già sperimentando forme di narrazione adattiva, storie che cambiano leggermente in base alle preferenze dello spettatore. Non finali alternativi alla Black Mirror, ma micro-variazioni di tono, ritmo, enfasi. È un territorio delicato, affascinante e pericoloso allo stesso tempo, perché il confine tra personalizzazione e annacquamento creativo è sottilissimo.

Ovviamente non tutto è rose e render farm. Le tensioni etiche e sindacali sono reali e tutt’altro che risolte. I sindacati degli sceneggiatori, come la Writers Guild of America, hanno messo nero su bianco un principio fondamentale: l’IA può assistere, ma non può essere accreditata come autore. Dietro questa posizione non c’è solo una questione di ego, ma di diritti, di controllo e soprattutto di dati. Chi possiede le storie usate per addestrare i modelli? Chi decide come vengono riutilizzate? Sono domande che definiscono il futuro della narrazione tanto quanto una buona struttura in tre atti.

E poi c’è la paura, quella vera, che aleggia nelle writers’ room. Non tanto che l’IA scriva meglio degli umani, perché non lo fa, ma che l’industria scelga la strada più pigra. Riempire palinsesti e cataloghi di storie corrette, ben confezionate, ma senz’anima, perché costano meno e rischiano meno. Il problema, però, non nasce con l’IA. La televisione è piena di dialoghi da NPC da decenni. Frasi che sembrano uscite da un generatore automatico prima ancora che il generatore esistesse. L’IA non ha inventato questi cliché. Li ha solo imparati da noi.

Il nodo centrale resta l’intenzione narrativa. Un’intelligenza artificiale non sa perché una scena esiste. Sa solo che scene simili, in passato, funzionavano in un certo modo. La suspense, quella vera, non nasce dai token, ma dalle scelte. Da cosa mostri, cosa nascondi, cosa fai credere al pubblico un attimo prima di ribaltare il tavolo. È roba da Dungeon Master navigato, non da algoritmo.

Usare l’IA, alla fine, non è barare. È usare una scorciatoia consapevole. Come ogni autore ha sempre fatto, assimilando libri, film, serie, fumetti, giochi di ruolo, traumi personali e dialoghi rubati alla vita vera. Nessuno scrive nel vuoto. Nessuno è “puro”. L’importante è sapere chi sta tirando i dadi e chi sta raccontando il mondo.

Il vero nemico, come sempre, non è la tecnologia. È il design pigro. Se l’IA verrà usata per replicare formule all’infinito, il problema non sarà l’algoritmo, ma la mancanza di coraggio umano. Se invece diventerà uno strumento per liberare tempo, energie e spazio mentale, allora potremmo trovarci davanti a una nuova stagione creativa, più sporca, più varia, più interessante.

Alla fine della sessione, la verità è semplice. L’IA tira i dadi. Tu resti il Master. E se qualcuno ti chiede se stai davvero scrivendo tu, puoi sorridere, chiudere il manuale e rispondere con la frase più nerd e definitiva possibile: fine sessione. Esperienza guadagnata. Livello salito. Discussione aperta.

Exit mobile version