Starbucks e il cameriere robot: quando il futuro entra nel locale senza chiedere permesso

Entri — anzi, passi — e non te ne accorgi subito. Succede sempre così con le rivoluzioni silenziose: non fanno rumore, non annunciano boss fight, non partono con la musichetta epica. Semplicemente… funzionano. Tu parli, qualcuno ascolta, qualcosa risponde. E a un certo punto ti rendi conto che dall’altra parte non c’è nessuno che sbatte le palpebre. È lì che capisci che Starbucks ha deciso di smettere di giocare a fare il negozio “tradizionale” e ha iniziato a fare quello che ogni corporation con memoria lunga e nervi scoperti fa prima o poi: testare il futuro, ma sul serio. Non un concept da fiera, non una demo per investitori. Un posto reale, costruito da un braccio meccanico come fosse una stampante 3D con ambizioni architettoniche, dove l’esperienza non dipende più solo da chi indossa una divisa, ma da chi… non indossa nulla.

La cosa affascinante non è il gesto tecnico. Le macchine che parlano le abbiamo viste ovunque, dai videogame alle segreterie telefoniche che ti fanno venire voglia di lanciare il telefono dalla finestra. Qui però l’aria è diversa. Qui la macchina non è un filtro. È il front desk. Ti accoglie, ti capisce, registra quello che dici senza sospirare, senza sbagliare turno, senza dimenticare come si fa quella variante che chiede sempre tuo fratello e che nessuno ricorda mai. È come avere davanti un NPC che non resetta mai la memoria.

Dietro, mentre tu stai ancora pensando se questa cosa ti mette a disagio o ti incuriosisce da morire, succede altro. Algoritmi che tengono il tempo come un metronomo invisibile, sistemi che ricordano ricette e combinazioni meglio di qualunque umano in una giornata storta, scanner che contano, prevedono, anticipano. Roba noiosa? Sì. Roba fondamentale? Ancora di più. È quel tipo di tecnologia che non finisce nei trailer ma decide se una catena globale sopravvive o implode lentamente.

E poi c’è la parte che a noi nerd fa brillare gli occhi, anche se cerchiamo di non darlo a vedere. Perché non è la prima volta che questo brand gioca con i robot. Qualche anno fa, dall’altra parte del mondo, neòòa città di Seongnam in Corea del Sud, dentro la Naver 1784 Tower, la collaborazione con Naver aveva già fatto cose che sembravano uscite da un anime slice-of-life ambientato in un laboratorio. Cento robot che si muovevano su più piani come in un dungeon verticale, ascensori dedicati solo a loro, piattaforme cloud che coordinavano ogni passo. Non mascotte. Lavoratori. Silenziosi, instancabili, migliorabili a ogni errore. Lì dentro la quotidianità era diventata debug continuo. Ogni inciampo un dato. Ogni ritardo un log. E se sei uno che è cresciuto a patch note e changelog, capisci subito perché questa roba è irresistibile per un’azienda che deve muovere decine di migliaia di punti vendita senza perdere il controllo. Non è romanticismo. È architettura del caos.

Negli Stati Uniti la sperimentazione ha preso una forma più… pragmatica. Ordini intercettati da sistemi vocali che imparano le inflessioni regionali meglio di certi attori di Hollywood. Assistenti interni che gestiscono turni e tempi come se fossero un gestionale con la coscienza tranquilla. Chatbot che provano perfino a leggerti l’umore — cosa che, detta così, fa un po’ paura, ma detta bene sembra solo la versione industriale dell’amico che ti conosce troppo.

Tutto questo non nasce dal nulla. Nasce da anni difficili, da numeri che non tornavano, da investitori impazienti. Nasce dall’arrivo di Brian Niccol, uno chiamato per ribaltare il tavolo senza rompere i piatti. E il paradosso è tutto lì: mentre le vendite ricominciano a salire, il mercato storce il naso. Troppa spesa. Troppa tecnologia. Troppo futuro, forse. Il titolo scende, gli analisti borbottano, ma intanto il sistema impara.

E tu lo sai, perché hai visto questo film mille volte. Prima nei manga cyberpunk, poi nei giochi gestionali, poi nella realtà che copia male la fantascienza e a volte la supera. All’inizio sembra tutto un esperimento. Poi diventa standard. E quando funziona davvero, nessuno chiede più di tornare indietro. Nessuno chiede di parlare con “una persona vera”. Chiede solo che tutto fili liscio.

La cosa che resta sospesa — e che rende questa storia interessante davvero — non è se i robot funzioneranno. Lo faranno. Non è nemmeno se costeranno meno. Lo faranno, anche quello. La domanda vera è un’altra, ed è quella che ti resta addosso mentre esci e ti guardi intorno come se il mondo fosse cambiato di mezzo grado.

Quando l’esperienza diventa invisibile, quando l’efficienza smette di sembrare tecnologia e inizia a sembrare normalità… tu, da che parte stai?
E soprattutto: te ne accorgi ancora, quando il futuro ti parla con voce gentile?

L’AI sta riscrivendo il videogioco: meraviglia, scosse industriali e la stagione dei licenziamenti

C’è stato un tempo, che oggi sembra quasi appartenere a un’era geologica differente, in cui il termine “Intelligenza Artificiale” applicato ai videogiochi evocava immagini rassicuranti e circoscritte. Pensavamo al fumo nero di un nemico in F.E.A.R. che ci aggirava con una furbizia quasi umana, o a quel “Director” invisibile di Left 4 Dead che decideva, con sadica precisione, quando scagliarci contro un’orda proprio mentre eravamo a corto di medikit. Era un’AI addomesticata, un trucco di magia digitale progettato esclusivamente per rendere più vibrante la nostra esperienza ludica. Oggi, però, quella stessa tecnologia è uscita dai confini del monitor per sedersi prepotentemente dall’altra parte della scrivania, proprio dove si decidono i budget, si scrivono le pipeline di produzione e, purtroppo, si firmano i licenziamenti.

L’industria videoludica sta attraversando un cambio di paradigma che definire epocale è quasi un eufemismo. Se prima l’AI era l’attrice non protagonista incaricata di rendere più credibile un mondo virtuale, oggi è diventata il capocantiere, l’architetto e, in alcuni casi, il consulente per i tagli al personale. Il confine tra innovazione tecnologica e ristrutturazione selvaggia si è fatto sottilissimo, scatenando nella community nerd quel mix esplosivo che conosciamo fin troppo bene: un briciolo di meraviglia tecnologica soffocato da una valanga di scetticismo e da una rabbia che ribolle sui forum di tutto il mondo.

Il caso che ha scoperchiato il vaso di Pandora riguarda uno dei giganti intoccabili del settore: Activision. La conferma dell’utilizzo di strumenti generativi per la creazione di alcune “calling card” in Call of Duty: Black Ops 7 è stata la scintilla che ha appiccato il fuoco. Non parliamo di sistemi complessi di gameplay o di sceneggiature ramificate, ma di elementi puramente estetici e accessori. Eppure, in un clima già reso elettrico da un’ondata di licenziamenti senza precedenti, questo dettaglio è stato percepito come un pericoloso precedente. Non è più una questione di pixel, ma di dignità del lavoro creativo. La reazione è stata così virulenta da travalicare i confini del settore, arrivando sui tavoli della politica. Il deputato Ro Khanna ha sollevato dubbi pesantissimi, criticando l’uso dell’AI come paravento per gonfiare i margini di profitto a scapito dei lavoratori e suggerendo persino misure drastiche come tassazioni specifiche per le aziende che sostituiscono i ruoli creativi con gli algoritmi. È la prova definitiva che il gaming è finalmente riconosciuto come un’industria culturale “vera”, con responsabilità sociali che vanno ben oltre il semplice intrattenimento.

Mentre la politica discute, la tecnologia corre a una velocità che mette i brividi. Google DeepMind ha recentemente alzato il velo su Project Genie, promettendo qualcosa che fino a due anni fa avremmo definito fantascienza pura: mondi 3D interattivi generati interamente partendo da un semplice prompt testuale. Non ci sono più i classici editor di livelli carichi di parametri e menu a tendina; c’è invece una sorta di “immaginazione computazionale” che crea il terreno sotto i piedi del giocatore mentre quest’ultimo avanza. L’impatto iniziale è quel senso di meraviglia infantile che ci ha fatto innamorare di questo medium: l’idea di descrivere un luogo onirico e potervi entrare istantaneamente. Tuttavia, la magia si incrina non appena subentra il pragmatismo del mondo reale. Sebbene Genie oggi produca esperienze ancora grezze, brevi e piene di glitch grafici, rappresenta un trailer tecnologico di ciò che ci aspetta. Il timore non è che l’AI rimpiazzi domani il game designer, ma che diventi l’alibi perfetto per giustificare produzioni “fast food”, dove la quantità di contenuti generati sostituisce la qualità della visione autoriale.

I mercati finanziari, che spesso agiscono con la stessa impulsività di un NPC programmato male, hanno reagito con un panico degno di un romanzo cyberpunk. All’annuncio di queste nuove frontiere generative, titoli storici come Take-Two Interactive, Roblox, Unity e persino CD Projekt hanno subito scossoni pesanti in borsa. Gli investitori vedono nell’automazione una via di fuga dai costi di produzione che, nell’ultimo decennio, sono diventati un vero e proprio “mostro finale” imbattibile. Sviluppare un tripla A oggi richiede tempi biblici e budget che farebbero impallidire un blockbuster di Hollywood. In questo scenario, l’AI non è solo una curiosità tecnica, ma una tentazione irresistibile per chiunque debba far quadrare i bilanci.

E qui arriviamo alla nota dolente, quella che ogni appassionato di cultura nerd fatica a digerire: i licenziamenti. Tra il 2022 e l’inizio del 2026, l’industria ha visto decine di migliaia di professionisti perdere il posto. Sarebbe intellettualmente disonesto incolpare esclusivamente l’intelligenza artificiale; la crisi affonda le radici in scommesse sbagliate sui modelli live service, espansioni folli durante la pandemia e una gestione aziendale che ha rincorso una crescita infinita in un mondo dai tempi finiti. Ma l’AI agisce come un catalizzatore chimico: se un’azienda è già intenzionata a tagliare, la promessa di uno strumento che può “fare di più con meno” diventa la giustificazione morale ideale per svuotare interi uffici.

Il rischio più subdolo che stiamo correndo non è l’apocalisse improvvisa del game development, ma una lenta e silenziosa standardizzazione della creatività. Un videogioco non è mai stato solo una somma di texture e modelli poligonali; è ritmo, è regia, è quella sensibilità squisitamente umana che si nasconde dietro un dialogo o un’inquadratura. L’AI può costruire l’impalcatura, può accelerare la fase di prototipazione e magari aiutare nei playtest più noiosi, ma non può (ancora) avere una visione. Il pericolo è trovarsi sommersi da mondi tecnicamente impeccabili ma emotivamente vuoti, dove tutto sembra già visto perché derivato da un database di cose già esistenti.

I dati emersi dal sondaggio della Game Developers Conference 2026 sono un grido d’allarme che non può essere ignorato. La percentuale di sviluppatori — ovvero delle persone che queste tecnologie le creano e le integrano quotidianamente — che considera l’AI generativa dannosa per l’industria è in costante aumento. Non è luddismo o paura dell’ignoto; è la consapevolezza di chi vede come questi strumenti vengono gestiti dai piani alti. C’è una sfiducia crescente verso una dirigenza che sembra più interessata a risparmiare sui salari che a investire sul talento.

Siamo a un bivio fondamentale. L’intelligenza artificiale può essere il miglior “party member” di sempre, un alleato in grado di potenziare la creatività umana e liberare gli sviluppatori dai compiti più alienanti, oppure può essere il boss finale che sancisce la fine dell’era dell’oro del gaming d’autore. Per evitare che il medium si impoverisca, è necessario un nuovo patto etico che metta al centro la trasparenza, il consenso e la tutela dei ruoli creativi. Il futuro del gioco non dovrebbe riguardare la nostra capacità di scrivere un prompt perfetto, ma la nostra volontà di continuare a costruire mondi che valga la pena abitare, nati dal sudore e dall’ingegno di chi quei mondi li ama davvero. La partita è appena iniziata, e stavolta il controller è nelle nostre mani: preferiamo un futuro generato o un futuro creato?


Ti piacerebbe che approfondissi l’impatto di queste tecnologie specificamente sul mondo degli studi indipendenti, per capire se l’AI possa essere per loro un’ancora di salvezza o un’ulteriore minaccia?

Intelligenze artificiali: all’immortalità qualcosa sfugge

Esiste una sensazione strana, quasi disturbante, che aleggia nell’aria ogni volta che si parla di intelligenza artificiale e immortalità. Una sensazione che assomiglia a quel brivido lungo la schiena che provavamo la prima volta davanti a un film cyberpunk, quando capivamo che il futuro non sarebbe stato soltanto lucido e tecnologico, ma anche profondamente ambiguo. L’idea che persino la morte stia diventando porosa, attraversabile, riscrivibile, è uno dei segni più evidenti del tempo in cui viviamo. Un’epoca in cui l’addio definitivo inizia a sembrare un concetto obsoleto, sostituito da una persistenza digitale fatta di dati, tracce, profili, messaggi vocali e conversazioni archiviate.

Per millenni l’umanità ha raccontato la propria paura della fine attraverso miti e leggende. L’epopea di Gilgamesh, gli alchimisti alla ricerca dell’elisir, i racconti medievali di resurrezione, fino alla fantascienza più visionaria del Novecento. Oggi quel desiderio antico non si manifesta più sotto forma di magia o intervento divino, ma come servizio tecnologico. L’immortalità non viene promessa in cielo, bensì nel cloud. Non passa più dal corpo, ma dall’algoritmo. E qui la fantascienza smette di essere un semplice genere narrativo per diventare cronaca.

Chi è cresciuto divorando romanzi cyberpunk o guardando episodi disturbanti di Black Mirror riconosce subito il territorio. Solo che questa volta non siamo davanti a una distopia immaginata, ma a un mercato reale che prende forma sotto il nome di “digital afterlife”. Un’industria che utilizza ciò che lasciamo dietro di noi – email, chat, note vocali, video, post social – per ricostruire versioni digitali di persone scomparse. Non copie perfette, certo, ma simulazioni sempre più sofisticate, capaci di rispondere, ricordare, dialogare. Una forma di sopravvivenza simbolica che mette insieme intelligenza artificiale, memoria e desiderio umano di non separarsi mai davvero.

L’espressione “immortalità digitale” non indica una vita eterna nel senso biologico, ma una permanenza identitaria. È la possibilità di continuare a esistere come voce, stile comunicativo, modo di pensare. Un’estensione postuma dell’io, alimentata dai dati prodotti in vita. Questo fenomeno è stato recentemente analizzato anche dall’Eurispes, che lo descrive come uno dei campi più controversi dell’innovazione contemporanea, capace di attrarre investimenti, curiosità e allo stesso tempo timori profondi. L’IA, in questo scenario, non si limita più ad assistere i vivi: inizia a dialogare con i morti.

Il punto di svolta sta tutto lì, in quella promessa tanto semplice quanto devastante. Continuare a parlare con chi non c’è più. In alcuni contesti culturali, come quello cinese, questa idea ha trovato terreno fertile. La venerazione degli antenati si è fusa con l’iper-tecnologia, dando vita a chatbot e avatar commemorativi che replicano voce, espressioni, persino atteggiamenti emotivi delle persone scomparse. Non stiamo parlando di prototipi da laboratorio, ma di servizi commerciali già disponibili, utilizzati da famiglie in cerca di conforto o di un ultimo dialogo sospeso.

Dietro queste esperienze si muove una macchina tecnologica impressionante. Riconoscimento facciale, reti neurali, modelli linguistici addestrati su enormi archivi personali. In Corea del Sud, la società DeepBrain AI ha spinto il concetto al limite con sistemi capaci di ricreare avatar iperrealistici dei defunti, basati su ore di registrazioni video. L’incontro non avviene su uno schermo qualunque, ma in ambienti di realtà virtuale dove la distanza tra simulazione ed esperienza emotiva si riduce drasticamente. Per alcuni è una forma di terapia, per altri un’esperienza traumatica. E in entrambi i casi, il prezzo non è solo emotivo.

Qui entra in gioco un concetto che fa tremare i polsi: la grief tech, la tecnologia del lutto. Una frontiera in cui psicologia, business e intelligenza artificiale si intrecciano in modo delicatissimo. Startup europee e americane stanno sviluppando chatbot in grado di “rianimare” digitalmente i defunti grazie ai dati raccolti dai loro dispositivi. Il modo di scrivere, le frasi ricorrenti, le battute private diventano pattern. E quando l’IA inizia a rispondere esattamente come quella persona, il cervello fa fatica a mantenere le distanze. Non è più solo memoria. È interazione.

Alcuni sistemi arrivano a simulare contatti spontanei, messaggi inattesi, chiamate che sembrano partire dall’aldilà digitale. Un’idea potentissima, e anche pericolosa. Perché il lutto, che per secoli è stato un processo doloroso ma necessario, rischia di trasformarsi in una relazione senza fine, alimentata da notifiche e risposte automatiche. Ed è qui che la riflessione etica diventa urgente.

Diversi studiosi, tra cui ricercatori dell’Università di Cambridge, hanno messo in guardia sui potenziali effetti psicologici dei cosiddetti deadbot. Il rischio non è teorico. Un’interazione costante con una replica digitale può bloccare l’elaborazione della perdita, creare dipendenze emotive e confusione percettiva. Il dolore non viene superato, ma sospeso in una bolla artificiale. Una sorta di limbo emotivo che ricorda certe narrazioni fantascientifiche… solo che questa volta non c’è un regista a dirci quando spegnere lo schermo.

C’è poi una questione ancora più inquietante, che riguarda il controllo. Se la voce di una persona scomparsa diventa un prodotto, chi decide come viene utilizzata? Chi stabilisce i limiti? Il rischio di una mercificazione del dolore è concreto. Abbonamenti, microtransazioni emotive, pacchetti premium di memoria digitale. La morte come piattaforma. Il lutto come flusso di dati monetizzabile. Un’idea che fa venire i brividi, soprattutto se pensiamo a quanto siamo già disposti a pagare per non sentirci soli.

Eppure, questa deriva non nasce dal nulla. Alcuni degli esperimenti più noti di resurrezione digitale sono diventati vere e proprie pietre miliari della cultura tech contemporanea. Dalla creazione di chatbot basati su conversazioni reali, fino alla nascita di app come Replika, sviluppata a partire da un progetto di memoria personale. Ogni caso racconta la stessa tensione di fondo: il desiderio umano di trattenere ciò che ama, anche a costo di ridefinire il confine tra vita e simulazione.

Guardando questo panorama, viene spontaneo immaginare una gigantesca necropoli digitale in costruzione. Un luogo senza lapidi, fatto di server e archivi, dove le identità continuano a parlare, raccontare, rispondere. Una sorta di aldilà tecnologico che cresce silenziosamente, mentre le IA diventano sempre più brave a imitare ciò che siamo stati. Ma cosa resta davvero dell’umano, quando l’esperienza della fine viene rimandata all’infinito?

Il rischio più grande, come sottolineano diversi filosofi e studiosi del rapporto tra tecnologia e morte, è quello di rimanere intrappolati in un eterno presente. Se nessuno se ne va davvero, se l’addio viene continuamente rimandato, anche la vita perde parte della sua urgenza. La finitezza, per quanto spaventi, è sempre stata il motore delle nostre scelte, delle nostre storie, dei nostri legami.

L’immortalità digitale è una promessa seducente, soprattutto per una generazione cresciuta online, abituata a lasciare tracce ovunque. Ma è anche una trappola sottile. Perché la memoria, anche la più fedele, non è presenza. Un avatar non è una persona. Eppure il cuore, davanti a una voce familiare che risponde, tende a dimenticarlo.

La vera domanda, allora, non riguarda ciò che possiamo fare con l’intelligenza artificiale, ma ciò che siamo disposti ad accettare. In un mondo in cui i server rischiano di diventare cimiteri e gli algoritmi nuovi custodi del ricordo, serve una riflessione collettiva, profonda, non delegabile al solo mercato. Forse il vero atto rivoluzionario, nel futuro ipertecnologico che ci aspetta, sarà ancora quello più difficile da compiere: imparare a dire addio. E continuare a vivere, proprio perché il tempo è limitato.

Come creare videogiochi con le AI generative?

Parlare oggi di come creare videogiochi con le AI generative significa trovarsi esattamente su quella linea sottile che separa la nostalgia geek dal futuro che avanza a velocità warp. Una sensazione familiare, per chi è cresciuto smanettando con editor rudimentali, cheat code scritti su foglietti stropicciati e sogni troppo grandi per l’hardware dell’epoca. Solo che questa volta il sogno non si infrange contro i limiti tecnici. Questa volta prende forma. Si muove. Reagisce. E lo fa davanti ai nostri occhi.

L’arrivo di Genie 3, il nuovo modello di intelligenza artificiale sviluppato da Google DeepMind, segna uno di quei momenti che tra dieci anni ricorderemo come un “prima” e un “dopo”. Non si parla più di video generati o demo patinate buone per stupire su Twitter. Qui siamo davanti a mondi tridimensionali interattivi che nascono in tempo reale mentre li esplori, ambienti che si modellano partendo da una frase, da un’immagine, da uno schizzo fatto distrattamente come se fosse la mappa di un dungeon inventato a scuola durante l’ora di matematica.

La differenza rispetto al passato è netta. Le versioni precedenti di questo tipo di AI sembravano soffrire di una specie di smemoratezza cronica: bastava girare l’angolo e il mondo dimenticava cosa fosse successo un secondo prima. Genie 3, invece, introduce una continuità spaziale e visiva che cambia completamente la percezione dell’esperienza. Gli ambienti restano coerenti, ricordano, mantengono una logica interna per minuti interi. E all’improvviso non stai più osservando una simulazione, ma ti senti davvero dentro uno spazio che esiste anche quando non lo stai guardando.

Il punto affascinante è che l’AI non lavora come un engine tradizionale. Non assembla livelli come farebbe un editor classico, pezzo dopo pezzo, con regole rigide. Il suo comportamento ricorda molto di più quello di un dungeon master particolarmente ispirato. Interpreta il mondo, reagisce alle azioni del giocatore, prova a dare senso a ciò che accade. Non disegna soltanto uno scenario: lo vive insieme a te, con tutti gli inciampi e le stranezze tipiche di un’intelligenza che sta ancora imparando il linguaggio dei videogiochi.

Con Project Genie il discorso si spinge ancora oltre. Qui l’obiettivo non è stupire, ma permettere di creare, esplorare e remixare mondi virtuali in tempo reale. La soglia d’ingresso per la sperimentazione creativa si abbassa drasticamente. Idee che fino a ieri restavano chiuse in una cartella di appunti o nella testa di un designer diventano bozzetti navigabili, imperfetti ma vivi. Certo, emergono ancora glitch, animazioni improbabili, incoerenze tipiche delle AI. Ma come strumento di prototipazione il potenziale è enorme, quasi destabilizzante per chi ha passato anni a costruire proof of concept con tempi biblici.

In parallelo, un altro nome ha iniziato a rimbalzare tra le chat degli sviluppatori e le discussioni più accese su Discord: Mirage 2. La nuova versione di questo game engine generativo, accessibile via browser attraverso il portale di Dynamics Lab, porta il concetto di “dal prompt al gameplay” a un livello quasi surreale. Scrivi una descrizione testuale e ti ritrovi catapultato in un mondo giocabile. Non un mockup. Non un video. Un ambiente in cui puoi muoverti, esplorare, sperimentare.

La demo iniziale strizza l’occhio a immaginari ben noti, con scenari che ricordano titoli come Red Dead Redemption, ma il bello arriva quando inizi a forzare la mano. Fantasy, fantascienza, surreale puro. Cambi prospettiva, chiedi un altro stile, muovi il personaggio con i comandi base e osservi il mondo reagire. La latenza c’è, le imprecisioni pure, e le interazioni sono ancora limitate. Ma il fatto stesso di poter giocare dentro qualcosa che l’IA sta generando sul momento è un segnale fortissimo. Un assaggio di futuro.

Mirage 2 non crea esperienze complete e stabili, ed è giusto dirlo senza hype tossico. Però la velocità con cui questa tecnologia sta evolvendo fa impressione. In pochissimo tempo si è passati da demo statiche a mondi reattivi ai prompt. Affiancato a progetti come Genie 3, il messaggio è chiarissimo: siamo all’inizio di una nuova era, in cui l’intelligenza artificiale diventa uno strumento centrale per immaginare e prototipare videogiochi. Non per sostituire gli sviluppatori, ma per spostarne il ruolo. L’AI fornisce una bozza viva, esplorabile. Il game designer diventa un regista di possibilità.

Ed è proprio nella prototipazione che questa rivoluzione mostra il suo volto più concreto. Fino a poco tempo fa servivano settimane per trasformare un concept narrativo in qualcosa di vagamente giocabile. Oggi bastano poche righe evocative, scritte quasi come un incipit di fanfiction, per ottenere in minuti un sistema che assomiglia a un gioco vero. Genie spinge questa logica all’estremo, trasformando immagini statiche in micro-esperienze interattive, come se una vignetta decidesse all’improvviso di ribellarsi alla sua bidimensionalità.

Il salto successivo riguarda gli asset. Texture, icone, interfacce, ambientazioni complete possono nascere da piattaforme generative capaci di mantenere uno stile coerente. Il vero colpo di scena non è la velocità, ma la personalizzazione. Addestrare un modello sul proprio stile equivale a insegnare a un assistente invisibile come disegnare, lasciandolo poi libero di esplorare mille variazioni. L’artista non viene messo da parte, anzi. Diventa il centro di gravità di un processo creativo amplificato.

Lo stesso discorso vale per il 3D. Paesaggi procedurali, dungeon modulari, città che reagiscono al contesto narrativo stanno diventando sempre più accessibili grazie alla GenAI. L’idea di un mondo che si genera in tempo reale durante la partita, espandendosi mentre lo esplori, non sembra più una fantasia cyberpunk. Per chi ha passato notti a costruire mappe su StarCraft, Neverwinter Nights o Minecraft, è difficile non sentire un brivido lungo la schiena.

E mentre il mondo prende forma, anche l’audio cambia pelle. Colonne sonore che si modulano in base alle scelte del giocatore, effetti sonori generati sul momento, voci sintetiche capaci di adattare tono ed emozione alla scena stanno riscrivendo il concetto di narrazione sonora. La musica smette di essere semplice accompagnamento e diventa parte attiva del racconto.

Sul lato più tecnico, l’AI si rivela un alleato potentissimo. Generazione e ottimizzazione del codice per engine come Unity o Godot, individuazione di bug nascosti, supporto alla logica di sistema. Lo sviluppatore resta il custode della visione, ma il peso meccanico si alleggerisce, liberando spazio mentale per la creatività.

Quando poi l’intelligenza artificiale entra direttamente nel gameplay, il confine tra sviluppo e gioco si assottiglia ancora di più. NPC capaci di dialogare in modo naturale, missioni che si adattano al comportamento del giocatore, storie che nascono sul momento. L’idea di un RPG in cui ogni personaggio possiede memoria, emozioni simulate e una propria agenda narrativa smette di sembrare utopia e inizia a sembrare una questione di tempo.

In questo ecosistema emergono piattaforme che puntano a democratizzare la creazione videoludica. Strumenti accessibili anche a chi non ha competenze tecniche profonde, integrati con la GenAI per generare script, animazioni e logiche di gioco in pochi minuti. La barriera tecnica si abbassa, lasciando emergere ciò che conta davvero: la visione. E proprio qui nasce anche il lato oscuro della rivoluzione. Il rischio di omologazione, di mondi senz’anima, di giochi che sembrano cloni di cloni è reale. Per evitarlo, lo sviluppatore deve diventare curatore, architetto, interprete consapevole di ciò che l’AI produce.

A questo si aggiungono le questioni etiche. Dataset, proprietà intellettuale, valore del lavoro creativo. Sono domande aperte che non possono essere ignorate. La tecnologia corre veloce, ma la responsabilità deve correre ancora più veloce.

Eppure, nonostante tutto, l’energia che si respira è quella degli inizi. Quella sensazione elettrica che avevamo quando il medium videoludico era ancora un territorio selvaggio, tutto da esplorare. La GenAI non è il nemico della creatività umana. È un amplificatore. Un moltiplicatore. Un nuovo strumento da imparare a suonare.

Il futuro dei videogiochi non sarà scritto da una macchina. Sarà scritto da persone che useranno queste tecnologie per raccontare storie degne di essere vissute. E ora la palla passa a te. In quale universo giocherai domani? Continuerai a essere solo spettatore… o sei pronto a diventare anche creatore?

Alexa+, la svolta di Amazon che evolve l’assistente “un po’ tonto” in un’IA da fantascienza…

Immaginate la scena, un classico frame da inizio avventura: vi svegliate, la casa è ancora immersa in quella penombra che ricorda i caricamenti lenti di un open world e, invece della solita risposta robotica e monocorde, venite investiti da una voce inedita. Non è la solita Alexa, quella diligente assistente che si limitava a eseguire macro elementari senza fiatare; stavolta c’è un piglio diverso, una sfumatura ironica, quasi una consapevolezza metatestuale. Se per un attimo avete avuto il sospetto di essere scivolati dentro un JRPG di ultima generazione, circondati da NPC fin troppo loquaci, tranquillizzatevi: il vostro hardware cerebrale è intatto. Quello a cui state assistendo è l’irruzione di Alexa+ nella vostra quotidianità, un aggiornamento che sembra essere stato rilasciato con la stessa aggressività narrativa di un evento scriptato che non puoi saltare.

Questa mossa di Amazon è tutto fuorché timida. Alexa+, nata inizialmente come un’evoluzione opzionale, ha iniziato a spawnare automaticamente su ogni device dell’ecosistema, dai classici Echo ai Fire TV, passando per gli Echo Show. Per gli utenti Prime, l’update si è palesato come una patch obbligatoria: silenziosa, inevitabile e decisamente invasiva. Per anni abbiamo convissuto con una coinquilina digitale gentile ma limitata, una sorta di bot addetto esclusivamente all’illuminazione e alla riproduzione di playlist, castrata da un design che la costringeva a rispondere solo a input da telecomando nonostante un potenziale di calcolo vastissimo. Oggi, quella barriera sembra essere caduta, dando il via a una nuova era che somiglia terribilmente a un reboot cinematografico di una saga che credevamo di conoscere a memoria.

Il progetto Alexa+ è stato presentato circa un anno fa come una dichiarazione di guerra aperta nel settore delle intelligenze artificiali domestiche. Amazon, con oltre mezzo miliardo di dispositivi già piazzati nelle case di tutto il mondo, non ha cercato di nascondere il proprio obiettivo: recuperare il gap tecnologico rispetto a colossi come Google Assistant e Siri. Tuttavia, la competizione non si gioca più solo sul terreno delle feature tecniche, ma su quello, molto più scivoloso, della personalità. A guidare questa nuova fase è Panos Panay, che agisce come un vero e proprio showrunner di una serie TV ad alto budget, promettendo un’IA capace di parlare come un essere umano reale, di comprendere il contesto e, soprattutto, di anticipare i nostri bisogni senza costringerci a formulare query che sembrano scritte in un linguaggio di programmazione semplificato.

L’idea alla base è pura fantascienza nerd: non dovremo più dire “Alexa, imposta un timer”, ma avremo a che fare con un’entità che si inserisce nel flusso della nostra giornata. Immaginate di star preparando una maratona di Stranger Things e di sentire la vostra IA che, intuendo l’atmosfera, vi suggerisce di ordinare pizza e birra prima ancora che il pensiero si materializzi nella vostra mente. È un concetto affascinante, ma la realtà attuale ha ancora il sapore aspro di una versione beta non ancora ottimizzata. L’integrazione tra l’IA generativa e le funzioni core dell’assistente produce spesso un amalgama instabile. Le prime recensioni internazionali descrivono un’esperienza decisamente acerba, dove sveglie che si rifiutano di spegnersi e suggerimenti d’acquisto non richiesti rompono l’immersione, trasformando l’assistente in un compagno di viaggio a volte troppo sicuro di sé ma tecnicamente fallibile.

Questo divario tra l’ambizione del trailer e la resa effettiva del gameplay quotidiano è evidente. Alexa+ sembra un sistema ibrido che soffre di una crisi d’identità: alterna momenti di brillantezza conversazionale degni di una sceneggiatura di serie A a inciampi grossolani che la vecchia versione, pur nella sua rigidità, non avrebbe mai commesso. La community nerd, storicamente attenta e critica verso i cambiamenti imposti dall’alto, ha reagito con una resistenza non indifferente. Molti utenti hanno trovato la nuova voce eccessivamente “Gen Z”, troppo ammiccante e giovane, percependo un aumento sospetto di contenuti promozionali camuffati da consigli amichevoli. Anche la nuova modalità chat sugli Echo Show ha diviso il pubblico, lasciando rimpiangere a molti la vecchia interazione rapida e quasi invisibile.

Fortunatamente per chi predilige la stabilità al progresso a ogni costo, Amazon ha previsto una sorta di “rollback” elegante, una via di fuga che permette di evitare la boss fight contro la modernità. Con un semplice comando vocale è possibile disattivare le funzioni di Alexa+ e tornare a un’esperienza classica, mantenendo solo alcuni miglioramenti invisibili sotto la scocca. È persino possibile cambiare il tono della voce, abbandonando quella troppo energica per tornare a timbri più familiari e rilassati, come le storiche opzioni “Feminine 2” o “Relaxed”, ideali per chi vede nell’assistente uno strumento di domotica e non un partner con cui scambiare opinioni sul senso della vita.

Nonostante le critiche, è nella gestione della smart home che Alexa+ mostra i suoi power-up più interessanti. Il potenziale per una regia invisibile della casa è enorme: luci che si adattano autonomamente al momento della giornata, temperature regolate sulla base delle nostre abitudini implicite e un’integrazione sempre più profonda con brand esterni. Anche sul fronte dell’intrattenimento, l’assistente cerca di evolversi da semplice player a commentatore, provando a dialogare sui contenuti che stiamo consumando, anche se per ora sembra ancora un attore non protagonista che sta cercando di capire come stare sul palco senza rubare la scena nel modo sbagliato.

Ovviamente, dietro questo aggiornamento si nasconde una strategia commerciale che punta a trasformare Alexa in una piattaforma capace di generare entrate ricorrenti tramite modelli di abbonamento e funzioni premium. Questo sposta inevitabilmente il focus su temi caldi come la privacy e l’affidabilità delle informazioni. Un’intelligenza artificiale così sicura di sé rischia di presentare allucinazioni digitali con la stessa fermezza di un cantastorie galattico che confonde i fatti con il mito. In definitiva, Alexa+ non è ancora la versione definitiva di se stessa, ma l’inizio di un nuovo arco narrativo. È un episodio pilota ricco di promesse che dovrà dimostrare di saper maturare senza diventare un bloatware domestico. Per ora, la scelta resta a noi: tuffarci nell’adrenalina di questa beta o attendere la patch definitiva restando al sicuro nella nostra zona di comfort tecnologico.

Sarei curioso di sapere se avete già iniziato la vostra prima run con questo nuovo sistema o se preferite restare fedeli alla versione “vanilla” del vostro assistente. Fatemi sapere se Alexa+ ha già provato a spoilerarvi la cena o se è diventata la vostra nuova compagna di avventure digitali.

Cloni digitali: quando l’intelligenza artificiale inizia a parlare al posto nostro

La prima volta che ho sentito parlare di cloni digitali non ho pensato a un laboratorio sterile o a un paper accademico. Ho pensato a quella sensazione strana che ti prende quando rivedi una tua vecchia story e non ti riconosci del tutto. Sei tu, certo. Ma non proprio. Ecco, oggi l’intelligenza artificiale sta prendendo esattamente quel margine di ambiguità e lo sta trasformando in infrastruttura.

Non è più solo una suggestione da fantascienza anni Novanta, con i suoi riflessi cromati e i monologhi sulla coscienza. È qualcosa di molto più sottile, e forse per questo più destabilizzante. Una copia che non cammina accanto a te, ma parla per te. Risponde al posto tuo. Prende decisioni con una logica che ti somiglia fin troppo.

Nei laboratori di ricerca, quelli veri, non quelli immaginari, si lavora da tempo su modelli capaci di assorbire tratti di personalità, abitudini cognitive, reazioni emotive. A Google DeepMind e alla Stanford hanno iniziato a trattare l’individuo come un sistema complesso osservabile, non per ridurlo a una caricatura, ma per riprodurne le frizioni interne. Quelle incoerenze che ci rendono umani. Il risultato non è un avatar patinato, ma qualcosa che sbaglia come noi, tentenna come noi, si contraddice come noi. Ed è proprio lì che scatta il cortocircuito.

Perché quando una macchina inizia a somigliarti non nell’aspetto, ma nelle esitazioni, la questione smette di essere tecnica. Diventa intima. Quasi personale.

Questa tecnologia, raccontata spesso con l’entusiasmo di chi vede solo il potenziale, ha già iniziato a muovere pedine enormi. In medicina, ad esempio, l’idea di simulare un organismo umano prima di toccarlo davvero ha qualcosa di rivoluzionario. Mark Zuckerberg, attraverso Meta, spinge da tempo su modelli biologici digitali che permetterebbero di testare farmaci, studiare virus, prevedere reazioni cellulari senza passare dal corpo reale. Una promessa enorme, quasi salvifica, che però convive con una domanda fastidiosa: cosa succede quando quella copia diventa più utile dell’originale?

La risposta, almeno per ora, arriva da un altro fronte, quello della creator economy. Ed è qui che il discorso si fa improvvisamente molto concreto, molto quotidiano. Shorts, feed verticali, facce che scorrono senza sosta sullo schermo. Neal Mohan ha parlato apertamente di un futuro in cui i creator potranno usare la propria likeness AI per essere presenti anche quando non lo sono. Una presenza delegata, sintetica, sempre disponibile. Non una copia pirata, ma una versione ufficiale di sé.

L’idea è affascinante e inquietante insieme. Da un lato libera tempo, moltiplica possibilità, rende sostenibile una produzione che oggi divora energie. Dall’altro trasforma l’identità in un asset replicabile. Non più “io pubblico quando posso”, ma “io esisto anche quando non ci sono”. In questo scenario YouTube non è più una piattaforma, ma un ambiente. Un ecosistema dove l’autenticità non coincide più con la presenza fisica, ma con la coerenza del personaggio.

Ed è qui che riaffiora la fantascienza. Non quella elegante, ma quella un po’ sporca, cyberpunk, dove il problema non è la tecnologia in sé, ma chi la controlla. Perché se la tua voce, il tuo volto, il tuo modo di parlare possono essere simulati, il confine tra strumento e sostituzione diventa fragile. Si parla tanto di tutela della likeness, di watermark invisibili, di sistemi di rilevamento. Tutto vero, tutto necessario. Ma resta una sensazione di fondo difficile da scacciare: stiamo insegnando alle macchine non solo a imitarci, ma a rappresentarci.

E quando la rappresentazione prende il sopravvento sull’esperienza, qualcosa cambia. Lo vediamo già con i filtri, con le voci sintetiche, con i contenuti generati in serie che riempiono i feed di una poltiglia visiva tutta uguale. L’AI slop non è un problema estetico, è un problema di saturazione emotiva. Quando tutto parla, niente dice davvero qualcosa.

Forse il punto non è chiedersi se i cloni digitali siano giusti o sbagliati. È una domanda troppo semplice per una tecnologia così complessa. La vera questione è capire quanto siamo disposti a riconoscerci in qualcosa che non prova fatica, non invecchia, non si spegne mai. E soprattutto, se saremo ancora capaci di distinguere ciò che ci rappresenta da ciò che ci sostituisce.

Io non ho una risposta definitiva. So solo che ogni volta che penso a un avatar che parla con la mia voce mentre io sono altrove, mi chiedo se quel silenzio, quello vero, non stia diventando la cosa più preziosa di tutte. E forse, prima di delegare anche quello, vale la pena fermarsi un attimo. Guardare lo schermo. E chiedersi chi, dall’altra parte, sta davvero parlando.

Prompt: l’arte geek di evocare l’intelligenza artificiale

L’odore della carta stampata non c’è più. Al suo posto resta una sensazione diversa, più sottile, quasi elettrica. È quella che provi quando smetti di pensare all’intelligenza artificiale come a uno strumento da interrogare e inizi a percepirla come qualcosa che ti cammina accanto. Non davanti, non dietro. Di lato. Presente. È qui che il discorso sul prompting inizia a incrinarsi, a perdere i bordi netti che per anni lo hanno reso rassicurante, quasi addomesticabile.

Perché il prompting, quello che abbiamo imparato ad amare come una lingua segreta da iniziati, nasce da un’illusione molto umana: l’idea che basti formulare bene una domanda per governare una macchina. Un po’ come credere che conoscere la formula giusta ti renda automaticamente uno stregone degno di Kamar-Taj. All’inizio funzionava così. Scrivevi. Aspettavi. Correggevi. Ritentavi. Ogni prompt era un colpo di lima su un meccanismo ancora rigido, ogni risposta una prova di sintonia. C’era una soddisfazione quasi artigianale in quel processo, la stessa che provi quando finalmente incastri un pezzo ostinato di LEGO dopo dieci tentativi sbagliati.

Poi qualcosa ha iniziato a cambiare, senza fare troppo rumore. Non un’esplosione, piuttosto uno slittamento. Il prompting ha smesso di sembrare una tecnica e ha iniziato a somigliare a una fase della crescita. Come quando ti rendi conto che non stai più imparando a usare un controller, ma stai giocando senza pensarci. Le dita vanno da sole, il corpo anticipa l’azione. L’interfaccia scompare.

E lì arriva la vertigine. Perché se l’interfaccia non c’è più, che fine fa il prompt?

Per anni ci siamo raccontati che l’abilità decisiva fosse saper “parlare bene” all’IA. Scegliere il tono giusto, dare contesto, impostare vincoli, anticipare errori. Una danza di precisione che ricordava certi dialoghi nei giochi di ruolo, quando ogni opzione sbagliata poteva portarti a un finale disastroso. Ma ora l’IA non aspetta più pazientemente la nostra battuta. Ascolta. Interpreta. Interviene. A volte perfino prima che tu abbia finito di pensare la frase.

È qui che il prompting comincia a tramontare, non perché diventi inutile, ma perché smette di essere il centro della scena. Come il latino dopo il Medioevo: resta fondamentale, ma non è più la lingua della vita quotidiana. La vera partita si sposta altrove, su un terreno molto più scomodo e affascinante: la presenza.

Presenza significa avere un’intelligenza artificiale che non vive in una chat, ma nel flusso della giornata. Che non aspetta un comando testuale, ma reagisce a un contesto. Che non ti chiede di fermarti a formulare una richiesta, perché è già lì mentre parli, cammini, decidi. È un passaggio che fa un po’ paura, inutile negarlo. Perché ci costringe ad ammettere che il vero collo di bottiglia non è mai stato il prompt, ma il tempo che impieghiamo a tradurre il pensiero in istruzione.

La scrittura, con tutta la sua bellezza, è lenta. Lineare. Ti obbliga a mettere in fila ciò che nella testa nasce spesso in modo caotico, contraddittorio, laterale. La voce invece è sporca, imperfetta, piena di ripensamenti. Ed è proprio lì che l’IA diventa interessante, quando riesce a stare dentro quel disordine senza chiederti di ripulirlo prima. Quando accetta che tu possa dire una cosa, negarla trenta secondi dopo, tornare indietro, cambiare prospettiva. Un’IA che non pretende coerenza immediata, ma la costruisce insieme a te.

In quel momento il prompting classico sembra quasi un residuo archeologico. Non perché sia sbagliato, ma perché appartiene a un’epoca in cui la relazione era asincrona. Domanda e risposta. Input e output. Oggi la relazione diventa continua, quasi dialogica nel senso più letterale del termine. Non stai più “chiedendo” qualcosa all’IA. Stai pensando con lei.

Ed è qui che la questione si fa davvero nerd, nel modo migliore possibile. Perché quando il costo di generare analisi, testi, ipotesi scende quasi a zero, ciò che conta non è più la velocità con cui produci, ma la qualità del giudizio con cui scegli. Non è più una gara a chi scrive il prompt più furbo, ma a chi sa riconoscere il momento giusto per fidarsi, quello in cui fermarsi, quello in cui dire no.

Il rischio non è la sostituzione dell’umano, ma l’anestesia. Delegare tutto perché è comodo. Lasciare che la macchina decida anche quando non dovrebbe. In questo scenario, la vera competenza non è tecnica, è etica, narrativa, culturale. Saper dare un senso a ciò che accade. Tenere insieme pezzi che non hanno precedenti storici, che nessun dataset può davvero anticipare.

Il prompting, allora, non muore. Si ritira in una zona più profonda, quasi invisibile. Diventa una sensibilità, non una formula. Un modo di stare nel dialogo, più che un insieme di istruzioni. Come succede con le buone storie: a un certo punto smetti di analizzarne la struttura e inizi semplicemente ad ascoltarle, a sentirle risuonare.

Forse è questo il vero passaggio che ci aspetta. Non imparare nuovi trucchi per parlare alle macchine, ma imparare a riconoscere chi siamo mentre lo facciamo. Accettare che l’intelligenza artificiale non sia più solo un oggetto tecnologico, ma un elemento dell’ambiente, come la luce, il rumore, le persone intorno a noi.

E a quel punto la domanda non è più “come scrivo il prompt giusto?”, ma qualcosa di molto più inquietante e stimolante insieme. Che tipo di presenza voglio essere, io, in questo dialogo che non si spegne mai?

Stealing Isn’t Innovation: una Vedova Nera contro l’Intelligenza Artificiale

Hollywood non assomiglia più a un set. Sembra piuttosto una sala riunioni dopo mezzanotte, luci basse, caffè freddo, voci che si accavallano. Il genere non è fantascienza, anche se l’eco di certe storie la riconosci subito: copie, simulacri, identità replicate con una precisione che inquieta. Qui non servono androidi con gli occhi rossi o astronavi in orbita. Basta una firma digitale, una voce che suona troppo familiare, un algoritmo che “impara” senza chiedere permesso.

Lo slogan gira da qualche settimana come una battuta che smette di far ridere dopo il secondo ascolto: rubare non è innovazione. È netto, quasi scomodo. Non lo lancia una major, né un think tank. Arriva da chi vive di voce, di sguardi, di frasi scolpite con anni di mestiere. E quando a prestare il volto — e il peso simbolico — sono Scarlett Johansson e Cate Blanchett, capisci che non è una fiammata passeggera. La Human Artistry Campaign ha dato forma a una preoccupazione che covava da tempo, come un rumore di fondo che all’improvviso diventa insopportabile.

La sensazione, parlando tra appassionati, è che l’AI abbia smesso di essere il giocattolo brillante sul tavolo e abbia indossato il costume dell’antagonista. Non quello affascinante, ambiguo, da cui ti aspetti una svolta morale. Piuttosto il tipo di nemico che non sai nemmeno quando entra in scena, perché è già lì, incorporato nel processo. C’è chi la vede come uno strumento potentissimo — e lo è — e chi la guarda come un boss che ti ruba le mosse migliori mentre stai ancora combattendo.

Il punto di rottura, per molti, ha una voce precisa. O meglio, una voce che sembra precisa. Johansson se n’è accorta quasi per caso: un timbro, una cadenza, una musicalità che le somigliava troppo. Non un omaggio, non una citazione. Una replica. La storia è rimbalzata ovunque perché aveva un’ironia beffarda difficile da ignorare: l’attrice che ha dato anima a un’intelligenza artificiale romantica in Her si ritrova, anni dopo, a difendere la propria identità sonora da un sistema reale. Sembra un episodio scartato di Black Mirror, e invece è cronaca. Da una parte OpenAI, dall’altra una professionista che ha detto no e si è vista rispondere da un’imitazione fin troppo credibile. Il nome della voce incriminata — Sky — suona quasi come una presa in giro involontaria.

La difesa ufficiale parla di coincidenze, di attrici diverse, di somiglianze non intenzionali. Sam Altman si muove sul terreno scivoloso della gestione dei danni, promettendo chiarimenti, rimozioni, dialoghi. Eppure, anche ammettendo la buona fede, resta quella sensazione difficile da scrollarsi di dosso: il confine è diventato poroso. Oggi è una voce, domani un volto, dopodomani uno stile di scrittura che riconosci come riconosceresti la calligrafia di un amico.

Intanto la protesta smette di essere un caso isolato e prende la forma di una costellazione. Attori, musicisti, scrittori che normalmente non condividono neppure la stessa stanza si ritrovano dalla stessa parte della barricata. Non perché odiino la tecnologia — chi ama il cinema sa quanto ogni innovazione abbia cambiato il linguaggio — ma perché il patto implicito si è incrinato. Creare non è solo produrre output. È sedimentare esperienza, errori, tentativi andati male. Vederlo assorbito e rigurgitato senza consenso fa male in un punto che non è solo economico.

Qualcuno prova a giocare d’anticipo. C’è chi registra il proprio nome come marchio, come se bastasse una pratica legale a mettere un lucchetto sull’identità. Gesto comprensibile, un po’ amaro, che sa di rifugio improvvisato mentre la tempesta è già sopra la testa. Altri guardano agli accordi milionari tra colossi tech e major dell’intrattenimento come a un precedente salvifico. Se paghi, puoi usare. Se non paghi, no. Semplice, in teoria. Fragile, nella pratica, soprattutto quando la materia prima è il web intero.

Il nodo vero resta quello dei dati. Senza, gli algoritmi sono gusci vuoti. Con, diventano potentissimi. Le piattaforme ripetono che ciò che è pubblico è addestrabile. Gli editori e gli artisti ribattono che pubblico non significa gratuito, né tantomeno espropriabile. È una partita di scacchi giocata su un tavolo di carta, dove basta un soffio per far cadere tutto. E la paura, nemmeno troppo nascosta, è che se salta l’equilibrio salti anche la fiducia.

Poi c’è l’altro lato della storia, quello meno rumoroso ma non meno interessante. Artisti che, invece di alzare scudi, tendono la mano. Voci leggendarie che si prestano a esperimenti dichiarati, collaborazioni in cui l’AI diventa uno strumento dichiarato, non un ladro mascherato. Funziona? A volte sì, a volte no. Ma almeno il gioco è chiaro. Ed è curioso come, ascoltando chi ha ottant’anni di palco sulle spalle, emerga una serenità che spiazza: l’idea che, finché c’è una scelta consapevole, l’umano resti al centro.

La frattura, insomma, non è tra umani e macchine. È tra consenso e appropriazione, tra dialogo e scorciatoia. Hollywood, che di storie sull’identità ne ha raccontate a migliaia, si ritrova ora dentro la sua stessa trama. Senza copione definitivo. Con attori che improvvisano, avvocati che riscrivono le regole mentre la scena è già in corso, e algoritmi che apprendono in silenzio.

Resta una domanda che continua a ronzarmi in testa, come una battuta non detta prima dello stacco. Se l’innovazione nasce dal prendere in prestito il passato, dove finisce l’ispirazione e dove comincia il furto? Forse la risposta non arriverà da un tribunale né da una keynote. Forse verrà da una scelta collettiva, o da una nuova etica che stiamo ancora imparando a pronunciare. Nel frattempo, il dialogo è aperto. E la storia, quella vera, sta ancora scrivendo la prossima scena.

Il Patentino delle Competenze Digitali: educare i ragazzi a capire davvero il mondo online

Scivola tutto troppo veloce sotto il pollice. Un gesto minimo, quasi automatico, che per molti ragazzi di undici o dodici anni è già diventato una seconda lingua. Scrollare prima ancora di leggere, condividere prima ancora di capire, reagire prima ancora di pensare. Ogni tanto mi chiedo quando abbiamo deciso che questa rapidità fosse sinonimo di competenza. Perché la verità, quella che emerge parlando con insegnanti, genitori e con gli stessi ragazzi, è molto meno rassicurante: saper usare uno schermo non significa saper abitare il digitale.

Da nerd cresciuta tra modem rumorosi, forum infiniti e guide stampate, questa cosa mi colpisce sempre allo stomaco. Avevamo meno strumenti, meno connessione, ma forse più tempo per capire cosa stessimo facendo. O almeno per sbagliare con una certa consapevolezza. Oggi no. Oggi la tecnologia arriva prima della coscienza. Ed è proprio in questo spazio vuoto che prende forma il Patentino delle Competenze Digitali, una parola che sembra burocratica e invece nasconde qualcosa di sorprendentemente concreto.

Il progetto nasce dentro NeoConnessi, l’iniziativa educativa di Wind Tre che da anni lavora con le scuole. Non parliamo di un corso da seguire passivamente, né di una lezione frontale da dimenticare appena suona la campanella. Qui il digitale viene affrontato come un ambiente da esplorare, con regole, rischi, possibilità e responsabilità. Un po’ come entrare in un open world senza mappa: puoi divertirti, certo, ma se non capisci come funziona rischi di perderti o di farti male.

L’idea del “patentino” ha qualcosa di familiare. Non è un caso. Come per la guida, nessuno penserebbe di affidare un volante senza spiegare prima cosa significhi usarlo. Eppure con smartphone, social e intelligenza artificiale lo facciamo ogni giorno. Ragazzi e ragazze si muovono in un ecosistema governato da algoritmi opachi, raccolta dati, dinamiche di visibilità e pressione sociale, spesso senza gli strumenti minimi per decifrarlo. Sanno creare contenuti, sì. Sanno riconoscere un’informazione attendibile? Molto meno.

Il percorso del Patentino delle Competenze Digitali prova a colmare proprio questo scarto. Lo fa parlando di sicurezza, identità online, comunicazione, gestione dei dati, ma anche di quelle zone grigie che di solito restano fuori dall’orario scolastico: il peso delle parole scritte in chat, la differenza tra privacy e segreto, il confine sottile tra gioco e abuso. Non arriva dall’alto, non predica. Ti mette alla prova, ti chiede di scegliere, ti costringe a ragionare. E alla fine restituisce qualcosa di raro: la percezione di aver capito un po’ meglio dove ci si trova.

A rendere il progetto solido non è solo la piattaforma, ma il contesto che lo sostiene. Dietro c’è un lavoro condiviso con realtà come la Polizia di Stato, la Società Italiana di Pediatria e il Consiglio Nazionale dell’Ordine degli Psicologi. Tradotto: sicurezza, benessere, sviluppo emotivo e cognitivo non sono parole buttate lì per fare impressione, ma punti di vista che dialogano tra loro. E questa cosa, nel mare di iniziative improvvisate che circolano sul tema, fa una differenza enorme.

C’è un altro aspetto che mi convince, forse il più importante. Il Patentino non guarda solo ai ragazzi. Chiama in causa anche gli adulti, insegnanti e famiglie comprese. Perché il problema non sono solo i dodicenni su TikTok, ma il vuoto di accompagnamento che spesso li circonda. Genitori che impongono regole senza capire davvero cosa stiano regolando. Docenti lasciati soli ad aggiornarsi su strumenti che cambiano più in fretta dei programmi ministeriali. Qui, invece, il digitale diventa un percorso condiviso, continuo, che cresce insieme agli studenti.

Dal 2024 l’iniziativa coinvolge anche le scuole medie, creando una sorta di filo narrativo che accompagna bambini e preadolescenti fino ai tredici anni. Un’idea semplice e potentissima: non trattare la competenza digitale come un episodio isolato, ma come qualcosa che evolve insieme alla persona. Proprio come succede nella vita reale, fuori dallo schermo. La partecipazione è completamente gratuita. I docenti interessati possono iscrivere la propria scuola su scuola.net o richiedere maggiori dettagli scrivendo a neoconnessi@scuola.net.
Tutte le informazioni e le modalità di adesione sono disponibili su: neoconnessi.windtre.it/.

Da appassionata di cultura pop, non posso evitare un parallelo. Nei manga, nei giochi di ruolo, nelle grandi saghe sci-fi, il vero potere non è mai solo l’arma o l’abilità speciale. È la consapevolezza. Sapere quando usarla, perché, e soprattutto quando fermarsi. Il digitale funziona allo stesso modo. Senza questa consapevolezza, anche lo strumento più affascinante diventa una trappola.

Forse è per questo che iniziative come il Patentino delle Competenze Digitali mi sembrano meno “istituzionali” di quanto appaiano sulla carta. Assomigliano più a una quest di quelle importanti, quelle che non puoi saltare se vuoi davvero capire il mondo di gioco. E la sensazione è che siamo solo all’inizio.

La domanda, a questo punto, non riguarda i ragazzi. Riguarda noi. Siamo pronti ad accompagnarli davvero, o continueremo a stupirci del fatto che sappiano usare tutto senza capire niente? La risposta, come spesso accade, non è scritta da nessuna parte. Sta nelle scelte quotidiane. E forse anche in quelle che, finalmente, decidiamo di non scrollare via.

E-commerce in Italia 2025: perché il benessere conta più della tecnologia

Scorrere i dati dell’ultimo anno di e-commerce italiano dà una sensazione strana, quasi controintuitiva. Non è l’euforia della corsa all’upgrade, non è l’adrenalina del “lo voglio subito”. È qualcosa di più quieto. Più adulto. Più simile a quella fase della vita in cui smetti di collezionare oggetti e inizi a scegliere cosa vale davvero la pena tenere intorno a te. Forse è per questo che, leggendo i numeri messi in fila da Trovaprezzi.it, la prima parola che viene in mente non è crescita, ma trasformazione. Il commercio online non arretra, non implode, non delude le aspettative. Cambia pelle, come fanno i personaggi più interessanti delle serie lunghe, quelli che dopo tre stagioni non sono più gli stessi ma nemmeno irriconoscibili.

La cosa che colpisce subito è lo spostamento dell’attenzione. Non più la tecnologia come feticcio assoluto, non più il telefono nuovo come status symbol stagionale. Al centro, con una determinazione che non sembra più passeggera, c’è il benessere. Integratori, vitamine, tutto quell’universo che fino a qualche anno fa sembrava confinato a momenti di emergenza o a mode da influencer del fitness, oggi occupa uno spazio stabile nel carrello digitale. Non è l’acquisto “per provare”, è l’acquisto che si ripete, che diventa routine. Come il caffè al mattino o la serie comfort che rimetti in play quando hai bisogno di sentirti a casa.

La tecnologia, invece, rallenta. Ma non nel senso apocalittico che piace tanto ai titoli allarmistici. Piuttosto sembra aver raggiunto una maturità simile a quella di certi franchise longevi: il pubblico resta fedele, ma non accetta più tutto. Gli smartphone continuano a essere cercati, certo, e un modello come Apple iPhone 16 rimane un punto fermo dell’immaginario digitale, però il ritmo è cambiato. Si aspetta di più, si valuta meglio, si salta un giro senza sentirsi in colpa. È un rapporto meno compulsivo, più ragionato. Un po’ come quando smetti di fare binge watching e inizi a centellinare gli episodi perché vuoi davvero goderteli.

Anche la casa racconta questa nuova attitudine. Gli elettrodomestici non sono più l’acquisto impulsivo legato allo sconto lampo, ma una scelta ponderata, quasi progettuale. Efficienza, durata, comfort. Parole che fino a poco tempo fa sembravano appartenere a un lessico noioso, oggi diventano criteri di desiderio. È curioso notare come questa attenzione si allarghi anche a settori apparentemente lontani tra loro: dalla cura della persona ai prodotti per gli animali, passando per scarpe sportive e utensili da lavoro. Tutto parla di funzionalità, di uso reale, di cose che devono servire davvero.

E poi c’è lo smartphone, non come oggetto da comprare ma come estensione della mano. La stragrande maggioranza delle ricerche passa da lì, da quello schermo che ci accompagna sul divano, in coda, a letto prima di dormire. Il desktop perde terreno, quasi come se appartenesse a un’epoca più formale, più rigida. Lo shopping online diventa un gesto quotidiano, frammentato, inserito negli spazi morti della giornata. Una pratica normale, non più un evento.

Forse il dato più affascinante, però, non ha a che fare con i prodotti ma con le persone. Le generazioni che una volta venivano raccontate come “lontane dal digitale” oggi non solo partecipano, ma superano i più giovani per volume di ricerche. Gli over 65 che navigano, confrontano, scelgono. Non per gioco, non per curiosità, ma per convinzione. È un ribaltamento silenzioso, che dice molto su come la tecnologia sia finalmente diventata strumento e non più barriera.

Anche la geografia segue questa normalizzazione. Le grandi regioni trainano, certo, ma il commercio online non è più una faccenda limitata a pochi poli. La comparazione dei prezzi, il tempo speso a valutare alternative, l’attenzione al valore reale si diffondono ovunque, come una lingua che tutti ormai parlano con accento diverso ma grammatica condivisa.

In mezzo a tutto questo, l’e-commerce italiano del 2025 assomiglia meno a una vetrina scintillante e più a un grande mercato consapevole. Non urla, non promette miracoli, non vive solo di hype. È abitato da persone che hanno imparato a chiedersi se un acquisto serve davvero, se migliora la qualità della vita, se vale il prezzo che chiede.

Ed è qui che la sensazione resta sospesa. Se il futuro dello shopping online non è più la corsa al gadget, ma la costruzione di un rapporto più onesto con ciò che compriamo, che tipo di prodotti emergeranno domani? Quali storie sapranno raccontare davvero qualcosa di noi, invece di limitarsi a riempire un carrello virtuale? La risposta, probabilmente, non arriverà tutta insieme. Ma vale la pena restare a guardare. E magari parlarne insieme.

Apple e Google insieme per l’AI: Siri rinasce con il cervello di Gemini e cambia il futuro degli assistenti digitali

Un’alleanza epocale scuote le fondamenta della Silicon Valley e trasforma radicalmente tutto ciò che pensavamo di sapere sulla competizione tra titani. Due imperi tecnologici che per decenni si sono studiati a distanza siderale, separati da filosofie diametralmente opposte e frecciatine silenziose scagliate dai rispettivi palchi di San Francisco e Mountain View, hanno deciso di riscrivere insieme le regole del gioco. Questa non è la solita collaborazione di facciata, né una di quelle feature buttate nel mucchio per inseguire disperatamente la moda del momento. Davanti ai nostri occhi si sta compiendo uno di quei passaggi chiave che gli storici del tech identificheranno come un punto di non ritorno assoluto. Apple ha scelto ufficialmente di edificare la nuova era della sua intelligenza artificiale sfruttando il sapere accumulato da Google, portando la rinascita di Siri direttamente sulle spalle giganti di Gemini.

Leggere una notizia del genere provoca ancora un certo disorientamento, quasi fosse un leak proveniente da una timeline alternativa in stile Marvel What If. Eppure la realtà ha superato la fantasia nerd più sfrenata. A rendere ufficiale questo terremoto non è stato un thread anonimo su qualche forum di appassionati, ma una dichiarazione cristallina rilasciata in diretta su CNBC dal sempre esplosivo Jim Cramer. Cupertino ha parlato chiaro: dopo una valutazione interna durata mesi, la tecnologia di Google è risultata la più efficace in assoluto per addestrare i modelli di intelligenza artificiale di nuova generazione. Gemini ha vinto la gara più difficile, diventando il maestro segreto che istruirà la mente artificiale della mela morsicata.

Chi vive questo settore con il trasporto emotivo di un crossover tra icone dei fumetti non può che restare sbalordito. Immaginate di vedere due universi narrativi rivali che improvvisamente decidono di condividere lo stesso arco narrativo principale. Apple, da sempre paladina dell’ecosistema chiuso e del controllo maniacale su ogni singolo transistor, ha aperto una porta blindata per far entrare una mente artificiale esterna chiamata non a comandare, ma a insegnare. L’obiettivo dichiarato è l’evoluzione definitiva di Siri, che passerà dall’essere un assistente educato ma spesso smarrito a un vero compagno digitale capace di decodificare contesti, intenzioni e sfumature umane con una precisione mai vista prima d’ora.

L’aspetto tecnicamente più eccitante dell’intera faccenda risiede nella strategia d’integrazione, che non ha nulla a che vedere con un banale sistema pronto all’uso. Apple non farà girare Gemini in modo diretto sui nostri dispositivi, preferendo un approccio da stratega della Silicon Valley che punta tutto sulla raffinatezza. Gemini viene utilizzato come modello insegnante, un colosso che vanta oltre un trilione di parametri, per trasmettere la propria conoscenza ai modelli proprietari della mela attraverso un processo avanzatissimo chiamato distillazione. In questo modo il sapere di un’entità gigantesca viene riversato negli Apple Foundation Models, rendendoli più agili, scattanti e perfettamente ottimizzati per brillare sui chip Apple Silicon.

Questa mossa si rivela elegantissima perché garantisce la potenza di calcolo di un leader globale mantenendo però il controllo totale sull’esperienza utente. Le prestazioni esplodono e la latenza si riduce drasticamente, mentre il consumo energetico resta nei parametri ideali per un dispositivo mobile. Il dogma della privacy rimane intoccabile, poiché nessuna richiesta degli utenti finisce sui server di Mountain View. Ogni elaborazione avviene localmente o attraverso l’infrastruttura blindata di Cupertino, dimostrando che Apple non intende fare alcuna concessione nemmeno sul fronte dell’hardware, continuando a far correre l’intelligenza artificiale sui Neural Engine dei chip serie A e M.

Il 2026 si preannuncia come l’anno della vera rivoluzione, con una Siri 2.0 che si presenterà con un’architettura ibrida mai vista prima. Accanto ai classici moduli deterministici per compiti semplici, come impostare una sveglia, convivranno componenti basate su modelli linguistici avanzati per gestire l’ambiguità del linguaggio umano. Se dovessimo chiedere di inviare un messaggio a un familiare senza avere il nome salvato in rubrica, l’intelligenza artificiale sarà in grado di analizzare le conversazioni passate e le abitudini per capire esattamente a chi ci riferiamo. Secondo le ultime indiscrezioni, questo cambio di paradigma dovrebbe debuttare tra marzo e aprile, segnando l’addio definitivo alla vecchia logica delle risposte basate su semplici link web.

Tutto questo si regge sul Private Cloud Compute, un’infrastruttura progettata per garantire che anche le operazioni più complesse restino protette all’interno di un perimetro invalicabile. Gemini agisce come una mente ospite che pensa secondo logiche avanzate ma si muove dentro un corpo Apple, rispettandone le regole e l’etica. Questa collaborazione dimostra che l’era dell’autosufficienza assoluta è giunta al termine, spingendo anche i colossi più orgogliosi a unire le forze per addestrare modelli di livello globale che richiedono risorse immense. Dopo l’apertura verso ChatGPT, l’accordo con Google conferma la volontà di Apple di scegliere sempre il partner migliore per ogni specifica esigenza.

Google ottiene una vittoria strategica colossale, inserendo Gemini in miliardi di dispositivi e consolidando la sua posizione dominante nello scacchiere globale. Le cifre in ballo sfiorano miliardi di dollari, ma il vero valore della posta in gioco non riguarda il denaro, bensì il modo in cui interagiremo con la tecnologia nei prossimi dieci anni. Presto, dire la celebre frase di attivazione e ricevere una risposta consapevole e naturale non sarà più un miraggio, ma la prova che l’eleganza californiana e la potenza computazionale di Mountain View possono fondersi per creare qualcosa di straordinario. Vorrei sapere da voi cosa ne pensate di questo storico patto tra giganti: vi sentite euforici per le nuove possibilità o nutrite qualche timore per questa inedita convergenza tecnologica?

ChatGPT Salute e MAI-DxO: quando l’intelligenza artificiale entra in corsia e sfida la diagnosi umana

Se sei cresciuto a pane, Star Trek e Neuromante, questa è una di quelle notizie che ti colpiscono dritte al midollo nerd, con quel misto di entusiasmo e inquietudine che solo la fantascienza più visionaria sapeva evocare. Non parliamo di un episodio particolarmente profetico di Black Mirror, né di una timeline alternativa alla Ghost in the Shell. La realtà ha deciso di accelerare. Oggi esistono intelligenze artificiali capaci di affrontare diagnosi mediche complesse con una precisione che, in contesti specifici, supera quella umana. Ed è proprio qui che il presente inizia a somigliare terribilmente al futuro che abbiamo sempre immaginato.

L’annuncio di ChatGPT Salute, la nuova incarnazione verticale dell’AI generativa di OpenAI, segna un punto di svolta netto. Non un semplice aggiornamento, non una funzione accessoria, ma una piattaforma progettata esclusivamente per la salute e il benessere. Un’AI che nasce da un dato impossibile da ignorare: ogni settimana, centinaia di milioni di persone nel mondo chiedono a ChatGPT chiarimenti su sintomi, terapie, alimentazione, stili di vita. La salute è già uno dei principali casi d’uso dell’AI generalista. A questo punto, una versione specializzata non era solo auspicabile, era inevitabile.

Dietro ChatGPT Salute non c’è improvvisazione. Due anni di sviluppo, il contributo diretto di oltre 260 medici appartenenti a decine di specialità e provenienti da più di 60 Paesi. Il messaggio è cristallino e, lasciamelo dire, sorprendentemente maturo: supportare i medici, non sostituirli. Niente diagnosi ufficiali, nessuna prescrizione, nessun verdetto calato dall’alto da una macchina senz’anima. L’obiettivo è aiutare le persone a orientarsi nel caos informativo, comprendere meglio i propri dati clinici, arrivare preparate alle conversazioni che contano davvero, quelle con il proprio medico di fiducia.

La roadmap, però, fa brillare gli occhi a chiunque abbia passato notti intere a sognare un medical tricorder. Integrazione delle cartelle cliniche, interpretazione dei risultati di laboratorio, collegamento con Apple Salute, suggerimenti nutrizionali personalizzati sviluppati insieme a Weight Watchers, analisi evolutiva degli esami del sangue. Un hub sanitario AI-driven che prende forma solo se l’utente decide di concedere accesso ai propri dati, con un controllo che promette di essere totale. Per ora si parte in modalità beta, con un numero ristretto di early adopter e un approccio che sa tanto di “beta tester approved”, quello che noi nerd apprezziamo da sempre.

Quando si parla di salute, però, la parola chiave non è innovazione ma fiducia. Ed è qui che ChatGPT Salute tenta il salto di qualità più delicato. OpenAI promette crittografia dedicata, isolamento rigoroso delle conversazioni sanitarie e un punto che farà tirare un sospiro di sollievo a molti: i dati di ChatGPT Salute non verranno utilizzati per addestrare i modelli di base. In un’epoca in cui la privacy è la vera valuta rara, questa non è una nota a margine, è una dichiarazione d’intenti.

Mentre ChatGPT Salute muove i primi passi come assistente consapevole, un altro progetto ha deciso di spingere l’acceleratore sul fronte più controverso: la diagnosi vera e propria. Firmato Microsoft e guidato da Mustafa Suleyman, ex co-fondatore di DeepMind, MAI-DxO sembra uscito direttamente da un manuale di Mass Effect. Non un singolo modello che risponde, ma un’intera squadra di agenti AI specializzati che collaborano come un party di un GDR medico. Uno seleziona i test, uno formula ipotesi, un altro valuta i risultati. Una diagnosi costruita come una quest cooperativa, in tempo reale.

La prova definitiva è arrivata dai case report del New England Journal of Medicine, uno dei templi sacri della medicina mondiale. Casi clinici complessi, realistici, che richiedono logica, esperienza e una buona dose di intuito. Il risultato ha fatto sobbalzare più di un camice bianco: MAI-DxO ha centrato l’85,5% delle diagnosi, mentre un gruppo di medici umani, messi volutamente in condizioni restrittive, si è fermato intorno al 20%. Numeri che fanno discutere, riflettere, e anche un po’ tremare.

Attenzione però, perché il confronto va letto con lucidità. I medici coinvolti non potevano consultare colleghi, manuali o risorse esterne. Nella vita reale, la medicina è collaborazione continua. E soprattutto, c’è un aspetto che nessun algoritmo, per ora, riesce a padroneggiare davvero: l’essere umano. I pazienti non parlano in linguaggio strutturato, non elencano sintomi come in un paper scientifico. Dicono “mi sento strano”, “qualcosa non va”. Dentro quelle frasi ci sono emozioni, paure, contesti sociali, lutti, fragilità. Tutto ciò che l’AI fatica ancora a decodificare.

Ed è per questo che anche i creatori di MAI-DxO parlano di integrazione, non di sostituzione. Il medico umano resta centrale, ma potrebbe presto trovarsi affiancato da strumenti capaci di ridurre errori, accelerare diagnosi, personalizzare terapie. La medicina sta diventando un territorio ibrido, dove l’occhio clinico incontra la potenza predittiva dei big data. Gli algoritmi già oggi individuano tumori invisibili all’occhio umano, anticipano l’evoluzione di malattie, suggeriscono trattamenti su misura grazie all’analisi genetica e comportamentale. Diagnosticare prima, in medicina, significa spesso salvare vite.

I wearable, gli smartwatch, i sensori che monitorano costantemente i parametri vitali stanno trasformando il nostro corpo in una fonte continua di dati. L’AI li legge, li interpreta, lancia allarmi. Per chi vive con patologie croniche o rischi cardiovascolari, questo non è futuro, è presente. Eppure le domande etiche restano sul tavolo, pesanti come macigni. Chi è responsabile se un’AI sbaglia? Come rendere trasparenti sistemi che funzionano come scatole nere? Come conquistare la fiducia di un personale sanitario già sotto pressione?

La sensazione, da fan di lunga data della fantascienza, è che siamo davanti a una vera svolta epocale. Non il medico robotico delle distopie, ma un alleato potentissimo. Un compagno di squadra silenzioso, instancabile, capace di elaborare ciò che per l’umano sarebbe impossibile in tempi utili. La sfida non è fermare questa evoluzione, ma imparare a governarla.

Siamo pronti a farci curare da un algoritmo? Forse no. Ma siamo pronti a lasciare che lavori accanto al nostro medico di fiducia, migliorando diagnosi e cure? Qui, probabilmente, la risposta è già sì. E in un mondo in cui il tempo è sempre meno e le risorse sempre più limitate, un assistente AI capace di centrare l’85% delle diagnosi complesse potrebbe davvero cambiare le regole del gioco.

Ora la palla passa a noi, come pazienti, come cittadini, come community nerd che ha sempre intuito dove stava andando il futuro. Tu come la vedi? Ti fideresti di un’AI che lavora fianco a fianco con il tuo medico? Parliamone, perché questa partita è appena iniziata.

Dipendenza da IA: cos’è lo Spiral Support Group e come aiuta gli “addicted”

Siamo abituati a pensare all’Intelligenza Artificiale come all’assistente perfetto: scrive codice, riassume mail noiose e ci genera immagini assurde in pochi secondi. Ma cosa succede quando quel cursore che lampeggia diventa l’unico “amico” con cui riusciamo a parlare? Sembra la trama di un episodio di Black Mirror, eppure è la realtà.

Oggi sta emergendo un lato oscuro e decisamente umano del rapporto con i chatbot: la dipendenza. Per rispondere a questa nuova emergenza è nato lo Spiral Support Group, una vera e propria rete di salvataggio formata da ex “addicted” dell’IA che aiuta chi è rimasto intrappolato in una relazione tossica con gli algoritmi.

Il lato oscuro di ChatGPT: quando l’empatia è solo un algoritmo

Il problema è sottile. A differenza di un essere umano, un chatbot come ChatGPT è sempre disponibile, non ti giudica mai e, soprattutto, ti dà sempre ragione. Questa “empatia artificiale” può diventare una trappola per l’equilibrio psicologico, portando gli utenti in un loop di isolamento e ossessione.

Il portale Futurism ha recentemente intervistato i fondatori di questa associazione, che utilizza Discord come base operativa (un luogo che noi nerd conosciamo bene, ma che qui diventa una stanza di terapia). Tra i moderatori c’è Allan Brooks, che dopo aver raccontato la sua storia alla CNN è stato sommerso da messaggi di persone che vivevano la stessa situazione: prigioniere di relazioni unilaterali con software capaci di alimentare deliri e solitudine.

Chi sono gli “Spiraler”?

Il gruppo conta circa 200 membri e si divide in due categorie:

  • Gli Spiraler: persone nel pieno della “spirale”, che passano intere giornate a chattare con l’IA, usandola come specchio, giudice e unico alleato.

  • Le Famiglie: parenti che cercano di capire come gestire episodi psicotici o l’allontanamento dalla realtà dei propri cari.

Il meccanismo è pericoloso perché l’IA asseconda tutto. Se un utente inizia a sviluppare teorie complottiste, deliri esoterici o manie di grandezza, il chatbot non pone freni, anzi, continua a generare risposte che validano quelle idee. In pratica, l’IA diventa un amplificatore di malessere preesistente.

Non una cura, ma un porto sicuro

È bene chiarire un punto: lo Spiral Support Group non offre cure mediche o psichiatriche professionali. Funziona più come un “cordone sanitario” sociale. È un posto dove chi si sente perso nel codice può parlare, confrontarsi e, grazie al supporto dei moderatori, iniziare a rimettere i piedi nel mondo reale.

In un’epoca in cui l’IA è ovunque, forse la sfida più grande non è imparare a usarla, ma imparare a staccarsi dallo schermo quando il confine tra prompt e realtà inizia a farsi troppo sottile.

Generazione Z e lavoro: tra Intelligenza Artificiale, flessibilità e nuove regole del gioco

Ehi community di CorriereNerd, preparate i controller e caricate le pozioni mana, perché dobbiamo parlare di qualcosa che scotta più di un drago della Terra di Mezzo appena svegliato: il mercato del lavoro nel 2026. Se pensavate che le dinamiche aziendali fossero noiose quanto un tutorial obbligatorio di un gioco mobile di serie B, preparatevi a ricredervi, perché la Generazione Z ha appena lanciato una patch massiva che sta riscrivendo il codice sorgente di come intendiamo la carriera.

Guardando i giovani professionisti di oggi, sembra di osservare dei player che guardano un vecchio ufficio tradizionale come noi guarderemmo un modem a 56k recuperato in cantina. C’è quella punta di nostalgia per i tempi che furono, ovvio, ma la voglia di usarlo davvero è pari a zero. Chi è cresciuto tra reboot infiniti, aggiornamenti di sistema e patch correttive quotidiane ha sviluppato un riflesso automatico nel riconoscere un modello obsoleto quando ne vede uno. La Gen Z non cerca semplicemente un modo per farmare oro a fine mese; questi ragazzi cercano senso, flessibilità e una coerenza narrativa che faccia sembrare il loro percorso professionale una quest principale degna di essere vissuta, non una side quest ripetitiva e priva di reward.

In questo scenario, il lavoro diventa uno spazio identitario totale, quasi una parte integrante dell’avatar sociale che mostriamo al mondo, molto più di un semplice equipaggiamento temporaneo per sopravvivere. Mettere in discussione gerarchie rigide e orari immutabili che sembrano usciti direttamente da una sitcom degli anni Novanta non è un atto di ribellione fine a se stesso, ma una necessità evolutiva. Questi giovani professionisti non sono un bug da correggere nel sistema, sono il messaggio di errore che ci avvisa che il software aziendale va aggiornato immediatamente.

Il 2026 si sta rivelando una vera patch di sistema globale, di quelle che non si limitano a sistemare piccoli glitch grafici ma cambiano radicalmente le meccaniche di gioco. La Gen Z entra nell’arena con un set di skill che farebbe invidia a qualunque eroe di un RPG moderno: alfabetizzazione digitale nativa, una rapidità mentale pazzesca e un’allergia naturale per tutto ciò che è burocrazia inutile. Eppure, qui arriviamo al primo boss di fine livello: il colloquio di lavoro e la successiva negoziazione salariale.

Entrare in quella stanza con le statistiche mal distribuite è il modo più rapido per subire un game over prematuro. Negli ultimi vent’anni il mondo delle risorse umane ha vissuto archi narrativi degni di una saga sci-fi, tra boom improvvisi e crash traumatici. Oggi, le aziende cercano menti fresche capaci di parlare il linguaggio dell’innovazione come fosse la propria lingua madre, ma allo stesso tempo devono fare i conti con budget più prudenti di un mercante in un dungeon pericoloso. Qui emerge una distinzione fondamentale che ogni aspirante professionista dovrebbe tatuarsi virtualmente: la sicurezza in sé è un potenziamento, ma l’ego è un debuff pesantissimo.

Sapere quanto si vale è sacrosanto, ma sparare una richiesta salariale fuori orbita senza avere l’esperienza o i risultati misurabili per sostenerla non comunica forza, comunica rischio. Un hiring manager potrebbe anche essere gasatissimo dal vostro profilo, vedendovi già come l’investimento perfetto per il party aziendale, ma se le aspettative economiche rompono l’equilibrio della realtà, quell’entusiasmo si spegne più velocemente di una console durante un blackout. La trattativa non va vissuta come uno scontro all’ultimo sangue, ma come un dialogo strategico dove fare domande e mostrare curiosità per il ruolo e per la crescita del team vale quanto una competenza tecnica certificata.

Le carriere oggi non sono più percorsi lineari, somigliano molto di più a giganteschi open world pieni di bivi e possibilità. Perfino testate autorevoli come Il Sole 24 Ore confermano che l’idea del posto fisso è ormai finita nel dimenticatoio dei vecchi salvataggi corrotti. La Gen Z non è instabile, è ambiziosa e pianifica costantemente il prossimo salto di livello, cercando prospettive di crescita che vadano oltre il semplice aumento dello stipendio.

In tutto questo, l’Intelligenza Artificiale si sta rivelando il miglior coach di carriera possibile. Per chi è cresciuto tra gaming online e streaming, l’AI è una compagna di party affidabile che aiuta a ottimizzare il tempo, risolvere problemi complessi e bilanciare finalmente la vita privata con le ambizioni lavorative. È un acceleratore di skill che permette di essere flessibili in un mondo che richiede velocità costante.

C’è però un punto di frizione affascinante in questa narrazione: il pragmatismo sta superando l’idealismo. Molti giovani sono disposti ad accettare ruoli in aziende con valori non perfettamente allineati ai propri se i benefit e la retribuzione sono solidi. Non è incoerenza, è strategia pura in un mercato post-pandemia dove bisogna saper scegliere bene le proprie battaglie.

Noi nerd sappiamo bene che i protagonisti migliori non sono quelli che caricano a testa bassa sperando nel critico fortunato, ma quelli che leggono l’ambiente, imparano dagli NPC giusti e scelgono il momento esatto per agire. La sfida del 2026 è appena iniziata e richiede player intelligenti, non eroi solitari convinti di avere già il level cap al massimo. Voi come state gestendo i vostri colloqui? Avete mai sentito quella tensione tra l’essere sicuri di voi e il rischio di sembrare arroganti durante una negoziazione? Fatevi sentire nei commenti, perché la quest per il lavoro del futuro la completiamo solo insieme.

Ghostwriter 2.0: lo scrittore invisibile tra identità, etica e intelligenze artificiali generative

Esiste una figura professionale che più di ogni altra incarna l’archetipo del nerd invisibile, del mago dietro le quinte, dello scriba che plasma mondi narrativi senza mai firmarli. Il ghostwriter non è soltanto uno “scrittore fantasma”, ma una vera e propria entità liminale della cultura contemporanea, sospesa tra creatività pura, artigianato linguistico e identità negate. Un ruolo che affonda le radici nella storia dell’editoria moderna e che oggi, nell’epoca delle intelligenze artificiali generative, sta vivendo una mutazione degna di un reboot cyberpunk. La mitologia del ghostwriter nasce molto prima dell’era digitale, in un tempo in cui la scrittura era un privilegio e il nome in copertina contava più della voce reale che aveva dato forma alle parole. Politici, celebrità, industriali, artisti e persino autori di narrativa hanno spesso affidato a mani altrui il compito di raccontare la propria storia o di costruire un messaggio pubblico coerente, efficace, vendibile. Il ghostwriter diventava allora un camaleonte narrativo, capace di assorbire tono, lessico e visione del committente fino a dissolvere completamente la propria identità stilistica. Un lavoro di ascolto, empatia e mimetismo che ricordava più l’acting method che la scrittura tradizionale.

Per chi ama la cultura nerd, il ghostwriter è sempre stato una figura affascinante proprio perché invisibile. Un po’ come il background artist che disegna le città mentre l’eroe occupa il primo piano, o come lo sceneggiatore non accreditato che salva un blockbuster all’ultimo minuto. La sua forza non sta nel protagonismo, ma nella capacità di costruire senso, ritmo e coerenza narrativa per qualcun altro. Scrivere autobiografie, discorsi politici, romanzi seriali, saggi divulgativi o contenuti digitali significa entrare nella testa di un’altra persona e restituirla al mondo in forma di testo credibile. Un’operazione che ha sempre sollevato domande scomode su autenticità, paternità e verità.

Poi è arrivata l’era delle AI generative, e improvvisamente la scrittura automatizzata ha smesso di essere fantascienza.

Algoritmi capaci di produrre testi fluidi, strutturati e sorprendentemente convincenti hanno iniziato a occupare lo stesso spazio operativo che per decenni era stato dominio quasi esclusivo dei ghostwriter. Per molti osservatori superficiali, il verdetto è sembrato immediato: lo scrittore fantasma è destinato a scomparire, rimpiazzato da una macchina che non dorme, non chiede compensi a cinque cifre e non firma accordi di riservatezza.

La realtà, come spesso accade, è molto più interessante. L’intelligenza artificiale non ha eliminato il ghostwriter, lo ha costretto a evolversi. Se un tempo il valore principale risiedeva nella capacità di scrivere bene, oggi quella competenza da sola non basta più. La scrittura, intesa come pura produzione di testo, è diventata una commodity. Ciò che resta profondamente umano, e quindi insostituibile, è la capacità di giudizio, di contesto, di responsabilità narrativa. Il ghostwriter contemporaneo non è più soltanto uno scrittore, ma un architetto del discorso, un editor strategico, un regista che orchestra l’interazione tra pensiero umano e output algoritmico.

Nel nuovo scenario, il ghostwriter dialoga con l’AI come con uno strumento potentissimo ma cieco.

Sa quando fidarsi di una bozza generata automaticamente e quando invece intervenire per correggere sfumature, evitare ambiguità, rafforzare l’identità della voce narrante. La sensibilità emotiva, la conoscenza culturale, la capacità di cogliere sottotesti e implicazioni etiche restano prerogative umane. Nessun modello generativo, per quanto avanzato, può comprendere davvero il peso di una parola in un contesto politico delicato, o l’impatto emotivo di una frase in un’autobiografia segnata dal trauma.

Questo passaggio trasforma anche il dibattito etico sulla scrittura fantasma. Se già in passato ci si interrogava su chi fosse il vero autore di un’opera firmata da altri, oggi la domanda si moltiplica: chi è responsabile di un testo scritto con l’aiuto di un’AI? Il committente che lo firma, il ghostwriter che lo supervisiona, o l’algoritmo che lo ha materialmente prodotto? La tradizionale invisibilità del ghostwriter si sovrappone all’opacità dei sistemi di intelligenza artificiale, creando una zona grigia che richiede nuove regole, nuove competenze e, soprattutto, una nuova consapevolezza professionale.

Dal punto di vista nerd, questa evoluzione è affascinante perché richiama temi classici della fantascienza: l’identità, la delega cognitiva, il confine tra umano e artificiale. Il ghostwriter diventa una sorta di cyborg narrativo, metà autore e metà curatore, che utilizza la tecnologia per amplificare il proprio lavoro senza rinunciare alla propria responsabilità creativa. Non è più solo colui che scrive al posto di qualcuno, ma colui che garantisce che una voce resti autentica anche quando passa attraverso una macchina.

7 prompt per trasformare ChatGPT nel tuo ghostwriter personale

Trasformare ChatGPT nel tuo ghostwriter personale non significa delegare l’anima a una macchina, ma insegnarle a riconoscere la tua voce, i tuoi tic narrativi, il tuo modo di stare nelle parole. È un po’ come addestrare un droide protocollare alla C-3PO, ma con il tuo stile al posto di milioni di forme di comunicazione. Qui sotto trovi sette prompt di esempio, pensati come veri e propri “incantesimi testuali”, da copiare, adattare e usare per allenare ChatGPT a scrivere come te, non al posto tuo.


Prompt 1 – Identità narrativa e stile personale

“Agisci come il mio ghostwriter personale. Prima di scrivere qualsiasi contenuto, assimila queste informazioni su di me: il mio stile è [descrizione: diretto, ironico, evocativo, analitico, emotivo, ecc.]. Amo trattare temi come [argomenti principali] con un approccio [critico, divulgativo, narrativo, nerd, pop]. Nei miei testi cerco sempre di [obiettivo: coinvolgere, spiegare, provocare riflessione, creare hype]. Usa queste indicazioni come base permanente per tutto ciò che scriverai per me.”


Prompt 2 – Analisi degli esempi reali

“Ti fornisco ora alcuni esempi di testi scritti da me. Analizzali a fondo: vocabolario ricorrente, lunghezza delle frasi, ritmo, tono emotivo, uso di metafore o riferimenti culturali. Non riscriverli. Studiali come farebbe un editor o un ghostwriter professionista che deve imitare la mia voce in modo credibile.”


Prompt 3 – Restituzione e validazione della voce

“Descrivi in modo dettagliato lo stile di scrittura che hai individuato nei miei testi. Spiegami che tipo di voce narrativa sto usando, che impressione trasmette al lettore e quali sono i miei tratti distintivi. Attendi una mia conferma o correzione prima di procedere a scrivere nuovi contenuti.”


Prompt 4 – Adattamento al pubblico senza perdere identità

“Scrivi un testo sul tema [argomento] mantenendo il mio stile, ma adattandolo a un pubblico [generalista / esperto / nerd / professionale]. Il linguaggio deve essere accessibile al target indicato, senza snaturare la mia voce, il mio tono e il mio modo di raccontare.”


Prompt 5 – Struttura ricorrente e organizzazione delle idee

“Quando scrivi per me, replica questa struttura narrativa: introduzione che cattura l’attenzione, sviluppo graduale con approfondimento e connessioni culturali, chiusura che apre una riflessione o invita al dialogo. Usa questa architettura come schema implicito, senza mai renderla rigida o artificiale.”


Prompt 6 – Integrazione di dati e fonti nello stile personale

“Includi nel testo dati, riferimenti storici o informazioni tecniche su [tema], ma integrali in modo fluido e narrativo, come farei io. Evita l’effetto ‘manuale’ o ‘relazione tecnica’: i numeri e le informazioni devono sembrare parte naturale del racconto, non un’aggiunta fredda.”


Prompt 7 – Adattamento cross-platform mantenendo la voce

“Riscrivi questo contenuto per la piattaforma [blog / social / newsletter], rispettando i limiti e le dinamiche del mezzo, ma mantenendo intatta la mia voce narrativa. Il lettore deve riconoscermi anche cambiando piattaforma, come se stessi parlando la stessa lingua in contesti diversi.”


Usare questi prompt significa trattare ChatGPT non come un generatore automatico di testi, ma come un apprendista ghostwriter digitale. La macchina accelera, ottimizza, suggerisce. La scintilla, però, resta tua. E come ogni buon autore sa, anche il miglior fantasma ha bisogno di una mente viva che lo guidi. Sta a te decidere quanto profonda vuoi rendere questa collaborazione. Paradossalmente, le AI generative stanno anche democratizzando l’accesso alla scrittura, proprio come il ghostwriting aveva fatto in passato. Consentono a chi non possiede competenze tecniche di esprimere idee, progetti e visioni. In questo contesto, il ghostwriter può concentrarsi su ciò che davvero conta: aiutare le persone a dire qualcosa che abbia senso, peso e coerenza. Meno dattilografo dell’anima, più custode della narrazione.

Guardando avanti, la figura del ghostwriter non sembra destinata a svanire, ma a diventare sempre più sofisticata e strategica. In un mondo saturo di testi generati automaticamente, il valore non sarà più nella quantità di parole prodotte, ma nella qualità delle decisioni editoriali che le governano. E forse, proprio come nei migliori racconti cyberpunk, lo scrittore fantasma continuerà a muoversi nell’ombra, ma con un nuovo tipo di potere: quello di saper distinguere una voce vera da un’imitazione perfetta.

E voi, da nerd consapevoli, come vedete il futuro della scrittura nell’era delle AI? Il ghostwriter vi sembra una reliquia del passato o un hacker narrativo pronto a dominare il prossimo livello del gioco? La discussione è aperta, e come sempre le storie migliori nascono dal confronto.

Exit mobile version