L’AI sta riscrivendo il videogioco: meraviglia, scosse industriali e la stagione dei licenziamenti

C’è stato un tempo, che oggi sembra quasi appartenere a un’era geologica differente, in cui il termine “Intelligenza Artificiale” applicato ai videogiochi evocava immagini rassicuranti e circoscritte. Pensavamo al fumo nero di un nemico in F.E.A.R. che ci aggirava con una furbizia quasi umana, o a quel “Director” invisibile di Left 4 Dead che decideva, con sadica precisione, quando scagliarci contro un’orda proprio mentre eravamo a corto di medikit. Era un’AI addomesticata, un trucco di magia digitale progettato esclusivamente per rendere più vibrante la nostra esperienza ludica. Oggi, però, quella stessa tecnologia è uscita dai confini del monitor per sedersi prepotentemente dall’altra parte della scrivania, proprio dove si decidono i budget, si scrivono le pipeline di produzione e, purtroppo, si firmano i licenziamenti.

L’industria videoludica sta attraversando un cambio di paradigma che definire epocale è quasi un eufemismo. Se prima l’AI era l’attrice non protagonista incaricata di rendere più credibile un mondo virtuale, oggi è diventata il capocantiere, l’architetto e, in alcuni casi, il consulente per i tagli al personale. Il confine tra innovazione tecnologica e ristrutturazione selvaggia si è fatto sottilissimo, scatenando nella community nerd quel mix esplosivo che conosciamo fin troppo bene: un briciolo di meraviglia tecnologica soffocato da una valanga di scetticismo e da una rabbia che ribolle sui forum di tutto il mondo.

Il caso che ha scoperchiato il vaso di Pandora riguarda uno dei giganti intoccabili del settore: Activision. La conferma dell’utilizzo di strumenti generativi per la creazione di alcune “calling card” in Call of Duty: Black Ops 7 è stata la scintilla che ha appiccato il fuoco. Non parliamo di sistemi complessi di gameplay o di sceneggiature ramificate, ma di elementi puramente estetici e accessori. Eppure, in un clima già reso elettrico da un’ondata di licenziamenti senza precedenti, questo dettaglio è stato percepito come un pericoloso precedente. Non è più una questione di pixel, ma di dignità del lavoro creativo. La reazione è stata così virulenta da travalicare i confini del settore, arrivando sui tavoli della politica. Il deputato Ro Khanna ha sollevato dubbi pesantissimi, criticando l’uso dell’AI come paravento per gonfiare i margini di profitto a scapito dei lavoratori e suggerendo persino misure drastiche come tassazioni specifiche per le aziende che sostituiscono i ruoli creativi con gli algoritmi. È la prova definitiva che il gaming è finalmente riconosciuto come un’industria culturale “vera”, con responsabilità sociali che vanno ben oltre il semplice intrattenimento.

Mentre la politica discute, la tecnologia corre a una velocità che mette i brividi. Google DeepMind ha recentemente alzato il velo su Project Genie, promettendo qualcosa che fino a due anni fa avremmo definito fantascienza pura: mondi 3D interattivi generati interamente partendo da un semplice prompt testuale. Non ci sono più i classici editor di livelli carichi di parametri e menu a tendina; c’è invece una sorta di “immaginazione computazionale” che crea il terreno sotto i piedi del giocatore mentre quest’ultimo avanza. L’impatto iniziale è quel senso di meraviglia infantile che ci ha fatto innamorare di questo medium: l’idea di descrivere un luogo onirico e potervi entrare istantaneamente. Tuttavia, la magia si incrina non appena subentra il pragmatismo del mondo reale. Sebbene Genie oggi produca esperienze ancora grezze, brevi e piene di glitch grafici, rappresenta un trailer tecnologico di ciò che ci aspetta. Il timore non è che l’AI rimpiazzi domani il game designer, ma che diventi l’alibi perfetto per giustificare produzioni “fast food”, dove la quantità di contenuti generati sostituisce la qualità della visione autoriale.

I mercati finanziari, che spesso agiscono con la stessa impulsività di un NPC programmato male, hanno reagito con un panico degno di un romanzo cyberpunk. All’annuncio di queste nuove frontiere generative, titoli storici come Take-Two Interactive, Roblox, Unity e persino CD Projekt hanno subito scossoni pesanti in borsa. Gli investitori vedono nell’automazione una via di fuga dai costi di produzione che, nell’ultimo decennio, sono diventati un vero e proprio “mostro finale” imbattibile. Sviluppare un tripla A oggi richiede tempi biblici e budget che farebbero impallidire un blockbuster di Hollywood. In questo scenario, l’AI non è solo una curiosità tecnica, ma una tentazione irresistibile per chiunque debba far quadrare i bilanci.

E qui arriviamo alla nota dolente, quella che ogni appassionato di cultura nerd fatica a digerire: i licenziamenti. Tra il 2022 e l’inizio del 2026, l’industria ha visto decine di migliaia di professionisti perdere il posto. Sarebbe intellettualmente disonesto incolpare esclusivamente l’intelligenza artificiale; la crisi affonda le radici in scommesse sbagliate sui modelli live service, espansioni folli durante la pandemia e una gestione aziendale che ha rincorso una crescita infinita in un mondo dai tempi finiti. Ma l’AI agisce come un catalizzatore chimico: se un’azienda è già intenzionata a tagliare, la promessa di uno strumento che può “fare di più con meno” diventa la giustificazione morale ideale per svuotare interi uffici.

Il rischio più subdolo che stiamo correndo non è l’apocalisse improvvisa del game development, ma una lenta e silenziosa standardizzazione della creatività. Un videogioco non è mai stato solo una somma di texture e modelli poligonali; è ritmo, è regia, è quella sensibilità squisitamente umana che si nasconde dietro un dialogo o un’inquadratura. L’AI può costruire l’impalcatura, può accelerare la fase di prototipazione e magari aiutare nei playtest più noiosi, ma non può (ancora) avere una visione. Il pericolo è trovarsi sommersi da mondi tecnicamente impeccabili ma emotivamente vuoti, dove tutto sembra già visto perché derivato da un database di cose già esistenti.

I dati emersi dal sondaggio della Game Developers Conference 2026 sono un grido d’allarme che non può essere ignorato. La percentuale di sviluppatori — ovvero delle persone che queste tecnologie le creano e le integrano quotidianamente — che considera l’AI generativa dannosa per l’industria è in costante aumento. Non è luddismo o paura dell’ignoto; è la consapevolezza di chi vede come questi strumenti vengono gestiti dai piani alti. C’è una sfiducia crescente verso una dirigenza che sembra più interessata a risparmiare sui salari che a investire sul talento.

Siamo a un bivio fondamentale. L’intelligenza artificiale può essere il miglior “party member” di sempre, un alleato in grado di potenziare la creatività umana e liberare gli sviluppatori dai compiti più alienanti, oppure può essere il boss finale che sancisce la fine dell’era dell’oro del gaming d’autore. Per evitare che il medium si impoverisca, è necessario un nuovo patto etico che metta al centro la trasparenza, il consenso e la tutela dei ruoli creativi. Il futuro del gioco non dovrebbe riguardare la nostra capacità di scrivere un prompt perfetto, ma la nostra volontà di continuare a costruire mondi che valga la pena abitare, nati dal sudore e dall’ingegno di chi quei mondi li ama davvero. La partita è appena iniziata, e stavolta il controller è nelle nostre mani: preferiamo un futuro generato o un futuro creato?


Ti piacerebbe che approfondissi l’impatto di queste tecnologie specificamente sul mondo degli studi indipendenti, per capire se l’AI possa essere per loro un’ancora di salvezza o un’ulteriore minaccia?

Intelligenze artificiali: all’immortalità qualcosa sfugge

Esiste una sensazione strana, quasi disturbante, che aleggia nell’aria ogni volta che si parla di intelligenza artificiale e immortalità. Una sensazione che assomiglia a quel brivido lungo la schiena che provavamo la prima volta davanti a un film cyberpunk, quando capivamo che il futuro non sarebbe stato soltanto lucido e tecnologico, ma anche profondamente ambiguo. L’idea che persino la morte stia diventando porosa, attraversabile, riscrivibile, è uno dei segni più evidenti del tempo in cui viviamo. Un’epoca in cui l’addio definitivo inizia a sembrare un concetto obsoleto, sostituito da una persistenza digitale fatta di dati, tracce, profili, messaggi vocali e conversazioni archiviate.

Per millenni l’umanità ha raccontato la propria paura della fine attraverso miti e leggende. L’epopea di Gilgamesh, gli alchimisti alla ricerca dell’elisir, i racconti medievali di resurrezione, fino alla fantascienza più visionaria del Novecento. Oggi quel desiderio antico non si manifesta più sotto forma di magia o intervento divino, ma come servizio tecnologico. L’immortalità non viene promessa in cielo, bensì nel cloud. Non passa più dal corpo, ma dall’algoritmo. E qui la fantascienza smette di essere un semplice genere narrativo per diventare cronaca.

Chi è cresciuto divorando romanzi cyberpunk o guardando episodi disturbanti di Black Mirror riconosce subito il territorio. Solo che questa volta non siamo davanti a una distopia immaginata, ma a un mercato reale che prende forma sotto il nome di “digital afterlife”. Un’industria che utilizza ciò che lasciamo dietro di noi – email, chat, note vocali, video, post social – per ricostruire versioni digitali di persone scomparse. Non copie perfette, certo, ma simulazioni sempre più sofisticate, capaci di rispondere, ricordare, dialogare. Una forma di sopravvivenza simbolica che mette insieme intelligenza artificiale, memoria e desiderio umano di non separarsi mai davvero.

L’espressione “immortalità digitale” non indica una vita eterna nel senso biologico, ma una permanenza identitaria. È la possibilità di continuare a esistere come voce, stile comunicativo, modo di pensare. Un’estensione postuma dell’io, alimentata dai dati prodotti in vita. Questo fenomeno è stato recentemente analizzato anche dall’Eurispes, che lo descrive come uno dei campi più controversi dell’innovazione contemporanea, capace di attrarre investimenti, curiosità e allo stesso tempo timori profondi. L’IA, in questo scenario, non si limita più ad assistere i vivi: inizia a dialogare con i morti.

Il punto di svolta sta tutto lì, in quella promessa tanto semplice quanto devastante. Continuare a parlare con chi non c’è più. In alcuni contesti culturali, come quello cinese, questa idea ha trovato terreno fertile. La venerazione degli antenati si è fusa con l’iper-tecnologia, dando vita a chatbot e avatar commemorativi che replicano voce, espressioni, persino atteggiamenti emotivi delle persone scomparse. Non stiamo parlando di prototipi da laboratorio, ma di servizi commerciali già disponibili, utilizzati da famiglie in cerca di conforto o di un ultimo dialogo sospeso.

Dietro queste esperienze si muove una macchina tecnologica impressionante. Riconoscimento facciale, reti neurali, modelli linguistici addestrati su enormi archivi personali. In Corea del Sud, la società DeepBrain AI ha spinto il concetto al limite con sistemi capaci di ricreare avatar iperrealistici dei defunti, basati su ore di registrazioni video. L’incontro non avviene su uno schermo qualunque, ma in ambienti di realtà virtuale dove la distanza tra simulazione ed esperienza emotiva si riduce drasticamente. Per alcuni è una forma di terapia, per altri un’esperienza traumatica. E in entrambi i casi, il prezzo non è solo emotivo.

Qui entra in gioco un concetto che fa tremare i polsi: la grief tech, la tecnologia del lutto. Una frontiera in cui psicologia, business e intelligenza artificiale si intrecciano in modo delicatissimo. Startup europee e americane stanno sviluppando chatbot in grado di “rianimare” digitalmente i defunti grazie ai dati raccolti dai loro dispositivi. Il modo di scrivere, le frasi ricorrenti, le battute private diventano pattern. E quando l’IA inizia a rispondere esattamente come quella persona, il cervello fa fatica a mantenere le distanze. Non è più solo memoria. È interazione.

Alcuni sistemi arrivano a simulare contatti spontanei, messaggi inattesi, chiamate che sembrano partire dall’aldilà digitale. Un’idea potentissima, e anche pericolosa. Perché il lutto, che per secoli è stato un processo doloroso ma necessario, rischia di trasformarsi in una relazione senza fine, alimentata da notifiche e risposte automatiche. Ed è qui che la riflessione etica diventa urgente.

Diversi studiosi, tra cui ricercatori dell’Università di Cambridge, hanno messo in guardia sui potenziali effetti psicologici dei cosiddetti deadbot. Il rischio non è teorico. Un’interazione costante con una replica digitale può bloccare l’elaborazione della perdita, creare dipendenze emotive e confusione percettiva. Il dolore non viene superato, ma sospeso in una bolla artificiale. Una sorta di limbo emotivo che ricorda certe narrazioni fantascientifiche… solo che questa volta non c’è un regista a dirci quando spegnere lo schermo.

C’è poi una questione ancora più inquietante, che riguarda il controllo. Se la voce di una persona scomparsa diventa un prodotto, chi decide come viene utilizzata? Chi stabilisce i limiti? Il rischio di una mercificazione del dolore è concreto. Abbonamenti, microtransazioni emotive, pacchetti premium di memoria digitale. La morte come piattaforma. Il lutto come flusso di dati monetizzabile. Un’idea che fa venire i brividi, soprattutto se pensiamo a quanto siamo già disposti a pagare per non sentirci soli.

Eppure, questa deriva non nasce dal nulla. Alcuni degli esperimenti più noti di resurrezione digitale sono diventati vere e proprie pietre miliari della cultura tech contemporanea. Dalla creazione di chatbot basati su conversazioni reali, fino alla nascita di app come Replika, sviluppata a partire da un progetto di memoria personale. Ogni caso racconta la stessa tensione di fondo: il desiderio umano di trattenere ciò che ama, anche a costo di ridefinire il confine tra vita e simulazione.

Guardando questo panorama, viene spontaneo immaginare una gigantesca necropoli digitale in costruzione. Un luogo senza lapidi, fatto di server e archivi, dove le identità continuano a parlare, raccontare, rispondere. Una sorta di aldilà tecnologico che cresce silenziosamente, mentre le IA diventano sempre più brave a imitare ciò che siamo stati. Ma cosa resta davvero dell’umano, quando l’esperienza della fine viene rimandata all’infinito?

Il rischio più grande, come sottolineano diversi filosofi e studiosi del rapporto tra tecnologia e morte, è quello di rimanere intrappolati in un eterno presente. Se nessuno se ne va davvero, se l’addio viene continuamente rimandato, anche la vita perde parte della sua urgenza. La finitezza, per quanto spaventi, è sempre stata il motore delle nostre scelte, delle nostre storie, dei nostri legami.

L’immortalità digitale è una promessa seducente, soprattutto per una generazione cresciuta online, abituata a lasciare tracce ovunque. Ma è anche una trappola sottile. Perché la memoria, anche la più fedele, non è presenza. Un avatar non è una persona. Eppure il cuore, davanti a una voce familiare che risponde, tende a dimenticarlo.

La vera domanda, allora, non riguarda ciò che possiamo fare con l’intelligenza artificiale, ma ciò che siamo disposti ad accettare. In un mondo in cui i server rischiano di diventare cimiteri e gli algoritmi nuovi custodi del ricordo, serve una riflessione collettiva, profonda, non delegabile al solo mercato. Forse il vero atto rivoluzionario, nel futuro ipertecnologico che ci aspetta, sarà ancora quello più difficile da compiere: imparare a dire addio. E continuare a vivere, proprio perché il tempo è limitato.

Come creare videogiochi con le AI generative?

Parlare oggi di come creare videogiochi con le AI generative significa trovarsi esattamente su quella linea sottile che separa la nostalgia geek dal futuro che avanza a velocità warp. Una sensazione familiare, per chi è cresciuto smanettando con editor rudimentali, cheat code scritti su foglietti stropicciati e sogni troppo grandi per l’hardware dell’epoca. Solo che questa volta il sogno non si infrange contro i limiti tecnici. Questa volta prende forma. Si muove. Reagisce. E lo fa davanti ai nostri occhi.

L’arrivo di Genie 3, il nuovo modello di intelligenza artificiale sviluppato da Google DeepMind, segna uno di quei momenti che tra dieci anni ricorderemo come un “prima” e un “dopo”. Non si parla più di video generati o demo patinate buone per stupire su Twitter. Qui siamo davanti a mondi tridimensionali interattivi che nascono in tempo reale mentre li esplori, ambienti che si modellano partendo da una frase, da un’immagine, da uno schizzo fatto distrattamente come se fosse la mappa di un dungeon inventato a scuola durante l’ora di matematica.

La differenza rispetto al passato è netta. Le versioni precedenti di questo tipo di AI sembravano soffrire di una specie di smemoratezza cronica: bastava girare l’angolo e il mondo dimenticava cosa fosse successo un secondo prima. Genie 3, invece, introduce una continuità spaziale e visiva che cambia completamente la percezione dell’esperienza. Gli ambienti restano coerenti, ricordano, mantengono una logica interna per minuti interi. E all’improvviso non stai più osservando una simulazione, ma ti senti davvero dentro uno spazio che esiste anche quando non lo stai guardando.

Il punto affascinante è che l’AI non lavora come un engine tradizionale. Non assembla livelli come farebbe un editor classico, pezzo dopo pezzo, con regole rigide. Il suo comportamento ricorda molto di più quello di un dungeon master particolarmente ispirato. Interpreta il mondo, reagisce alle azioni del giocatore, prova a dare senso a ciò che accade. Non disegna soltanto uno scenario: lo vive insieme a te, con tutti gli inciampi e le stranezze tipiche di un’intelligenza che sta ancora imparando il linguaggio dei videogiochi.

Con Project Genie il discorso si spinge ancora oltre. Qui l’obiettivo non è stupire, ma permettere di creare, esplorare e remixare mondi virtuali in tempo reale. La soglia d’ingresso per la sperimentazione creativa si abbassa drasticamente. Idee che fino a ieri restavano chiuse in una cartella di appunti o nella testa di un designer diventano bozzetti navigabili, imperfetti ma vivi. Certo, emergono ancora glitch, animazioni improbabili, incoerenze tipiche delle AI. Ma come strumento di prototipazione il potenziale è enorme, quasi destabilizzante per chi ha passato anni a costruire proof of concept con tempi biblici.

In parallelo, un altro nome ha iniziato a rimbalzare tra le chat degli sviluppatori e le discussioni più accese su Discord: Mirage 2. La nuova versione di questo game engine generativo, accessibile via browser attraverso il portale di Dynamics Lab, porta il concetto di “dal prompt al gameplay” a un livello quasi surreale. Scrivi una descrizione testuale e ti ritrovi catapultato in un mondo giocabile. Non un mockup. Non un video. Un ambiente in cui puoi muoverti, esplorare, sperimentare.

La demo iniziale strizza l’occhio a immaginari ben noti, con scenari che ricordano titoli come Red Dead Redemption, ma il bello arriva quando inizi a forzare la mano. Fantasy, fantascienza, surreale puro. Cambi prospettiva, chiedi un altro stile, muovi il personaggio con i comandi base e osservi il mondo reagire. La latenza c’è, le imprecisioni pure, e le interazioni sono ancora limitate. Ma il fatto stesso di poter giocare dentro qualcosa che l’IA sta generando sul momento è un segnale fortissimo. Un assaggio di futuro.

Mirage 2 non crea esperienze complete e stabili, ed è giusto dirlo senza hype tossico. Però la velocità con cui questa tecnologia sta evolvendo fa impressione. In pochissimo tempo si è passati da demo statiche a mondi reattivi ai prompt. Affiancato a progetti come Genie 3, il messaggio è chiarissimo: siamo all’inizio di una nuova era, in cui l’intelligenza artificiale diventa uno strumento centrale per immaginare e prototipare videogiochi. Non per sostituire gli sviluppatori, ma per spostarne il ruolo. L’AI fornisce una bozza viva, esplorabile. Il game designer diventa un regista di possibilità.

Ed è proprio nella prototipazione che questa rivoluzione mostra il suo volto più concreto. Fino a poco tempo fa servivano settimane per trasformare un concept narrativo in qualcosa di vagamente giocabile. Oggi bastano poche righe evocative, scritte quasi come un incipit di fanfiction, per ottenere in minuti un sistema che assomiglia a un gioco vero. Genie spinge questa logica all’estremo, trasformando immagini statiche in micro-esperienze interattive, come se una vignetta decidesse all’improvviso di ribellarsi alla sua bidimensionalità.

Il salto successivo riguarda gli asset. Texture, icone, interfacce, ambientazioni complete possono nascere da piattaforme generative capaci di mantenere uno stile coerente. Il vero colpo di scena non è la velocità, ma la personalizzazione. Addestrare un modello sul proprio stile equivale a insegnare a un assistente invisibile come disegnare, lasciandolo poi libero di esplorare mille variazioni. L’artista non viene messo da parte, anzi. Diventa il centro di gravità di un processo creativo amplificato.

Lo stesso discorso vale per il 3D. Paesaggi procedurali, dungeon modulari, città che reagiscono al contesto narrativo stanno diventando sempre più accessibili grazie alla GenAI. L’idea di un mondo che si genera in tempo reale durante la partita, espandendosi mentre lo esplori, non sembra più una fantasia cyberpunk. Per chi ha passato notti a costruire mappe su StarCraft, Neverwinter Nights o Minecraft, è difficile non sentire un brivido lungo la schiena.

E mentre il mondo prende forma, anche l’audio cambia pelle. Colonne sonore che si modulano in base alle scelte del giocatore, effetti sonori generati sul momento, voci sintetiche capaci di adattare tono ed emozione alla scena stanno riscrivendo il concetto di narrazione sonora. La musica smette di essere semplice accompagnamento e diventa parte attiva del racconto.

Sul lato più tecnico, l’AI si rivela un alleato potentissimo. Generazione e ottimizzazione del codice per engine come Unity o Godot, individuazione di bug nascosti, supporto alla logica di sistema. Lo sviluppatore resta il custode della visione, ma il peso meccanico si alleggerisce, liberando spazio mentale per la creatività.

Quando poi l’intelligenza artificiale entra direttamente nel gameplay, il confine tra sviluppo e gioco si assottiglia ancora di più. NPC capaci di dialogare in modo naturale, missioni che si adattano al comportamento del giocatore, storie che nascono sul momento. L’idea di un RPG in cui ogni personaggio possiede memoria, emozioni simulate e una propria agenda narrativa smette di sembrare utopia e inizia a sembrare una questione di tempo.

In questo ecosistema emergono piattaforme che puntano a democratizzare la creazione videoludica. Strumenti accessibili anche a chi non ha competenze tecniche profonde, integrati con la GenAI per generare script, animazioni e logiche di gioco in pochi minuti. La barriera tecnica si abbassa, lasciando emergere ciò che conta davvero: la visione. E proprio qui nasce anche il lato oscuro della rivoluzione. Il rischio di omologazione, di mondi senz’anima, di giochi che sembrano cloni di cloni è reale. Per evitarlo, lo sviluppatore deve diventare curatore, architetto, interprete consapevole di ciò che l’AI produce.

A questo si aggiungono le questioni etiche. Dataset, proprietà intellettuale, valore del lavoro creativo. Sono domande aperte che non possono essere ignorate. La tecnologia corre veloce, ma la responsabilità deve correre ancora più veloce.

Eppure, nonostante tutto, l’energia che si respira è quella degli inizi. Quella sensazione elettrica che avevamo quando il medium videoludico era ancora un territorio selvaggio, tutto da esplorare. La GenAI non è il nemico della creatività umana. È un amplificatore. Un moltiplicatore. Un nuovo strumento da imparare a suonare.

Il futuro dei videogiochi non sarà scritto da una macchina. Sarà scritto da persone che useranno queste tecnologie per raccontare storie degne di essere vissute. E ora la palla passa a te. In quale universo giocherai domani? Continuerai a essere solo spettatore… o sei pronto a diventare anche creatore?

Alexa+, la svolta di Amazon che evolve l’assistente “un po’ tonto” in un’IA da fantascienza…

Immaginate la scena, un classico frame da inizio avventura: vi svegliate, la casa è ancora immersa in quella penombra che ricorda i caricamenti lenti di un open world e, invece della solita risposta robotica e monocorde, venite investiti da una voce inedita. Non è la solita Alexa, quella diligente assistente che si limitava a eseguire macro elementari senza fiatare; stavolta c’è un piglio diverso, una sfumatura ironica, quasi una consapevolezza metatestuale. Se per un attimo avete avuto il sospetto di essere scivolati dentro un JRPG di ultima generazione, circondati da NPC fin troppo loquaci, tranquillizzatevi: il vostro hardware cerebrale è intatto. Quello a cui state assistendo è l’irruzione di Alexa+ nella vostra quotidianità, un aggiornamento che sembra essere stato rilasciato con la stessa aggressività narrativa di un evento scriptato che non puoi saltare.

Questa mossa di Amazon è tutto fuorché timida. Alexa+, nata inizialmente come un’evoluzione opzionale, ha iniziato a spawnare automaticamente su ogni device dell’ecosistema, dai classici Echo ai Fire TV, passando per gli Echo Show. Per gli utenti Prime, l’update si è palesato come una patch obbligatoria: silenziosa, inevitabile e decisamente invasiva. Per anni abbiamo convissuto con una coinquilina digitale gentile ma limitata, una sorta di bot addetto esclusivamente all’illuminazione e alla riproduzione di playlist, castrata da un design che la costringeva a rispondere solo a input da telecomando nonostante un potenziale di calcolo vastissimo. Oggi, quella barriera sembra essere caduta, dando il via a una nuova era che somiglia terribilmente a un reboot cinematografico di una saga che credevamo di conoscere a memoria.

Il progetto Alexa+ è stato presentato circa un anno fa come una dichiarazione di guerra aperta nel settore delle intelligenze artificiali domestiche. Amazon, con oltre mezzo miliardo di dispositivi già piazzati nelle case di tutto il mondo, non ha cercato di nascondere il proprio obiettivo: recuperare il gap tecnologico rispetto a colossi come Google Assistant e Siri. Tuttavia, la competizione non si gioca più solo sul terreno delle feature tecniche, ma su quello, molto più scivoloso, della personalità. A guidare questa nuova fase è Panos Panay, che agisce come un vero e proprio showrunner di una serie TV ad alto budget, promettendo un’IA capace di parlare come un essere umano reale, di comprendere il contesto e, soprattutto, di anticipare i nostri bisogni senza costringerci a formulare query che sembrano scritte in un linguaggio di programmazione semplificato.

L’idea alla base è pura fantascienza nerd: non dovremo più dire “Alexa, imposta un timer”, ma avremo a che fare con un’entità che si inserisce nel flusso della nostra giornata. Immaginate di star preparando una maratona di Stranger Things e di sentire la vostra IA che, intuendo l’atmosfera, vi suggerisce di ordinare pizza e birra prima ancora che il pensiero si materializzi nella vostra mente. È un concetto affascinante, ma la realtà attuale ha ancora il sapore aspro di una versione beta non ancora ottimizzata. L’integrazione tra l’IA generativa e le funzioni core dell’assistente produce spesso un amalgama instabile. Le prime recensioni internazionali descrivono un’esperienza decisamente acerba, dove sveglie che si rifiutano di spegnersi e suggerimenti d’acquisto non richiesti rompono l’immersione, trasformando l’assistente in un compagno di viaggio a volte troppo sicuro di sé ma tecnicamente fallibile.

Questo divario tra l’ambizione del trailer e la resa effettiva del gameplay quotidiano è evidente. Alexa+ sembra un sistema ibrido che soffre di una crisi d’identità: alterna momenti di brillantezza conversazionale degni di una sceneggiatura di serie A a inciampi grossolani che la vecchia versione, pur nella sua rigidità, non avrebbe mai commesso. La community nerd, storicamente attenta e critica verso i cambiamenti imposti dall’alto, ha reagito con una resistenza non indifferente. Molti utenti hanno trovato la nuova voce eccessivamente “Gen Z”, troppo ammiccante e giovane, percependo un aumento sospetto di contenuti promozionali camuffati da consigli amichevoli. Anche la nuova modalità chat sugli Echo Show ha diviso il pubblico, lasciando rimpiangere a molti la vecchia interazione rapida e quasi invisibile.

Fortunatamente per chi predilige la stabilità al progresso a ogni costo, Amazon ha previsto una sorta di “rollback” elegante, una via di fuga che permette di evitare la boss fight contro la modernità. Con un semplice comando vocale è possibile disattivare le funzioni di Alexa+ e tornare a un’esperienza classica, mantenendo solo alcuni miglioramenti invisibili sotto la scocca. È persino possibile cambiare il tono della voce, abbandonando quella troppo energica per tornare a timbri più familiari e rilassati, come le storiche opzioni “Feminine 2” o “Relaxed”, ideali per chi vede nell’assistente uno strumento di domotica e non un partner con cui scambiare opinioni sul senso della vita.

Nonostante le critiche, è nella gestione della smart home che Alexa+ mostra i suoi power-up più interessanti. Il potenziale per una regia invisibile della casa è enorme: luci che si adattano autonomamente al momento della giornata, temperature regolate sulla base delle nostre abitudini implicite e un’integrazione sempre più profonda con brand esterni. Anche sul fronte dell’intrattenimento, l’assistente cerca di evolversi da semplice player a commentatore, provando a dialogare sui contenuti che stiamo consumando, anche se per ora sembra ancora un attore non protagonista che sta cercando di capire come stare sul palco senza rubare la scena nel modo sbagliato.

Ovviamente, dietro questo aggiornamento si nasconde una strategia commerciale che punta a trasformare Alexa in una piattaforma capace di generare entrate ricorrenti tramite modelli di abbonamento e funzioni premium. Questo sposta inevitabilmente il focus su temi caldi come la privacy e l’affidabilità delle informazioni. Un’intelligenza artificiale così sicura di sé rischia di presentare allucinazioni digitali con la stessa fermezza di un cantastorie galattico che confonde i fatti con il mito. In definitiva, Alexa+ non è ancora la versione definitiva di se stessa, ma l’inizio di un nuovo arco narrativo. È un episodio pilota ricco di promesse che dovrà dimostrare di saper maturare senza diventare un bloatware domestico. Per ora, la scelta resta a noi: tuffarci nell’adrenalina di questa beta o attendere la patch definitiva restando al sicuro nella nostra zona di comfort tecnologico.

Sarei curioso di sapere se avete già iniziato la vostra prima run con questo nuovo sistema o se preferite restare fedeli alla versione “vanilla” del vostro assistente. Fatemi sapere se Alexa+ ha già provato a spoilerarvi la cena o se è diventata la vostra nuova compagna di avventure digitali.

TikTok evita il ban negli USA: accordo storico, dati sotto controllo e nuova era “Made in America”

Ore prima che una giuria popolare venisse selezionata alla Corte Superiore di Los Angeles, la trama ha improvvisamente cambiato direzione. Niente aula gremita, niente telecamere puntate, niente arringhe destinate a diventare meme. TikTok ha scelto la via del patteggiamento, chiudendo la partita fuori scena e spegnendo sul nascere quello che molti osservatori consideravano il primo vero “processo pilota” capace di riscrivere le regole dell’intero ecosistema social. Una mossa da speedrun legale, studiata per evitare che certe domande venissero fatte ad alta voce davanti a un giudice.

Le accuse, però, restano lì come un debuff permanente che nessuna patch può cancellare del tutto. La causa, intentata da una giovane identificata come K.G.M., metteva nel mirino il design stesso della piattaforma, descritta come un sistema costruito per agganciare, trattenere, spingere oltre il limite. Algoritmi pensati per creare dipendenza, funzioni calibrate per mantenere l’utente incollato allo schermo, con effetti collaterali pesantissimi soprattutto sugli adolescenti: depressione, isolamento, pensieri suicidi. Non una semplice critica morale, ma un’accusa strutturata che provava a collegare direttamente scelte di design e danni psicologici.

Chi sperava in un epilogo rapido, però, dovrà rassegnarsi. TikTok esce di scena, ma il processo continua contro altri boss del livello finale. Meta, con le sue incarnazioni Instagram e Facebook, e YouTube di Google restano sul banco degli imputati, chiamate a difendersi dall’idea che i loro prodotti possano essere intrinsecamente nocivi per la salute mentale dei minori. Anche Snap Inc., casa madre di Snapchat, ha già scelto la via dell’accordo privato, lasciando il campo a un confronto che si preannuncia lungo e simbolicamente potentissimo.

Il paragone che circola nei corridoi legali americani è di quelli che fanno tremare i polsi: Big Tobacco. Come negli anni Novanta le industrie del tabacco furono chiamate a rispondere dei danni causati da prodotti progettati per creare dipendenza, oggi le Big Tech rischiano di dover affrontare una domanda simile, declinata in chiave algoritmica. La questione non è più solo se un social faccia male, ma se chi lo costruisce possa essere ritenuto legalmente responsabile per l’impatto psicologico delle sue scelte tecnologiche.

I dettagli economici del patteggiamento di TikTok restano coperti dal classico velo di segretezza, ma il tempismo non è casuale. A gennaio 2026, mentre l’attenzione mediatica era concentrata su altri fronti, Stati Uniti e Cina hanno premuto una pausa tattica sul possibile game over della piattaforma. Altro che ban definitivo. TikTok è rimasto online grazie a una nuova architettura societaria dal sapore decisamente nerd: la TikTok USDS Joint Venture LLC, una sorta di fork ufficiale pensato per rassicurare Washington su sicurezza e dati sensibili.

La build è complessa e sembra uscita da un manuale di diplomazia multiplayer. Il controllo operativo passa in mani americane, mentre ByteDance resta nel party con una quota del 19,9%, sufficiente per influenzare la partita senza impugnare il joystick principale. Al tavolo siedono investitori statunitensi di peso e soprattutto Oracle, che assume il ruolo di NPC chiave: custode dei server, garante dei dati, intermediario silenzioso tra governo, piattaforma e mercato pubblicitario.

La narrativa ufficiale parla di privacy e sicurezza nazionale, ma chi segue queste vicende con un minimo di spirito critico sa che c’è una side quest meno dichiarata. Controllo economico, potere strategico, accesso a dati ultra-granulari che valgono più di qualsiasi vibranio digitale. Il ban temporaneo dagli store Apple e Google nel 2025 non era un bug, ma una mossa da scacchi ben calcolata: o ByteDance cedeva parte del controllo, o TikTok veniva espulso dal meta statunitense.

Per gli utenti americani, però, l’esperienza resta sorprendentemente identica. Stesso feed, stesso algoritmo, stesso loop infinito di video che si susseguono alle due di notte. Toccare TikTok sarebbe come nerfare il personaggio più overpowered del roster social, e l’industria segue una regola non scritta ma ferrea: se qualcosa funziona, non si rompe. Il vero cambiamento avviene dietro le quinte, nei data center, dove i dati degli utenti USA passano sotto l’ombrello Oracle. Su Reddit già circolano voci di tracking più aggressivo, con informazioni sensibili che potrebbero diventare moneta di scambio privilegiata per partner pubblicitari sempre più affamati.

L’Europa, per ora, gioca su un server diverso. Qui TikTok resta sotto ByteDance e sotto le regole dell’Unione Europea, almeno sulla carta più rigide. Stessa app, leggi diverse, mondi paralleli che convivono nello stesso ecosistema globale. Una situazione quasi unica, che rende evidente quanto la geopolitica abbia ormai invaso anche lo scrolling quotidiano.

Alla fine, questa storia va ben oltre un singolo social network. Nel boss fight eterno tra Stati Uniti e Cina, la morale sembra spesso una semplice skin estetica. Il vero gioco è il potere, declinato in dati, algoritmi e controllo dell’attenzione collettiva. E mentre TikTok evita il processo e il feed continua a scorrere, resta una domanda sospesa come un cliffhanger di metà stagione: l’Europa continuerà a guardare la partita dalla tribuna o sarà costretta, prima o poi, a scegliere da che parte stare?

La discussione è apertissima, e come sempre succede quando tecnologia, cultura pop e politica si incontrano, il prossimo colpo di scena potrebbe arrivare quando meno ce lo aspettiamo. Tu da che parte ti senti? Scrollatore consapevole o spettatore di un gioco molto più grande di noi?

Dipendenza dai social: quando il feed smette di essere un gioco

Succede spesso senza che ce ne accorgiamo. Il gesto è minuscolo, quasi elegante nella sua ripetitività: pollice che scorre, schermo che si aggiorna, un’altra immagine, un altro video, un’altra reazione chimica nel cervello. Non è nemmeno più noia, è qualcosa di più sottile. Una sospensione. Come se il tempo avesse smesso di fare il suo mestiere e si fosse messo a guardare con noi.

Chi è cresciuto tra joystick consumati, pomeriggi davanti al CRT e notti a livellare personaggi sa riconoscere certi meccanismi a pelle. Il loop perfetto, quello che ti dice “ancora uno” anche quando il corpo chiede tregua. La differenza è che una volta il gioco era confinato in uno spazio preciso, aveva un inizio e una fine. Oggi no. Oggi il campo di battaglia è sempre acceso, in tasca, sul comodino, accanto al piatto mentre mangi, sul divano mentre parli con qualcuno che ami.

Negli ultimi anni la sensazione diffusa è diventata più scomoda, più difficile da ignorare. Non riguarda solo l’abuso o l’eccesso, parole ormai logore. Riguarda la progettazione stessa di certi ambienti digitali. Il modo in cui sono costruiti, rifiniti, testati. Non per renderci felici, ma per tenerci lì. Un po’ come quei dungeon studiati per farti perdere l’orientamento: bellissimi, pieni di loot, ma senza una vera uscita.

Negli Stati Uniti questa sensazione è arrivata fino a una stanza molto concreta, con sedie scomode e giudici in carne e ossa. Un’aula di tribunale di Los Angeles dove, per la prima volta, non si discute solo di contenuti o moderazione, ma di design. Di scelte precise. Di scroll infiniti che non finiscono mai, di video che partono da soli come se sapessero già cosa vuoi prima ancora che tu lo sappia. Di algoritmi che imparano a conoscerti meglio di quanto tu conosca te stesso nei giorni peggiori.

Chi ha passato anni a studiare game design sente un brivido familiare. Quelle dinamiche hanno nomi precisi. Rinforzo variabile. Anticipazione. Ricompensa intermittente. Non sono magie nere, sono manuali. Funzionano perché siamo umani, non perché siamo deboli. E quando quelle stesse logiche vengono riversate in spazi frequentati da adolescenti ancora in costruzione, l’effetto collaterale smette di essere teorico.

A un certo punto il discorso si sposta sui volti. Sulle facce filtrate, levigate, riscritte. Versioni “patchate” di noi stessi che iniziano a sembrare più reali dello specchio. Qui il parallelo nerd diventa inquietante: non più avatar dichiarati, ma skin indossate nella vita quotidiana. Il problema non è il filtro in sé, è l’idea che quello sia lo standard di partenza. Che la versione base sia difettosa, da correggere. Per chi cresce guardandosi attraverso una lente del genere, l’autostima diventa un campo minato.

Dentro questa storia non ci sono solo colossi tecnologici e avvocati agguerriti. Ci sono nomi che non fanno notizia, iniziali che proteggono identità fragili. Ragazze e ragazzi che raccontano di essersi persi nel confronto costante, di aver smesso di riconoscersi, di aver confuso l’attenzione con il valore personale. Alcune aziende hanno preferito uscire di scena in silenzio, accordi extragiudiziali, sipario calato. Altre hanno scelto lo scontro diretto, la modalità difficile, quella in cui potresti dover spiegare sotto giuramento come e perché certi sistemi sono stati pensati così.

Il parallelo con le grandi battaglie legali del passato aleggia nell’aria. Tabacco, negazioni, documenti interni, frasi del tipo “non c’erano prove sufficienti”. La storia ama ripetersi, solo con interfacce più pulite. Allora il danno passava dai polmoni, oggi dalla percezione di sé. Meno visibile, più subdolo, infinitamente più difficile da quantificare.

Intanto altre città hanno iniziato a muoversi, a dire che no, non è solo una questione privata. Se un’intera generazione mostra segnali di disagio, se i pronto soccorso vedono aumentare certi accessi, se la scuola diventa un campo di confronto impossibile, allora il problema è sistemico. Non si tratta di demonizzare uno strumento, ma di chiedersi chi tiene in mano il manuale delle regole.

La difesa, prevedibile, parla di libertà d’uso, di responsabilità individuale, di mancanza di consenso scientifico definitivo. Argomentazioni che suonano familiari a chiunque abbia seguito almeno una saga giudiziaria nella vita. Eppure qualcosa scricchiola. Perché nel frattempo gli stessi CEO ammettono che si poteva fare di più, che forse alcune esperienze non erano adatte a tutte le età, che la sicurezza è una priorità. Scuse pubbliche che sembrano dialoghi di fine atto, quando il danno è già stato fatto e il pubblico ha smesso di applaudire.

Il punto più scomodo arriva sempre dopo, quando si spengono i riflettori. La domanda che resta sospesa non è se i social siano il male assoluto. Chiunque abbia costruito relazioni, scoperto passioni, trovato comunità online sa che sarebbe una bugia. La domanda vera riguarda il confine. Chi decide quanto è troppo. Chi stabilisce quando l’intrattenimento diventa drenaggio emotivo. Quando il gioco smette di essere gioco.

Perché la dipendenza non nasce nel vuoto. Si annida dove mancano alternative, dove la realtà fa paura o annoia, dove sentirsi visti diventa una necessità primaria. Le piattaforme lo sanno. Lo studiano. Lo ottimizzano. E qui la linea tra sfruttare una vulnerabilità e offrire un servizio diventa sottilissima.

Ogni tanto mi sorprendo a pensare a come sarebbe una versione diversa di questi mondi. Un design che incoraggia la pausa invece dell’ossessione. Che non ti punisce se esci, che non ti fa sentire invisibile se smetti di postare. Forse è utopia, forse è solo una patch che nessuno ha ancora avuto il coraggio di rilasciare.

La sensazione è che siamo a un bivio narrativo. Non la fine di un’era, ma l’inizio di una riscrittura forzata. Come quando un gioco live service cambia improvvisamente meta e ti costringe a rivedere tutto quello che credevi di sapere. Alcuni reagiranno con rabbia, altri con entusiasmo. In mezzo, una community enorme che chiede solo di non essere trattata come una risorsa da spremere fino all’ultimo drop.

Resta da capire chi avrà il controller in mano nel prossimo capitolo. E se, per una volta, qualcuno deciderà di premere pausa prima che sia troppo tardi.

Prompt: l’arte geek di evocare l’intelligenza artificiale

L’odore della carta stampata non c’è più. Al suo posto resta una sensazione diversa, più sottile, quasi elettrica. È quella che provi quando smetti di pensare all’intelligenza artificiale come a uno strumento da interrogare e inizi a percepirla come qualcosa che ti cammina accanto. Non davanti, non dietro. Di lato. Presente. È qui che il discorso sul prompting inizia a incrinarsi, a perdere i bordi netti che per anni lo hanno reso rassicurante, quasi addomesticabile.

Perché il prompting, quello che abbiamo imparato ad amare come una lingua segreta da iniziati, nasce da un’illusione molto umana: l’idea che basti formulare bene una domanda per governare una macchina. Un po’ come credere che conoscere la formula giusta ti renda automaticamente uno stregone degno di Kamar-Taj. All’inizio funzionava così. Scrivevi. Aspettavi. Correggevi. Ritentavi. Ogni prompt era un colpo di lima su un meccanismo ancora rigido, ogni risposta una prova di sintonia. C’era una soddisfazione quasi artigianale in quel processo, la stessa che provi quando finalmente incastri un pezzo ostinato di LEGO dopo dieci tentativi sbagliati.

Poi qualcosa ha iniziato a cambiare, senza fare troppo rumore. Non un’esplosione, piuttosto uno slittamento. Il prompting ha smesso di sembrare una tecnica e ha iniziato a somigliare a una fase della crescita. Come quando ti rendi conto che non stai più imparando a usare un controller, ma stai giocando senza pensarci. Le dita vanno da sole, il corpo anticipa l’azione. L’interfaccia scompare.

E lì arriva la vertigine. Perché se l’interfaccia non c’è più, che fine fa il prompt?

Per anni ci siamo raccontati che l’abilità decisiva fosse saper “parlare bene” all’IA. Scegliere il tono giusto, dare contesto, impostare vincoli, anticipare errori. Una danza di precisione che ricordava certi dialoghi nei giochi di ruolo, quando ogni opzione sbagliata poteva portarti a un finale disastroso. Ma ora l’IA non aspetta più pazientemente la nostra battuta. Ascolta. Interpreta. Interviene. A volte perfino prima che tu abbia finito di pensare la frase.

È qui che il prompting comincia a tramontare, non perché diventi inutile, ma perché smette di essere il centro della scena. Come il latino dopo il Medioevo: resta fondamentale, ma non è più la lingua della vita quotidiana. La vera partita si sposta altrove, su un terreno molto più scomodo e affascinante: la presenza.

Presenza significa avere un’intelligenza artificiale che non vive in una chat, ma nel flusso della giornata. Che non aspetta un comando testuale, ma reagisce a un contesto. Che non ti chiede di fermarti a formulare una richiesta, perché è già lì mentre parli, cammini, decidi. È un passaggio che fa un po’ paura, inutile negarlo. Perché ci costringe ad ammettere che il vero collo di bottiglia non è mai stato il prompt, ma il tempo che impieghiamo a tradurre il pensiero in istruzione.

La scrittura, con tutta la sua bellezza, è lenta. Lineare. Ti obbliga a mettere in fila ciò che nella testa nasce spesso in modo caotico, contraddittorio, laterale. La voce invece è sporca, imperfetta, piena di ripensamenti. Ed è proprio lì che l’IA diventa interessante, quando riesce a stare dentro quel disordine senza chiederti di ripulirlo prima. Quando accetta che tu possa dire una cosa, negarla trenta secondi dopo, tornare indietro, cambiare prospettiva. Un’IA che non pretende coerenza immediata, ma la costruisce insieme a te.

In quel momento il prompting classico sembra quasi un residuo archeologico. Non perché sia sbagliato, ma perché appartiene a un’epoca in cui la relazione era asincrona. Domanda e risposta. Input e output. Oggi la relazione diventa continua, quasi dialogica nel senso più letterale del termine. Non stai più “chiedendo” qualcosa all’IA. Stai pensando con lei.

Ed è qui che la questione si fa davvero nerd, nel modo migliore possibile. Perché quando il costo di generare analisi, testi, ipotesi scende quasi a zero, ciò che conta non è più la velocità con cui produci, ma la qualità del giudizio con cui scegli. Non è più una gara a chi scrive il prompt più furbo, ma a chi sa riconoscere il momento giusto per fidarsi, quello in cui fermarsi, quello in cui dire no.

Il rischio non è la sostituzione dell’umano, ma l’anestesia. Delegare tutto perché è comodo. Lasciare che la macchina decida anche quando non dovrebbe. In questo scenario, la vera competenza non è tecnica, è etica, narrativa, culturale. Saper dare un senso a ciò che accade. Tenere insieme pezzi che non hanno precedenti storici, che nessun dataset può davvero anticipare.

Il prompting, allora, non muore. Si ritira in una zona più profonda, quasi invisibile. Diventa una sensibilità, non una formula. Un modo di stare nel dialogo, più che un insieme di istruzioni. Come succede con le buone storie: a un certo punto smetti di analizzarne la struttura e inizi semplicemente ad ascoltarle, a sentirle risuonare.

Forse è questo il vero passaggio che ci aspetta. Non imparare nuovi trucchi per parlare alle macchine, ma imparare a riconoscere chi siamo mentre lo facciamo. Accettare che l’intelligenza artificiale non sia più solo un oggetto tecnologico, ma un elemento dell’ambiente, come la luce, il rumore, le persone intorno a noi.

E a quel punto la domanda non è più “come scrivo il prompt giusto?”, ma qualcosa di molto più inquietante e stimolante insieme. Che tipo di presenza voglio essere, io, in questo dialogo che non si spegne mai?

Il Patentino delle Competenze Digitali: educare i ragazzi a capire davvero il mondo online

Scivola tutto troppo veloce sotto il pollice. Un gesto minimo, quasi automatico, che per molti ragazzi di undici o dodici anni è già diventato una seconda lingua. Scrollare prima ancora di leggere, condividere prima ancora di capire, reagire prima ancora di pensare. Ogni tanto mi chiedo quando abbiamo deciso che questa rapidità fosse sinonimo di competenza. Perché la verità, quella che emerge parlando con insegnanti, genitori e con gli stessi ragazzi, è molto meno rassicurante: saper usare uno schermo non significa saper abitare il digitale.

Da nerd cresciuta tra modem rumorosi, forum infiniti e guide stampate, questa cosa mi colpisce sempre allo stomaco. Avevamo meno strumenti, meno connessione, ma forse più tempo per capire cosa stessimo facendo. O almeno per sbagliare con una certa consapevolezza. Oggi no. Oggi la tecnologia arriva prima della coscienza. Ed è proprio in questo spazio vuoto che prende forma il Patentino delle Competenze Digitali, una parola che sembra burocratica e invece nasconde qualcosa di sorprendentemente concreto.

Il progetto nasce dentro NeoConnessi, l’iniziativa educativa di Wind Tre che da anni lavora con le scuole. Non parliamo di un corso da seguire passivamente, né di una lezione frontale da dimenticare appena suona la campanella. Qui il digitale viene affrontato come un ambiente da esplorare, con regole, rischi, possibilità e responsabilità. Un po’ come entrare in un open world senza mappa: puoi divertirti, certo, ma se non capisci come funziona rischi di perderti o di farti male.

L’idea del “patentino” ha qualcosa di familiare. Non è un caso. Come per la guida, nessuno penserebbe di affidare un volante senza spiegare prima cosa significhi usarlo. Eppure con smartphone, social e intelligenza artificiale lo facciamo ogni giorno. Ragazzi e ragazze si muovono in un ecosistema governato da algoritmi opachi, raccolta dati, dinamiche di visibilità e pressione sociale, spesso senza gli strumenti minimi per decifrarlo. Sanno creare contenuti, sì. Sanno riconoscere un’informazione attendibile? Molto meno.

Il percorso del Patentino delle Competenze Digitali prova a colmare proprio questo scarto. Lo fa parlando di sicurezza, identità online, comunicazione, gestione dei dati, ma anche di quelle zone grigie che di solito restano fuori dall’orario scolastico: il peso delle parole scritte in chat, la differenza tra privacy e segreto, il confine sottile tra gioco e abuso. Non arriva dall’alto, non predica. Ti mette alla prova, ti chiede di scegliere, ti costringe a ragionare. E alla fine restituisce qualcosa di raro: la percezione di aver capito un po’ meglio dove ci si trova.

A rendere il progetto solido non è solo la piattaforma, ma il contesto che lo sostiene. Dietro c’è un lavoro condiviso con realtà come la Polizia di Stato, la Società Italiana di Pediatria e il Consiglio Nazionale dell’Ordine degli Psicologi. Tradotto: sicurezza, benessere, sviluppo emotivo e cognitivo non sono parole buttate lì per fare impressione, ma punti di vista che dialogano tra loro. E questa cosa, nel mare di iniziative improvvisate che circolano sul tema, fa una differenza enorme.

C’è un altro aspetto che mi convince, forse il più importante. Il Patentino non guarda solo ai ragazzi. Chiama in causa anche gli adulti, insegnanti e famiglie comprese. Perché il problema non sono solo i dodicenni su TikTok, ma il vuoto di accompagnamento che spesso li circonda. Genitori che impongono regole senza capire davvero cosa stiano regolando. Docenti lasciati soli ad aggiornarsi su strumenti che cambiano più in fretta dei programmi ministeriali. Qui, invece, il digitale diventa un percorso condiviso, continuo, che cresce insieme agli studenti.

Dal 2024 l’iniziativa coinvolge anche le scuole medie, creando una sorta di filo narrativo che accompagna bambini e preadolescenti fino ai tredici anni. Un’idea semplice e potentissima: non trattare la competenza digitale come un episodio isolato, ma come qualcosa che evolve insieme alla persona. Proprio come succede nella vita reale, fuori dallo schermo. La partecipazione è completamente gratuita. I docenti interessati possono iscrivere la propria scuola su scuola.net o richiedere maggiori dettagli scrivendo a neoconnessi@scuola.net.
Tutte le informazioni e le modalità di adesione sono disponibili su: neoconnessi.windtre.it/.

Da appassionata di cultura pop, non posso evitare un parallelo. Nei manga, nei giochi di ruolo, nelle grandi saghe sci-fi, il vero potere non è mai solo l’arma o l’abilità speciale. È la consapevolezza. Sapere quando usarla, perché, e soprattutto quando fermarsi. Il digitale funziona allo stesso modo. Senza questa consapevolezza, anche lo strumento più affascinante diventa una trappola.

Forse è per questo che iniziative come il Patentino delle Competenze Digitali mi sembrano meno “istituzionali” di quanto appaiano sulla carta. Assomigliano più a una quest di quelle importanti, quelle che non puoi saltare se vuoi davvero capire il mondo di gioco. E la sensazione è che siamo solo all’inizio.

La domanda, a questo punto, non riguarda i ragazzi. Riguarda noi. Siamo pronti ad accompagnarli davvero, o continueremo a stupirci del fatto che sappiano usare tutto senza capire niente? La risposta, come spesso accade, non è scritta da nessuna parte. Sta nelle scelte quotidiane. E forse anche in quelle che, finalmente, decidiamo di non scrollare via.

E-commerce in Italia 2025: perché il benessere conta più della tecnologia

Scorrere i dati dell’ultimo anno di e-commerce italiano dà una sensazione strana, quasi controintuitiva. Non è l’euforia della corsa all’upgrade, non è l’adrenalina del “lo voglio subito”. È qualcosa di più quieto. Più adulto. Più simile a quella fase della vita in cui smetti di collezionare oggetti e inizi a scegliere cosa vale davvero la pena tenere intorno a te. Forse è per questo che, leggendo i numeri messi in fila da Trovaprezzi.it, la prima parola che viene in mente non è crescita, ma trasformazione. Il commercio online non arretra, non implode, non delude le aspettative. Cambia pelle, come fanno i personaggi più interessanti delle serie lunghe, quelli che dopo tre stagioni non sono più gli stessi ma nemmeno irriconoscibili.

La cosa che colpisce subito è lo spostamento dell’attenzione. Non più la tecnologia come feticcio assoluto, non più il telefono nuovo come status symbol stagionale. Al centro, con una determinazione che non sembra più passeggera, c’è il benessere. Integratori, vitamine, tutto quell’universo che fino a qualche anno fa sembrava confinato a momenti di emergenza o a mode da influencer del fitness, oggi occupa uno spazio stabile nel carrello digitale. Non è l’acquisto “per provare”, è l’acquisto che si ripete, che diventa routine. Come il caffè al mattino o la serie comfort che rimetti in play quando hai bisogno di sentirti a casa.

La tecnologia, invece, rallenta. Ma non nel senso apocalittico che piace tanto ai titoli allarmistici. Piuttosto sembra aver raggiunto una maturità simile a quella di certi franchise longevi: il pubblico resta fedele, ma non accetta più tutto. Gli smartphone continuano a essere cercati, certo, e un modello come Apple iPhone 16 rimane un punto fermo dell’immaginario digitale, però il ritmo è cambiato. Si aspetta di più, si valuta meglio, si salta un giro senza sentirsi in colpa. È un rapporto meno compulsivo, più ragionato. Un po’ come quando smetti di fare binge watching e inizi a centellinare gli episodi perché vuoi davvero goderteli.

Anche la casa racconta questa nuova attitudine. Gli elettrodomestici non sono più l’acquisto impulsivo legato allo sconto lampo, ma una scelta ponderata, quasi progettuale. Efficienza, durata, comfort. Parole che fino a poco tempo fa sembravano appartenere a un lessico noioso, oggi diventano criteri di desiderio. È curioso notare come questa attenzione si allarghi anche a settori apparentemente lontani tra loro: dalla cura della persona ai prodotti per gli animali, passando per scarpe sportive e utensili da lavoro. Tutto parla di funzionalità, di uso reale, di cose che devono servire davvero.

E poi c’è lo smartphone, non come oggetto da comprare ma come estensione della mano. La stragrande maggioranza delle ricerche passa da lì, da quello schermo che ci accompagna sul divano, in coda, a letto prima di dormire. Il desktop perde terreno, quasi come se appartenesse a un’epoca più formale, più rigida. Lo shopping online diventa un gesto quotidiano, frammentato, inserito negli spazi morti della giornata. Una pratica normale, non più un evento.

Forse il dato più affascinante, però, non ha a che fare con i prodotti ma con le persone. Le generazioni che una volta venivano raccontate come “lontane dal digitale” oggi non solo partecipano, ma superano i più giovani per volume di ricerche. Gli over 65 che navigano, confrontano, scelgono. Non per gioco, non per curiosità, ma per convinzione. È un ribaltamento silenzioso, che dice molto su come la tecnologia sia finalmente diventata strumento e non più barriera.

Anche la geografia segue questa normalizzazione. Le grandi regioni trainano, certo, ma il commercio online non è più una faccenda limitata a pochi poli. La comparazione dei prezzi, il tempo speso a valutare alternative, l’attenzione al valore reale si diffondono ovunque, come una lingua che tutti ormai parlano con accento diverso ma grammatica condivisa.

In mezzo a tutto questo, l’e-commerce italiano del 2025 assomiglia meno a una vetrina scintillante e più a un grande mercato consapevole. Non urla, non promette miracoli, non vive solo di hype. È abitato da persone che hanno imparato a chiedersi se un acquisto serve davvero, se migliora la qualità della vita, se vale il prezzo che chiede.

Ed è qui che la sensazione resta sospesa. Se il futuro dello shopping online non è più la corsa al gadget, ma la costruzione di un rapporto più onesto con ciò che compriamo, che tipo di prodotti emergeranno domani? Quali storie sapranno raccontare davvero qualcosa di noi, invece di limitarsi a riempire un carrello virtuale? La risposta, probabilmente, non arriverà tutta insieme. Ma vale la pena restare a guardare. E magari parlarne insieme.

Che fine ha fatto il Metaverso? Un sogno tecnologico fra realtà aumentata e virtuale

Il 2021 aveva il sapore delle grandi svolte narrative, quelle che nei film di fantascienza segnano il punto di non ritorno. La parola “Metaverso” iniziava a rimbalzare ovunque, dalle timeline ai keynote, e l’annuncio di Mark Zuckerberg che trasformava Facebook in Meta sembrava uscito da un reveal in stile cyberpunk. Avatar pronti a sostituire i selfie, uffici sospesi nel cielo digitale, concerti interplanetari e la promessa di un nuovo modo di stare insieme online. Per chi è cresciuto esplorando mondi virtuali, da Second Life fino alle pagine di Ready Player One, quell’idea suonava come l’evoluzione naturale di Internet, il livello successivo dopo social network e videogiochi online.

Oggi, all’inizio del 2026, la sensazione è diversa. Non di fallimento, ma di mutazione. Il Metaverso non è evaporato, ha cambiato pelle, rivelando più di quanto pensassimo sul nostro rapporto con la tecnologia, sul desiderio di immersione e su quanto siamo davvero disposti a vivere altrove.

La notizia che ha acceso il dibattito arriva come un colpo critico inaspettato. Oculus Studios, per anni considerata l’anima gaming della realtà virtuale targata Meta, è stata duramente colpita da una nuova ondata di licenziamenti. Studi storici come Twisted Pixel Games e Sanzaru Games sono stati chiusi, lasciando dietro di sé una scia di talento, creatività e progetti che avevano contribuito a dare un’identità al gaming VR. Twisted Pixel, che aveva portato su Meta Quest 3 un’esperienza attesissima come Marvel’s Deadpool VR, rappresentava quel ponte tra cultura pop e sperimentazione tecnologica. Sanzaru, con il suo passato legato a grandi remaster e con Asgard’s Wrath incluso nel lancio di Meta Quest 3, incarnava l’ambizione di costruire veri mondi epici in realtà virtuale.

Le conferme arrivate direttamente dai vertici creativi dei due studi hanno avuto il sapore amaro delle chiusure che fanno male alla community, perché dietro ai loghi ci sono persone, team, sogni condivisi. Secondo New York Times, la sforbiciata coinvolgerà circa il dieci per cento della forza lavoro di Reality Labs, la divisione che avrebbe dovuto traghettare tutti noi dentro il futuro virtuale. Le risorse, invece, vengono spostate altrove, verso intelligenza artificiale e dispositivi indossabili.

Il messaggio è chiaro e non ha bisogno di sottotitoli: la visione originale del Metaverso sta lasciando spazio a qualcosa di diverso. Il gaming VR, per quanto affascinante, non è più il perno della strategia. Per chi ama la realtà virtuale, questo significa immaginare un domani meno orientato all’immersione totale e più vicino a un’integrazione discreta nella vita quotidiana.

Eppure l’idea di Metaverso non nasce certo in una sala riunioni della Silicon Valley. Le sue radici affondano in profondità, tra filosofia e fantascienza. Il prefisso “meta”, l’andare oltre, richiama riflessioni antiche quanto Aristotele, mentre la narrativa moderna ha fatto il resto, trasformando concetti astratti in mondi da abitare. Snow Crash di Neal Stephenson, la simulazione totale di Matrix, l’OASIS di Ernest Cline hanno educato intere generazioni a immaginare una seconda realtà digitale. Quando la tecnologia ha iniziato a chiedersi cosa venisse dopo Internet, la risposta era quasi inevitabile.

Il problema non è mai stato l’immaginario, quello ha sempre funzionato. Il vero ostacolo è stato portarlo nella quotidianità senza renderlo un peso.

I segnali di rallentamento erano visibili già da tempo. Horizon Worlds ha continuato a sembrare un prototipo perpetuo, un early access infinito che promette aggiornamenti ma fatica a trovare una forma definitiva. L’hardware, come Meta Quest, resta impressionante dal punto di vista tecnico, ma l’adozione di massa non è mai arrivata. Senza un entusiasmo collettivo, anche le visioni più ambiziose iniziano a perdere carburante.

Nel frattempo, un nuovo magnete ha catturato l’attenzione della Silicon Valley: l’intelligenza artificiale generativa. Assistenti sempre più sofisticati, interfacce che imparano da noi, algoritmi capaci di dialogare, creare e suggerire. Per Meta, come per molti altri colossi, l’AI è diventata la nuova frontiera su cui puntare risorse e talenti, mentre il Metaverso ha iniziato a scivolare in secondo piano, divorato da un trend ancora più affamato.

A guardare bene, però, i limiti del Metaverso non sono stati solo tecnologici. I visori restano strumenti impegnativi, richiedono spazio, tempo, predisposizione mentale. Manca ancora quella killer application capace di rendere inevitabile l’ingresso in un mondo virtuale. E soprattutto, dopo anni complessi e iperconnessi, molte persone non sentono più il bisogno di scappare in una realtà alternativa. Senza una forte narrativa emotiva, l’esperienza resta affascinante ma distante.

Ed è qui che entra in scena la realtà estesa, la XR, in modo quasi silenzioso. Un approccio meno rumoroso, meno totalizzante, ma decisamente più concreto. Apple Vision Pro ha mostrato una direzione diversa, fatta di sovrapposizioni tra reale e digitale, come un HUD da videogioco applicato alla vita quotidiana. Non un altro mondo in cui vivere, ma un livello aggiuntivo che arricchisce quello che già esiste. Anche Meta sembra muoversi in questa direzione, puntando su smart glasses e wearable capaci di integrare assistenza AI e realtà aumentata senza chiedere un salto totale nel virtuale.

La differenza è sottile ma fondamentale. Non più evasione, ma espansione. Non più fuga, ma potenziamento del qui e ora.

Alla fine, cosa resta davvero del Metaverso? Più di quanto sembri. Le sue idee stanno filtrando in applicazioni più piccole, più discrete, ma anche più sostenibili. Riunioni ibride, manuali in realtà aumentata, mostre virtuali, esperienze creative che mescolano fisico e digitale. La promessa originale non era abbandonare la realtà, ma ampliarla. E quella promessa non è stata cancellata, è stata riforgiata.

Il futuro digitale assomiglia sempre meno a un universo alternativo e sempre più a un’estensione naturale dei nostri gesti quotidiani. Strumenti intelligenti pronti a portarci un frammento di magia quando serve, senza pretendere una dedizione totale. Il Metaverso come lo immaginavamo resterà forse un grande “what if”, un capitolo incompiuto della storia tecnologica. Ma come tutte le utopie, ha aperto strade che non si richiuderanno.

Adesso la palla passa a noi, community nerd compresa. La prossima volta che sogneremo un nuovo universo digitale, sapremo costruirlo in modo più umano, più utile e più vicino a ciò che siamo davvero? Il dialogo è aperto, come sempre, nei commenti.

Immobiliare nel Metaverso: il sogno digitale si è schiantato (e cosa resta nel 2026)

L’alba del 2026 proietta un’ombra lunga e decisamente nitida su quello che resterà negli annali come il più grande miraggio tecnologico del nostro decennio, un glitch di sistema che ha illuso migliaia di sognatori, investitori e semplici appassionati. Chi ha investito risparmi reali per accaparrarsi un fazzoletto di pixel tra il 2021 e il 2022 vive oggi una sensazione di straniamento totale, simile a quella di un giocatore di un vecchio JRPG che decide di caricare un salvataggio dopo anni per tornare nella città di partenza. La musica è spenta, i mercanti non hanno più nulla da vendere e le strade digitali sono popolate solo dal vento algoritmico, una fotografia spietata di una bolla che ha esaurito la spinta propulsiva della sua stessa hype. Durante quella strana euforia collettiva che ha caratterizzato il periodo post-pandemia, questa dimensione sembrava la naturale prosecuzione di ogni nostra fantasia geek nutrita a pane, cinema cyberpunk e romanzi di Neal Stephenson. Immaginavamo una socialità persistente fatta di avatar customizzati, mondi interconnessi dove partecipare a concerti leggendari, fiere di settore senza file chilometriche e uffici dove lavorare indossando una skin leggendaria invece di una banale camicia. Era una sorta di utopia techno-pop che mescolava la nostalgia per gli anni novanta con la promessa eterna di un domani finalmente arrivato, spingendo molti di noi a ipotizzare una seconda vita virtuale più scintillante e futuristica, sebbene incredibilmente più onerosa di quella biologica.

Il tempo ha però agito come un severo master di gioco, portando a galla una criticità strutturale che avevamo preferito ignorare mentre eravamo troppo impegnati a sognare: l’assenza totale di un ecosistema unitario. Quello che ci veniva venduto come un unico grande universo era in realtà una galassia frammentata composta da piattaforme isolate, software gelosi dei propri confini e sistemi chiusi che non mostravano alcuna intenzione di comunicare tra loro. Ogni land, ogni spazio, ogni metro quadro virtuale rispondeva a regole proprie, utilizzava valute differenti e si basava su mercati che non potevano incrociarsi, creando un multiverso privo di portali dimensionali dove ogni spostamento richiedeva un pedaggio in criptovaluta spesso proibitivo. I costi di accesso a queste terre promesse erano lievitati in modo assurdo, quasi come se qualcuno avesse inserito un codice per i soldi infiniti nel database dei prezzi. Su The Sandbox avevamo assistito a transazioni folli che avrebbero fatto impallidire i proprietari di attici a Manhattan, con record di vendita vicini ai quattro milioni di dollari, mentre su Decentraland piccoli lotti di terreno digitale venivano scambiati per cifre superiori al milione e mezzo di dollari convertiti in MANA. Questi numeri erano il sintomo di una febbre dell’oro digitale alimentata dal timore di restare a terra mentre il treno del futuro partiva a tutta velocità verso l’ignoto.

L’idea alla base dell’acquisto di una proprietà virtuale appariva lineare nella sua semplicità teorica, poiché possedere una land significava detenere il controllo di uno spazio immersivo dove poter accogliere altri utenti, allestire mostre d’arte basate su NFT o creare esperienze interattive monetizzabili. Anche le grandi multinazionali si erano lanciate nell’arena comportandosi come boss di fine livello pronti a dominare il mercato, inaugurando flagship store digitali e showroom interattivi che apparivano magnifici nei trailer promozionali ma che risultavano desolatamente vuoti all’atto pratico. Il cortocircuito non risiedeva nella qualità della tecnologia impiegata, quanto nell’effettiva utilità per l’utente finale che, una volta superato l’effetto sorpresa iniziale, non trovava ragioni valide per restare collegato. Il processo tecnico per diventare proprietari di questi spazi era una vera quest degna dei manuali di istruzioni più ostici, tra configurazioni di wallet, gestione di smart contract e transazioni su diverse blockchain. Una volta concluso l’acquisto, il certificato di proprietà rimaneva custodito come una chiave d’oro nel proprio inventario, ma con il rischio intrinseco che quella serratura potesse sparire qualora la società madre avesse deciso di spegnere definitivamente i server.

Le piattaforme si contendevano l’attenzione dei pionieri digitali seguendo filosofie diverse, con Decentraland focalizzata sulla compravendita immobiliare pura, mentre The Sandbox e Axie Infinity cercavano di integrare il possesso della terra con dinamiche tipiche del gaming. Altri attori cercavano invece di intercettare il mondo creativo o quello aziendale, proponendo spazi per uffici e negozi che tentavano di mantenere un approccio più concreto e meno speculativo rispetto alla follia generale. Il valore di queste proprietà dipendeva da fattori che scimmiottavano il mercato immobiliare tradizionale, come la vicinanza a brand famosi o la posizione all’interno di distretti ad alta densità teorica di traffico, creando una fragilità strutturale enorme mascherata da una terminologia altisonante fatta di distretti e città digitali in divenire.

La caduta di questo impero di pixel non è stata un’esplosione improvvisa, ma piuttosto un lento e inesorabile declino che ha portato le valutazioni a crollare vertiginosamente, perdendo gran parte del proprio valore rispetto ai picchi storici raggiunti anni fa. All’inizio di questo 2026, i grafici delle principali valute legate a questi mondi narrano una storia di sconfitta meglio di qualunque editoriale finanziario, evidenziando come il sogno del metaverso come nuova piazza universale si sia sgonfiato come un nemico abbattuto troppo facilmente grazie a un bilanciamento sbagliato. Al posto di quella visione vibrante è rimasto un utilizzo pragmatico, quasi asettico, dove gli ambienti virtuali sopravvivono principalmente per scopi di formazione tecnica, simulazioni industriali o progettazione architettonica avanzata. La grande attenzione mediatica e aziendale si è spostata drasticamente verso l’intelligenza artificiale e i dispositivi indossabili di nuova generazione, lasciando questi mondi in una nicchia silenziosa frequentata da pochi irriducibili. Chi detiene ancora oggi una land possiede un certificato che attesta una proprietà digitale la cui esistenza rimane legata a doppio filo alla sopravvivenza economica di chi gestisce l’infrastruttura, rendendo quell’atto notarile simile alla chiave di una dimora che non ha più una porta corrispondente nella realtà fisica.

Esistono oggi intere zone che un tempo erano considerate il centro dell’universo sociale digitale e che ora appaiono come città fantasma, simili a vecchi server di giochi online dimenticati. Luoghi iconici che avrebbero dovuto ospitare eventi mondani si sono trasformati in mappe vuote, ricalcando tristemente la traiettoria di vecchi esperimenti come Second Life, passati dall’essere la rivoluzione annunciata a rifugi per piccole comunità di nicchia. Il paragone con le bolle speculative del passato è ormai evidente a tutti: molti hanno acquistato terreni convinti di trovarsi nella nuova frontiera dello sviluppo urbano, dimenticando che una città ha bisogno di abitanti reali e servizi concreti per sopravvivere, non solo di rendering accattivanti e promesse di futuri radiosi. Il metaverso non è scomparso del tutto, ma ha subito una mutazione genetica profonda, trasformandosi da sogno collettivo in uno strumento tecnico e sperimentale privo di quel fascino glamour che lo aveva caratterizzato all’inizio. L’era dei grandi speculatori digitali si è chiusa bruscamente, lasciando a noi della community una lezione preziosa e tipicamente nerd: nessuna lore, per quanto profonda o affascinante, può tenere in piedi un mondo virtuale se manca un gameplay solido che sappia dare un senso reale al tempo che decidiamo di trascorrervi dentro.

E ora tocca a voi, amici di CorriereNerd.it, dirmi cosa ne pensate di questo scenario da post-apocalisse digitale. Siete stati tra coloro che hanno accarezzato l’idea di comprare un pezzetto di futuro o avete osservato tutto con lo scetticismo di chi ha visto troppi trailer cinematografici rivelarsi poi dei flop colossali? Vi aspetto per discuterne insieme nei commenti, perché anche nel futuro più tecnologico e complesso che possiamo immaginare, la qualità dell’esperienza e il design del mondo contano sempre molto di più di qualsiasi ondata di entusiasmo passeggero. Vi andrebbe di approfondire quali sono le tecnologie che stanno effettivamente raccogliendo l’eredità di queste visioni virtuali oggi?

ROG XREAL R1: gli occhiali AR da gaming a 240Hz che trasformano ogni luogo in un maxischermo

Schermi giganti, refresh rate fuori scala e la sensazione straniante – ma irresistibile – di giocare dentro il gioco. Il gaming indossabile smette di essere una promessa futuristica e diventa qualcosa di concreto grazie ai ROG XREAL R1, gli occhiali AR con cui ASUS Republic of Gamers sceglie di entrare a gamba tesa nel territorio della realtà aumentata pensata davvero per chi gioca. Non parliamo di un esperimento curioso o di una tech demo da fiera, ma di un prodotto che nasce con un’idea chiarissima: portare l’esperienza di un maxischermo ovunque, senza compromessi su fluidità, reattività e qualità visiva. L’annuncio, arrivato sotto i riflettori del CES 2026, segna un punto di svolta per il gaming AR. La collaborazione con XREAL, nome già noto a chi segue il settore degli occhiali aumentati, ha permesso a ROG di costruire qualcosa che parla la lingua dei giocatori competitivi e di chi vive il gaming anche in mobilità. Il dato che balza subito all’occhio è quello che fa tremare mouse e controller: 240Hz di refresh rate su pannelli micro-OLED Full HD. Una prima volta assoluta per questa categoria.

L’idea alla base dei ROG XREAL R1 è affascinante nella sua semplicità. Indossarli significa ritrovarsi davanti a uno schermo virtuale enorme, percepito come sospeso a circa quattro metri di distanza, con una diagonale che arriva fino a 171 pollici. Un numero che, detto così, sembra quasi una provocazione, ma che trova senso nel campo visivo di 57 gradi, studiato per riempire gran parte dell’area visiva senza trasformare l’esperienza in qualcosa di invasivo o faticoso. Il risultato è una sensazione di immersione che ricorda certi sogni proibiti di ogni gamer cresciuto tra sale LAN e monitor sempre più grandi.

Sul fronte tecnico, ROG gioca una partita estremamente aggressiva. Il refresh rate a 240Hz, abbinato a una latenza motion-to-photon di pochi millisecondi, è un messaggio diretto a chi vive di FPS, picchiaduro e giochi dove ogni frame conta. Niente scie, niente micro-jitter, niente compromessi che spesso hanno frenato l’adozione di soluzioni AR e VR nel gaming competitivo. Qui l’obiettivo è la fluidità totale, quella che ti fa dimenticare il display e ti lascia solo con l’azione.

Il sistema di visualizzazione sfrutta nativamente i 3 gradi di libertà, permettendo di ancorare lo schermo a un punto preciso dello spazio reale oppure di tenerlo sempre centrato davanti allo sguardo. È una differenza sottile, ma fondamentale, perché cambia il modo in cui ci si muove mentre si gioca. Puoi immaginare lo schermo come un televisore invisibile appeso al muro di casa, oppure come un HUD personale che ti segue ovunque. A gestire tutto ci pensa il chip di co-processing spaziale X1, che consente anche di ridimensionare e riposizionare il display con un semplice comando.

Uno degli aspetti più interessanti dell’ecosistema ROG XREAL R1 è la compatibilità. Grazie al ROG Control Dock, incluso, il passaggio da PC a console diventa immediato. DisplayPort 1.4 e doppio HDMI 2.0 permettono di collegare praticamente qualsiasi sorgente moderna, con la possibilità di cambiare input senza dover smanettare tra menu e impostazioni. Il dock diventa il ponte tra mondi diversi, desktop e console, unificati da un’unica esperienza visiva indossabile.

Chi invece vive il gaming portatile troverà pane per i propri denti collegando gli occhiali direttamente alla ROG Ally tramite un solo cavo USB-C. Plug and play reale, zero configurazioni e accesso completo ai controlli touchscreen della handheld. È qui che la filosofia ROG mostra il suo lato più intrigante: trasformare una console portatile in una postazione da gaming “da salotto”, senza salotto. Treno, divano, scrivania improvvisata diventano scenari credibili per sessioni su schermo gigante.

Il comfort non viene sacrificato sull’altare delle prestazioni. Con un peso di circa 91 grammi, i ROG XREAL R1 puntano a essere indossabili anche per sessioni prolungate. Le lenti elettrocromiche rappresentano una delle soluzioni più intelligenti del pacchetto, perché regolano automaticamente la trasparenza in base alla luce ambientale e alla direzione dello sguardo. Guardi lo schermo e le lenti si oscurano quanto basta per isolarti dall’esterno; distogli lo sguardo e tornano più trasparenti, permettendoti di restare consapevole dell’ambiente. Tre livelli di oscuramento manuale completano il quadro, rendendo l’esperienza adattabile a ogni situazione, dalla stanza buia al pieno giorno.

Sul piano audio, la collaborazione con Bose aggiunge un tassello fondamentale. Il sistema Sound by Bose è pensato per creare un palcoscenico sonoro tridimensionale, capace di restituire con precisione la provenienza dei suoni di gioco. Passi lontani, esplosioni, dettagli ambientali diventano informazioni utili, non semplice contorno. Il tutto senza costringere a indossare cuffie dedicate, un dettaglio che rafforza l’idea di un’esperienza integrata e immediata.

Dal punto di vista visivo, i numeri raccontano una storia che farà brillare gli occhi agli appassionati di display. Pannelli Sony micro-OLED da 0,55 pollici, risoluzione Full HD per occhio, luminosità di picco fino a 700 nit e una copertura cromatica che supera lo spazio sRGB. Specifiche che, tradotte in esperienza reale, significano immagini nitide, colori saturi e una resa che non sfigura nemmeno davanti a monitor di fascia alta.

I ROG XREAL R1 non sono semplicemente un nuovo gadget da aggiungere alla collezione. Rappresentano una dichiarazione d’intenti: il gaming AR può essere qualcosa di serio, performante e pensato per l’uso quotidiano. ASUS ROG prende ciò che sa fare meglio, ovvero spingere la tecnologia dei display al limite, e lo trasforma in un oggetto che cambia il modo di concepire lo schermo.

La sensazione, guardando a questo debutto, è quella di trovarsi davanti a un primo passo concreto verso un futuro dove monitor e TV non saranno più vincoli fisici, ma scelte personali, indossabili, adattabili. Il confine tra realtà e spazio di gioco diventa sempre più sottile, e forse è proprio lì che il gaming del prossimo decennio troverà la sua forma definitiva.

Ora la parola passa alla community. Riuscireste a immaginare le vostre sessioni competitive o le lunghe maratone RPG su uno schermo invisibile da 171 pollici? Il gaming AR è pronto a entrare davvero nella vita quotidiana dei giocatori o resta ancora una tecnologia di nicchia? La discussione è appena iniziata, e promette di essere appassionante quanto una boss fight all’ultimo frame.

LEGO Smart Play: la rivoluzione phygital che farà prendere vita ai mattoncini nel 2026

Cari nerd, AFOL di lungo corso e giovani padawan del mattoncino, segnatevi questo momento perché difficilmente ce ne dimenticheremo. Il 2026 non si limiterà a regalarci un nuovo prodotto sugli scaffali, ma spalancherà una porta temporale nella storia del gioco creativo. LEGO Group ha deciso di riscrivere il proprio futuro annunciando LEGO Smart Play, una visione che profuma di fantascienza applicata all’infanzia, ma con una lucidità progettuale che parla anche agli adulti cresciuti a pane e mattoncini. Per generazioni intere il LEGO è stato il primo linguaggio dell’immaginazione. Un alfabeto universale fatto di incastri, pazienza e intuizione, capace di trasformare un tappeto del salotto in un campo di battaglia galattico o in una città futuristica. Smart Play nasce proprio da questa eredità, con l’obiettivo dichiarato di non tradirla. L’idea è semplice solo in apparenza: portare tecnologia invisibile dentro il gioco fisico, senza schermi, senza app obbligatorie, senza quella sensazione di “giocattolo elettronico” che in passato ha spesso fatto storcere il naso agli appassionati più puristi.

Il fulcro di tutto è lo Smart Brick, un mattoncino 2×4 che all’esterno sembra identico a quello che conosciamo da sempre, ma che all’interno nasconde un concentrato di ingegneria da far impallidire certi gadget hi-tech. Sensori di movimento, accelerometri, rilevatori di luce, suono e orientamento, un micro-speaker con sintetizzatore integrato e un chip talmente piccolo da stare in uno spazio di pochi millimetri. La magia sta nel fatto che tutto questo non chiede al giocatore di imparare nulla: costruisci, muovi, inclini, interagisci, e il modello risponde in tempo reale con suoni, luci ed effetti coerenti con quello che sta accadendo.

È qui che LEGO Smart Play mostra la sua anima più ambiziosa. Non parliamo di effetti preregistrati che partono a comando, ma di reazioni dinamiche legate al gesto. Un’astronave che accelera davvero quando la fai decollare, una base che “si risveglia” quando una minifigure entra in scena, un ambiente che cambia atmosfera in base alla luce circostante. Tutto avviene senza uno schermo a fare da intermediario, ed è forse questo il dettaglio più rivoluzionario in un’epoca in cui siamo sommersi da display.

A rendere l’esperienza ancora più profonda arrivano le Smart Minifigures e gli Smart Tag. Le prime sono identiche alle minifigure classiche, ma dotate di un’identità digitale che ne definisce il carattere e il ruolo. Alcune sono burbere, altre eroiche, altre ancora imprevedibili, e il mattoncino intelligente le riconosce reagendo di conseguenza. Gli Smart Tag, invece, sono tessere speciali che aggiungono contesto alle costruzioni, permettendo allo stesso Smart Brick di comportarsi in modo completamente diverso a seconda dell’universo narrativo in cui si trova.

E qui la mente corre veloce, perché LEGO Smart Play nasce trasversale. Il debutto avverrà con tre set dedicati a Star Wars, con X-Wing, TIE Fighter e duelli iconici pronti a prendere vita tra le mani dei fan. Ma la promessa è quella di un ecosistema capace di espandersi ben oltre una singola licenza, arrivando a toccare mondi diversi come Pokémon o le linee originali come LEGO City. La stessa tecnologia potrà animare una spada laser, un veicolo urbano o una creatura fantastica, senza dover cambiare linguaggio di gioco.

Un altro colpo di genio risponde al nome di BrickNet, un sistema di comunicazione che permette a più Smart Brick di “parlarsi” tra loro. I mattoncini sono consapevoli della loro posizione nello spazio, sanno quanto sono distanti e in che direzione guardano, creando una rete auto-organizzante che evolve insieme alla costruzione. Un singolo mattoncino può già fare moltissimo, ma più ne aggiungi, più il modello diventa complesso, vivo, sorprendente.

E no, prima che qualcuno lo chieda nei commenti: non c’è Intelligenza Artificiale dietro tutto questo. LEGO ha scelto consapevolmente di non usare AI, preferendo sistemi reattivi avanzati ma deterministici, in modo da mantenere il controllo creativo saldamente nelle mani del giocatore. Una decisione che dice molto della filosofia alla base del progetto.

L’annuncio ufficiale è arrivato durante CES 2026, e non è un caso. Presentare Smart Play in un contesto tecnologico così prestigioso significa dichiarare apertamente che il mattoncino LEGO è pronto a sedersi allo stesso tavolo dei grandi innovatori, senza perdere la propria identità. Il lancio commerciale è fissato per il primo marzo 2026, con preordini a partire da gennaio, e tutto lascia pensare che questo sia solo il primo capitolo di una storia molto più lunga.

Certo, non mancano le domande. Il prezzo sarà inevitabilmente più alto, e l’ombra di esperimenti passati come Nexo Knights o Hidden Side aleggia ancora nella memoria dei fan. La differenza, però, è sostanziale: Smart Play non chiede di sostituire il gioco tradizionale, ma di amplificarlo. I set funzionano anche senza “attivare” la parte smart, e questa scelta potrebbe essere la chiave per conquistare sia i nostalgici sia le nuove generazioni.

In fondo, LEGO Smart Play sembra raccontare una verità semplice e potentissima: il futuro del gioco non deve per forza passare da uno schermo. Può nascere da un mattoncino, da un gesto, da un suono che risponde alla nostra immaginazione. Un ritorno al fare, al costruire, al creare, con una tecnologia che resta in punta di piedi, pronta a stupire ma mai a sovrastare.

E ora la parola passa a voi, community di CorriereNerd. Quale universo vorreste vedere prendere vita con Smart Play? Una città cyberpunk, un dungeon fantasy o un’epopea spaziale tutta costruita sul tavolo di casa? Raccontatecelo nei commenti, condividete l’articolo e prepariamoci insieme a questo nuovo capitolo della saga LEGO. Il 2026 è più vicino di quanto sembri, e profuma già di plastica, sogni e futuro.

Quali sono i 10 trend della comunicazione che ci accompagneranno nel 2026?

Gennaio 2026 ha quell’odore inconfondibile di una nuova stagione competitiva appena lanciata. Avete presente la sensazione che si prova aprendo un JRPG mastodontico? Le prime ore sembrano un tutorial rassicurante, ma tra i pixel si avverte già l’ombra della prima, vera boss fight. Quest’anno, la sfida non è scalare una classifica di follower, ma restare rilevanti in un ecosistema dove l’algoritmo non è più solo un arbitro, ma un Master senziente, e dove l’attenzione degli utenti è più frammentata di una timeline di Zelda.

Per orientarci in questa nuova “patch” della realtà, dobbiamo guardare alle coordinate tracciate da esperti come Chris Kastenholz di Pulse Advertising e ai report tecnologici di Capgemini e Kantar. Il 2026 non è l’anno dei “cambiamenti carini”, è l’anno della verità per l’Intelligenza Artificiale e per il modo in cui umani e brand interagiscono. Ecco la guida completa ai trend che stanno riscrivendo le regole del gioco, da leggere con la curiosità di chi vuole sbloccare ogni segreto del dungeon.

La caduta degli antichi imperi: Human batte Heritage

In ogni lore che si rispetti, l’antico regno spesso cade perché si culla sulla propria gloria passata. Nel 2026, il concetto di “storico” ha perso il suo buff di affidabilità automatica. La Gen Z sta mandando un messaggio chiaro: non basta essere sul mercato da cinquant’anni se non sai parlare la lingua del presente. Il 71% di questi utenti sente che i brand tradizionali non li capiscono affatto. La fiducia oggi non si eredita, si costruisce nel feed attraverso la coerenza e la vicinanza emotiva. I brand che vincono sono quelli che agiscono come persone, con una backstory credibile e una personalità che non sembra scritta da un comitato di NPC.

Creator come Media Company: il ROI non è più un glitch

Dimenticate il creator inteso come “quello che fa i video simpatici”. Nel 2026, i creator sono vere e proprie corazzate della comunicazione, con palinsesti strutturati e un patto di fedeltà con la community che i media tradizionali possono solo sognare. Nonostante i costi delle collaborazioni siano saliti alle stelle, il ritorno sull’investimento (ROI) è imbattibile perché non si basa sull’interruzione, ma sull’accompagnamento. Il creator non è un cartellone pubblicitario, è un compagno di party che consiglia l’equipaggiamento giusto. Le partnership “mordi e fuggi” sono ormai considerate contenuto di basso livello; la strategia vincente è la collaborazione a lungo termine, dove il brand entra nel lore del creator in modo organico.

La trasformazione in Host: uscire dallo schermo

C’è un plot twist interessante in questa stagione digitale: il ritorno massiccio al mondo fisico. I creator stanno effettuando un “upgrade” di classe, trasformandosi in Host. Non si limitano più a postare, ma ospitano: portano i podcast nei teatri, organizzano eventi verticali e convention tematiche. È la rivincita dell’offline che diventa strategico. In un mondo dove lo scroll è compulsivo, l’esperienza dal vivo è l’unico modo per rendere la relazione con la community davvero solida e memorabile. È il passaggio definitivo dal guardare un gameplay al sedersi al tavolo per una sessione di gioco di ruolo dal vivo.

Insegnami vs Intrattienimi: la magia dell’Edu-tainment

I social sono diventati i nuovi motori di ricerca. Nel 2026, non entriamo su una piattaforma solo per ridere, ma per “lootare” conoscenze. La domanda che l’utente rivolge al creator è: “Cosa mi resta in tasca dopo questo video?”. Chi domina la scena è chi padroneggia l’edu-tainment, ovvero la capacità di insegnare micro-competenze attraverso il divertimento. È la stessa logica degli anime didattici: impari la biologia o la storia mentre segui un’avventura epica. Se il contenuto è utile e salvabile, diventa immortale.

Real vs Perfect: la resistenza all’estetica robotica

C’è un senso di stanchezza collettiva verso la perfezione patinata, ora che l’AI può generare immagini impeccabili in pochi secondi. Il pubblico del 2026 ha sviluppato un sesto senso per l’autenticità. La perfezione non è più un valore; lo è la coerenza. Le persone cercano brand che abbiano valori chiari e che non cambino maschera a seconda del trend del momento. L’inclusività e l’integrità sono diventate metriche fondamentali: se il tuo “codice sorgente” è vuoto, nessuna grafica meravigliosa potrà salvarti dal giudizio della community.

Nel cuore del Dark Social: dove avvengono le vere quest

Gran parte della comunicazione oggi avviene nell’ombra, ma non è il Lato Oscuro dei Sith. Parliamo del Dark Social: chat private, gruppi WhatsApp, server Discord. È qui che la Gen Z condivide i contenuti davvero significativi. Le metriche pubbliche come i “like” raccontano solo mezza storia. Un contenuto può sembrare un flop sulla bacheca, ma essere una reliquia leggendaria che gira nelle chat private. Capire come entrare in questi spazi intimi senza risultare invasivi è la vera sfida per chi vuole costruire una reputazione solida.

L’era del Multiscreen: progettare per l’attenzione frammentata

L’utente del 2026 è un multitasker estremo. Guarda una serie, scrolla il feed e ascolta un podcast contemporaneamente. Questo significa che i contenuti devono essere progettati per vivere anche in sottofondo. Servono video che siano comprensibili a volume zero grazie ai sottotitoli e narrazioni che non perdano senso se l’attenzione cala per qualche secondo. In questo caos, la gamification fatta bene — con micro-sfide e interazioni intelligenti — serve a riagganciare l’utente e trasformarlo da spettatore passivo a giocatore attivo.

Serialità e Abitudine: il trionfo del palinsesto

Il contenuto virale “one-shot” è un fuoco d’artificio: bello, ma svanisce subito. Nel 2026 vince la serialità. La fedeltà si costruisce con l’appuntamento fisso: la rubrica settimanale, il podcast a puntate, la newsletter del lunedì. In un mercato affollato, non serve piacere a tutti, serve diventare il rituale quotidiano di una nicchia specifica. I dati italiani confermano una crescita esponenziale dei podcast, segno che il pubblico cerca profondità e specializzazione, non solo rumore generalista.

Everywhere vs Somewhere: la contaminazione totale

Il pubblico non è più stanziale su una singola piattaforma; è un nomade digitale che attraversa canali diversi. Guarda uno Short su YouTube, approfondisce con un video long-form, chiede consiglio a un assistente AI e infine commenta in una community chiusa. La comunicazione efficace nel 2026 è “liquida”: deve saper adattare il linguaggio a ogni contesto senza perdere l’identità originale. In questo scenario, piattaforme come YouTube tornano a essere centrali perché offrono una “casa” dove formati brevi e lunghi possono coesistere, costruendo una relazione stratificata nel tempo.

God save the AI: l’era degli agenti e della GEO

Chiudiamo con il sistema operativo di tutto il 2026: l’Intelligenza Artificiale Agentica. Non parliamo più di semplici chatbot, ma di assistenti che agiscono per conto dell’utente. Questo introduce una nuova disciplina: la Generative Engine Optimization (GEO). Non dobbiamo più ottimizzare i contenuti solo per i motori di ricerca, ma per i modelli AI che apprendono dai nostri dati. Bisogna essere citabili e verificabili dalle macchine senza però perdere l’anima. L’AI accelera la produzione, ma la capacità umana di leggere le sfumature culturali e il timing sociale resta l’unico vero vantaggio competitivo non replicabile dal codice.

In definitiva, comunicare nel 2026 significa smettere di inseguire i volumi per iniziare a progettare fiducia. La fiducia è l’algoritmo definitivo, l’unico che non può essere “hackerato” o automatizzato.

E voi, avventurieri del digitale, quale di queste “patch” sentite già attiva nella vostra quotidianità? Vi siete già accorti che le vostre discussioni più importanti si sono spostate nei server privati o siete ancora fan della grande piazza pubblica? La conversazione continua nei commenti: ditemi in che timeline state giocando.

2025: quando l’Intelligenza Artificiale è diventata canon nella realtà

Se pensavate che il 2025 sarebbe stato solo un altro capitolo nella roadmap dell’innovazione, vi sbagliavate di grosso: è stato l’anno in cui il codice della realtà ha subito un refactoring completo. Non siamo più di fronte a una tech demo entusiasmante o a un DLC opzionale della nostra esistenza; l’intelligenza artificiale è diventata ufficialmente “canon” nella lore del pianeta Terra. Lo ha sancito persino il Time, che invece di scegliere una singola icona pop ha preferito incoronare gli architetti dell’AI come persone dell’anno, trasformando quella che poteva sembrare una mossa di marketing in pura cronaca di una mutazione genetica digitale.

Il passaggio da “strumento di ricerca” a “interfaccia totale” è avvenuto con una velocità che farebbe impallidire qualsiasi speedrunner. Abbiamo smesso di digitare keyword su Google per iniziare una conversazione infinita con NPC superintelligenti, delegando la sintesi del sapere umano a chatbot che ormai gestiscono ogni nostra quest quotidiana. OpenAI e i suoi competitor hanno occupato lo spazio che i browser conquistarono negli anni Novanta, diventando il portale unico tra l’utente e il mare di dati del web.

I Numeri del Boss Finale: Crescita, Lavoro e Strategia Geopolitica

I dati non mentono e descrivono una scalata ai vertici delle classifiche globali senza precedenti. ChatGPT ha frantumato ogni record di retention e crescita, passando in appena dodici mesi dalla già impressionante cifra di 300 milioni a oltre 800 milioni di utenti attivi settimanali. Questa non è più una moda passeggera da early adopter; è un’adozione di massa che vede i più giovani utilizzare l’AI come consulente psicologico e tutor accademico, mentre nel mondo corporate l’integrazione di strumenti come Copilot ha reso l’intelligenza artificiale un collega invisibile ma onnipresente.

Tuttavia, ogni massiccio aumento di statistiche in un GDR comporta dei costi, e il bilanciamento del mercato del lavoro ne ha risentito pesantemente. Negli Stati Uniti, circa 150.000 professionisti del settore tech sono stati colpiti da un “debuff” violento, perdendo il posto in nome di quella che le aziende definiscono con freddezza “ottimizzazione tramite AI”. L’intelligenza artificiale non è più solo un software, ma un asset critico paragonabile all’energia elettrica. Nvidia è diventata il principale fornitore di “mana” del pianeta, controllando oltre il 90% del mercato delle GPU avanzate e registrando ricavi trimestrali che sfidano le leggi della fisica economica.


La Build dell’Italia e lo Scontro tra Fazioni Globali

Contro ogni previsione, anche l’Italia ha deciso di non restare in modalità AFK. In un solo anno l’adozione dell’AI nelle imprese italiane è raddoppiata, portando il mercato nazionale verso cifre che fino al 2024 sembravano appartenere a un romanzo cyberpunk. Ma per reggere il ritmo di questa nuova partita servono skill passive che ancora scarseggiano: competenze tecniche, infrastrutture solide e una visione strategica che vada oltre il semplice hype del momento.

Mentre l’Europa ha cercato di impostare le regole del server con l’entrata in vigore dell’AI Act, dall’altra parte dell’oceano la strategia è stata quella della deregulation più aggressiva. All’interno di questa arena, i grandi player si sono mossi come in un RTS di alto livello. Google ha tentato una rimonta frenetica con le nuove iterazioni di Gemini per non perdere il controllo del mercato delle ricerche, mentre Meta ha bruciato miliardi in acquisizioni per potenziare il proprio esercito di modelli. Apple, al contrario, è parsa quasi disconnessa, subendo una fuga di cervelli verso ecosistemi più dinamici. Sullo sfondo, lo scontro tra Stati Uniti e Cina ha assunto i toni di una guerra fredda digitale, culminata nel clamoroso “buff” concesso da Donald Trump a Nvidia, autorizzando la vendita di chip avanzati a Pechino, una mossa geopolitica che molti hanno paragonato alla cessione di segreti atomici durante il secolo scorso.

Slop, Deepfake e il Trade-off della User Experience

L’impatto sulla cultura pop e sulla percezione della realtà è stato altrettanto radicale. Il 2025 è stato l’anno in cui le immagini e i video generati dalle macchine hanno raggiunto il punto di singolarità estetica: i deepfake sono oggi indistinguibili dal girato reale, rendendo la verifica delle fonti una sfida di livello impossibile. La navigazione tradizionale nei motori di ricerca appare improvvisamente obsoleta; gli utenti preferiscono risposte confezionate e immediate, accettando il rischio che l’AI “allucini” o inventi di sana pianta pur di non dover cliccare su dieci link diversi. È il trionfo della UX sull’accuratezza.

Questa saturazione ha portato alla nascita di un nuovo termine, incoronato parola dell’anno dal Merriam-Webster: lo “slop”. Si tratta di quel rumore di fondo composto da contenuti AI dozzinali e senz’anima che hanno invaso social e comunicazioni ufficiali. I dati indicano che ormai la metà dei contenuti online in lingua inglese è prodotta da algoritmi, generando una stanchezza cognitiva che sta spingendo alcune piattaforme a introdurre filtri per limitare l’esposizione a questa fanghiglia digitale.


Il Futuro della Lore: Tra Alleanze Inaspettate e Promesse Mancate

Nonostante l’invasione dello slop, il mondo dell’intrattenimento ha firmato una tregua storica. Le major del cinema e le etichette discografiche, dopo anni di contenziosi, hanno iniziato a collaborare attivamente con l’AI. Persino Disney ha modificato la propria build produttiva investendo massicciamente nei video generativi, e canzoni create da algoritmi hanno scalato le classifiche globali, dimostrando che il nemico di ieri è diventato l’asset fondamentale di oggi.

Tuttavia, non tutte le promesse degli sviluppatori sono state mantenute. L’AGI, l’intelligenza artificiale generale che avrebbe dovuto cambiare le regole del gioco, è rimasta un concept trailer lontano dalla data di uscita ufficiale. Gli agenti autonomi capaci di agire nel mondo reale sono ancora in fase beta e anche figure leggendarie come Elon Musk hanno dovuto affrontare un “soft fail” nei loro progetti legati all’AI. Il 2025 non ci ha consegnato una divinità digitale, ma ci ha immersi in un’infrastruttura dove la distinzione tra umano e sintetico è diventata irrilevante.

Siamo entrati nel 2026 con una tensione narrativa altissima. La sfida non è più evocare nuove tecnologie, ma capire come governare quelle che abbiamo già evocato. Resta da vedere se, come umanità, saremo in grado di padroneggiare i nuovi comandi o se continueremo a premere tasti a caso in un mondo che ha definitivamente cambiato engine grafico.

Exit mobile version