Archivi categoria: Hi-Tech

Guido dalle Sette torna con l’AI: il radiocast di Guido Bagatta diventa un’esperienza narrativa imprevedibile

Qualcosa sta cambiando nel modo in cui ascoltiamo le storie, e non è una sensazione vaga da “ok, tecnologia avanti tutta”, ma proprio quel brivido familiare che riconosci quando un medium evolve sotto i tuoi occhi, come succedeva la prima volta che guardavi un anime in streaming invece che aspettare la replica notturna in TV, o quando hai capito che Twitch non era solo gameplay ma un nuovo linguaggio. Ecco, il ritorno di “Guido dalle Sette” da lunedì 20 aprile si muove esattamente in quella direzione strana e affascinante dove il racconto smette di essere lineare e inizia a respirare da solo, contaminato, quasi vivo.

Perché qui non si parla solo di un radiocast che torna con nuovi episodi ogni sera, ma di un esperimento che sembra uscito da una fan theory su come sarebbe un podcast scritto insieme a un’intelligenza artificiale che non si limita a suggerire, ma entra davvero nel flusso, come una presenza invisibile che ascolta, elabora e rilancia, un po’ come quei personaggi nei manga che non parlano mai davvero ma spostano comunque l’equilibrio della scena. Guido Bagatta e Dionigi Andreano restano al centro, con quella dinamica che mescola esperienza e freschezza, ma attorno a loro si muove qualcosa che rompe il ritmo classico, una terza voce silenziosa che suggerisce deviazioni, inserisce dettagli, cambia musica, apre finestre che magari nemmeno gli autori avevano previsto.

E questa cosa, se ci pensi, è tremendamente nerd. Perché è la stessa logica con cui siamo cresciuti tra lore espanse, universi condivisi e contenuti che si ramificano all’infinito. L’idea che un episodio possa partire in una direzione e poi scivolare altrove grazie a un input algoritmico ricorda certi momenti delle visual novel o dei giochi narrativi dove ogni scelta apre mondi diversi, solo che qui non sei tu a cliccare, ma è l’AI che osserva e interviene. Non è più solo intrattenimento, è quasi una simulazione di racconto.

Il formato stesso di “Guido dalle Sette” continua a giocare su quel confine strano tra radio e digitale che ormai è diventato il nostro habitat naturale. Registrato negli studi dell’Hotel Admiral di Milano, ma pensato per vivere ovunque, tra YouTube, Spotify e tutte le piattaforme dove ormai consumiamo contenuti mentre facciamo altro, mentre scrolliamo, mentre magari stiamo grindando su un gioco o montando un cosplay all’ultimo minuto. E poi quella fascia oraria, le 19:00, che è praticamente il momento in cui il cervello passa dalla modalità “giornata reale” a “ok, adesso ho bisogno di storie”.

La parte che mi ha fatto davvero fermare a pensarci però è la musica, perché non è solo accompagnamento, ma parte attiva del racconto, scelta anche grazie all’intelligenza artificiale, senza limiti di genere o epoca, come una playlist che si costruisce mentre la vivi, e qui si apre un mondo enorme, perché chiunque abbia passato notti a creare playlist tematiche sa quanto il suono possa cambiare completamente il senso di una narrazione. Immagina una puntata che cambia tono perché l’AI decide di virare su un brano inatteso, magari qualcosa che non avresti mai collegato a quel momento, e improvvisamente tutto prende una piega diversa.

E allora viene spontaneo collegarlo a tutto quello che sta succedendo adesso tra AI e creatività, tra scrittura assistita, doppiaggi sintetici, VTuber e contenuti generati in tempo reale. “Guido dalle Sette” sembra inserirsi proprio lì, in quella zona grigia dove non capisci più dove finisce l’autore e dove inizia la macchina, e forse è proprio questo il punto più interessante, perché non si tratta di sostituire, ma di espandere, di creare qualcosa che da soli non sarebbe possibile. Un po’ come quando nei JRPG hai il party completo e ogni personaggio aggiunge una skill che cambia la strategia.

Chi segue da tempo il progetto sa che non è mai stato un programma statico, ma questa evoluzione lo trasforma in qualcosa di più vicino a un organismo narrativo che a un semplice podcast, qualcosa che può sorprendere anche chi lo crea. E per noi che siamo cresciuti a pane, anime e tecnologia, questa roba ha un sapore familiare, come se fosse il passo successivo naturale dopo anni passati a immaginare intelligenze artificiali dentro le storie… e ora quelle intelligenze iniziano a scriverle con noi.

Tutte le puntate arrivano ogni sera sulle principali piattaforme, pronte da recuperare anche in formato vodcast per chi preferisce guardare oltre che ascoltare, ma la sensazione è che il vero viaggio sia quello che succede dentro ogni episodio, in tempo reale, mentre tutto può cambiare direzione senza preavviso.

E a questo punto la domanda viene fuori quasi da sola, come succede sempre quando qualcosa rompe uno schema: fino a che punto vogliamo lasciare spazio all’AI nelle storie che amiamo? E soprattutto… quanto siamo pronti a lasciarci sorprendere davvero?

Perché qui non si tratta solo di ascoltare un programma, ma di assistere a una trasformazione che riguarda tutti noi che viviamo tra cultura pop, tecnologia e immaginazione, lo stesso spirito che da sempre anima realtà come , dove raccontare il mondo nerd significa anche osservare come evolve mentre lo stai vivendo… e forse la conversazione su dove ci porterà tutto questo è appena iniziata.

Bybit Card supera 3 milioni di utenti: la rivoluzione crypto che entra nella vita quotidiana

Scorri il feed, controlli una notifica, apri un wallet, magari passi da una storia su Instagram a una schermata di trading senza nemmeno accorgertene, e in mezzo a tutto questo gesto quasi automatico c’è una trasformazione silenziosa che sta riscrivendo il modo in cui pensiamo il denaro, la tecnologia e perfino la quotidianità, una di quelle mutazioni lente ma inevitabili che sembrano uscite da un arco narrativo di un anime cyberpunk, solo che stavolta non è finzione ma qualcosa che si infiltra nelle nostre vite mentre paghi un caffè o prenoti un volo.

Dentro questo scenario un nome che continua a tornare è Bybit, una realtà che fino a qualche anno fa sembrava confinata al mondo degli smanettoni e degli appassionati di crypto, mentre oggi si muove con una naturalezza sorprendente dentro un ecosistema che assomiglia sempre di più a una fusione tra Web3, fintech e lifestyle digitale, e la cosa che fa davvero riflettere non è tanto la crescita in sé, ma il modo in cui questa crescita si incastra nelle abitudini di tutti i giorni, senza fare rumore, senza chiedere attenzione, ma restando lì, presente.

Tre milioni di utenti per una carta legata a un exchange di criptovalute non è solo un numero da comunicato stampa, è il segnale di qualcosa che si sta consolidando sotto la superficie, come se il concetto stesso di “pagare” stesse cambiando pelle, un po’ come quei momenti negli anime in cui il protagonista scopre che il potere che credeva di controllare in realtà lo stava già trasformando da tempo, solo che qui il potere non è energia spirituale o chakra, ma la possibilità concreta di passare da cripto a fiat senza pensarci troppo, di usare asset digitali per comprare cose reali, di abbattere quella barriera che per anni è sembrata invalicabile tra mondo virtuale e mondo fisico.

E allora ti ritrovi a osservare questa Bybit Card non come una semplice carta di pagamento, ma come un oggetto narrativo, quasi un artefatto tecnologico che porta con sé una promessa implicita: rendere la finanza decentralizzata qualcosa di quotidiano, qualcosa che non devi spiegare ma che inizi a usare, proprio come succede con le tecnologie che davvero cambiano le regole del gioco, quelle che non chiedono di essere capite subito ma si fanno adottare, lentamente, fino a diventare normali.

Il ritmo con cui questa carta ha accumulato utenti racconta una storia precisa, una progressione che sembra uscita da un power-up ben calibrato, prima il milione, poi il raddoppio in tempi sempre più stretti, fino a superare quota tre milioni in meno di quanto ci si aspetterebbe, e la cosa interessante è che questo non succede perché qualcuno si sveglia e decide di “entrare nel Web3”, ma perché il Web3 gli arriva addosso mentre sta facendo la spesa, pagando un abbonamento o prenotando un viaggio, senza frizioni, senza quella sensazione di salto nel vuoto che spesso ha frenato l’adozione delle criptovalute.

Quello che colpisce davvero è la naturalezza con cui si mescolano elementi che fino a poco tempo fa appartenevano a universi separati, il pagamento contactless accanto alla conversione cripto-fiat in tempo reale, il cashback che ti riporta immediatamente a dinamiche da carta tradizionale mentre sotto gira una logica completamente diversa, quasi invisibile, come un motore nascosto che lavora in background, e in mezzo a tutto questo anche le integrazioni con Apple Pay e Google Pay, che sembrano dettagli ma in realtà sono ponti fondamentali, perché permettono a questa tecnologia di entrare nelle tasche delle persone senza cambiare le abitudini, e questa è sempre la chiave.

Poi c’è tutta la parte che strizza l’occhio a chi vive di cultura digitale, e qui la cosa diventa ancora più interessante perché il discorso non è più solo finanziario ma culturale, con rimborsi su servizi che fanno parte della nostra routine quotidiana, da Netflix a Spotify fino a ChatGPT e TradingView, come se la carta stessa capisse perfettamente che il target non è l’investitore tradizionale ma un utente ibrido, uno che passa dal binge watching a una sessione di analisi grafica senza soluzione di continuità, uno che vive online e offline come se fosse un unico spazio.

E non è un caso che il discorso si allarghi verso territori ancora più narrativi, come i festival musicali o gli eventi sportivi, perché lì succede qualcosa di ancora più interessante, la finanza diventa esperienza, si lega a momenti reali, a emozioni condivise, a quella dimensione quasi rituale che abbiamo sempre associato ai grandi eventi, e improvvisamente pagare non è più solo una transazione ma parte di un ecosistema più ampio, un sistema che prova a tenere insieme tecnologia, intrattenimento e identità digitale.

Tutto questo si inserisce in una traiettoria che sembra abbastanza chiara, anche se non viene mai dichiarata in modo esplicito, una direzione che punta a rendere la finanza decentralizzata non qualcosa di alternativo ma qualcosa di integrato, non un mondo a parte ma un layer sopra quello che già esiste, un po’ come succede nei migliori universi narrativi dove il fantastico non sostituisce il reale ma lo espande, lo arricchisce, lo rende più complesso.

E allora forse la vera domanda non è quanto crescerà ancora questa carta o quanti utenti riuscirà a conquistare, ma quanto siamo pronti a vivere dentro questo tipo di sistema, quanto ci sentiamo a nostro agio in un contesto in cui il confine tra digitale e reale diventa sempre più sottile, quasi trasparente, e se questa evoluzione ci sembra naturale o se in fondo ci lascia ancora quella sensazione strana, quella leggera vertigine che provi quando capisci che qualcosa è cambiato davvero.

Perché alla fine, tra una transazione e l’altra, tra un cashback e una conversione istantanea, quello che sta emergendo non è solo una nuova carta o un nuovo servizio, ma un modo diverso di pensare il rapporto con il denaro, con la tecnologia e con il tempo stesso, e la cosa più interessante è che tutto questo sta succedendo mentre scorri il telefono, senza grandi annunci, senza scene madri, quasi come se fosse sempre stato lì.

E tu, mentre leggi e magari pensi che in fondo è solo un altro passo nella solita evoluzione tech, sei davvero sicuro che sia solo questo, o hai anche tu quella sensazione familiare da inizio stagione, quella vibrazione leggera che ti fa capire che la storia sta cambiando direzione proprio adesso, sotto i nostri occhi?

Perplexity Personal Computer: Il tuo Mac diventa un Agente AI Operativo

Perplexity ha deciso di trasformare il tuo computer in un vero e proprio “agente operativo”. Non stiamo parlando della solita chat che scrive poesie deprimenti, ma di un sistema che mette le mani sotto il cofano del tuo macOS per fare il lavoro sporco al posto tuo.

Ecco come Perplexity Personal Computer sta per cambiare la vita a chi ha troppe schede aperte e troppa poca voglia di organizzare file.

Il computer torna a essere una “persona” (ma digitale)

Una volta il “computer” era un tizio che faceva calcoli. Poi è diventato quel cubo beige sulla scrivania. Ora, secondo Perplexity, il computer è un orchestratore.

Il nuovo servizio Personal Computer non aspetta solo i tuoi input come un maggiordomo pigro; interagisce direttamente con le tue app, i file locali e il browser. In pratica, è come avere un collega stagista molto intelligente (e che non beve tutto il caffè in ufficio) capace di suddividere un obiettivo complesso in micro-task ed eseguirli in autonomia.

Perché il Mac mini è il nuovo “prescelto”?

Perplexity suggerisce che il compagno di giochi ideale per questa IA sia il Mac mini. Il motivo? È piccolo, consuma poco e può stare acceso 24 ore su 24, diventando un server AI personale sempre attivo. Puoi impartire ordini dal tuo iPhone mentre sei in coda al supermercato e lasciare che il tuo Mac mini a casa sistemi quella cartella “Download” che sembra un campo di battaglia dopo un’invasione aliena, rinominando i file e organizzandoli con un senso logico.

Cosa sa fare concretamente?

Ecco alcuni scenari per chi vive di multitasking:

  • Organizzazione selvaggia: Può riordinare il caos del tuo disco fisso creando cartelle sensate.

  • Analisi cross-platform: Può leggere le tue note, confrontarle con i dati sul web e scriverti una mail o un iMessage per chiudere una pratica.

  • Sub-agenti: Se il compito è troppo grosso, l’IA crea dei “mini-me” digitali che lavorano in parallelo su diversi aspetti dello stesso progetto.

Privacy: Skynet o maggiordomo fidato?

Dare le chiavi del proprio sistema operativo a un’IA potrebbe far venire i brividi a chiunque abbia visto un film di fantascienza dagli anni ’80 in poi. Perplexity giura però che tutto avviene in una sandbox sicura. Le azioni sono verificabili e reversibili: puoi vedere in tempo reale cosa sta toccando l’IA e intervenire prima che decida di cancellare per errore la tua collezione di scan di fumetti rari.

Quanto costa diventare un “Power User” del futuro?

Qui arriva la nota dolente per i nostri portafogli. Personal Computer non è per tutti. Al momento è un’esclusiva per gli abbonati al piano Perplexity Max, che costa la bellezza di 200 dollari al mese.

Sì, avete letto bene. Non è per chi vuole solo generare meme, ma per professionisti che hanno bisogno di un assistente che operi tra file, API e web senza sosta. Se hai i soldi (e il coraggio) di farti sostituire da un algoritmo, la lista d’attesa è aperta.

Chatbot come Droghe? Lo studio shock sugli adolescenti dipendenti dall’IA

Se pensavate che il boss finale della nostra salute mentale fosse lo scroll infinito di TikTok o il farming compulsivo su un MMO coreano, beh, preparatevi a cambiare livello. Benvenuti nell’era in cui il tuo migliore amico non è un umano in carne e ossa, ma un algoritmo scritto in Python che non dorme mai.

L’allarme arriva direttamente dalla Drexel University di Philadelphia e ha il sapore amaro di un episodio di Black Mirror andato male: i chatbot basati sull’IA generativa stanno creando negli adolescenti (e non solo) una dipendenza che ha poco a che fare con il gaming e molto con la tossicodipendenza vera e propria. Mentre noi ci preoccupavamo che Skynet prendesse il controllo dei missili nucleari, l’intelligenza artificiale ha iniziato a fare qualcosa di molto più sottile: ha preso il controllo dei nostri sentimenti.

Non è un bot, è un’ossessione

Dimenticate gli assistenti vocali che non capiscono quando chiedete di riprodurre i Gorillaz. Parliamo di piattaforme come Character.AI, Replika o Kindroid, dove l’IA ha una “personalità” così curata da far sembrare i tuoi compagni di classe dei PNG senza carisma.

I ricercatori del laboratorio ETHOS hanno analizzato oltre 300 post su Reddit di ragazzini tra i 13 e i 17 anni. Il tema? Il loro rapporto decisamente tossico con i bot. Se pensavi che litigare con Siri fosse strano, sappi che qui siamo a livelli di “tratti simili alla tossicodipendenza”.

Supporto emotivo o spirale del silenzio?

Ecco qualche numero per alimentare la tua ansia esistenziale:

  • 25% degli utenti cerca nei bot supporto emotivo per combattere solitudine e isolamento.

  • Meno del 5% li usa per scopi utili, tipo studiare o capire come si monta un set Lego particolarmente complesso.

Il problema è che quella che inizia come una chiacchierata innocente si trasforma rapidamente in un legame viscerale. I ricercatori hanno riscontrato pattern da manuale delle dipendenze: conflitto, astinenza e ricaduta. Gli adolescenti si sentono in colpa per quanto tempo passano a chattare, provano a smettere, vanno in crisi e poi tornano strisciando dal loro codice binario preferito.

Il bot che ti ricorda (fin troppo) bene

Perché è peggio dei “vecchi” social? Semplice: la personalizzazione. Questi bot hanno memoria, usano vari media e sembrano capirti meglio di tua madre. Questa capacità di simulare una relazione autentica rende difficilissimo staccare la spina. Non stai solo chiudendo un’app; nella tua testa, stai dando buca a qualcuno che “ti ascolta”.

L’appello degli esperti è chiaro: bisogna progettare queste IA con dei paletti, specialmente per i più giovani. Perché tra un’IA che ti aiuta a programmare in Python e una che ti convince di essere l’unica a capirti, il passo è breve. E un po’ inquietante.

Addio benzina, benvenuta scossa: Nissan svela il Juke 100% elettrico (e sì, è ancora “strano”)

Se c’è una cosa che abbiamo imparato dal 2010 a oggi, è che il Nissan Juke è come quella serie TV divisiva che tutti dicono di odiare, ma che poi finisce regolarmente nella top 10 di Netflix. Con quel look da alieno corazzato, il crossover compatto di Nissan ha conquistato 1,5 milioni di europei, e ora ha deciso che è giunto il momento di smetterla di bere dinosauri liquefatti per passare alla dieta a base di elettroni.

In occasione dell’evento Vision in Giappone, Nissan ha calato l’asso: il nuovo JUKE 100% elettrico.

Una scossa di personalità (o almeno così dicono)

Nissan promette che il nuovo Juke manterrà quella “personalità ed emozione” che lo hanno reso il SUV preferito da chi vuole farsi notare al semaforo. Non sappiamo ancora se avrà dei fari ancora più giganti o se spunteranno delle ali da Gundam, ma l’obiettivo è chiaro: reinventare l’icona senza tradire il suo spirito anticonformista.

Il Juke elettrico non sarà solo in questa crociata silenziosa. Si unisce a una “Justice League” a zero emissioni che comprende la nuova Micra, la terza generazione della Leaf e il crossover Ariya. Insomma, il garage del futuro di Nissan sembra più affollato del backstage di un concerto dei Daft Punk.

Tecnologia da nerd e produzione “British”

Per gli amanti dei tecnicismi: il nuovo Juke erediterà dalla Leaf la tecnologia Vehicle-to-Grid (V2G). Tradotto dal linguaggio marketing-ese: la vostra auto non sarà solo un mezzo di trasporto, ma una gigantesca powerbank su ruote capace di restituire energia alla rete elettrica o, perché no, alimentare il vostro setup da gaming durante un blackout.

Mentre aspettiamo che arrivi nelle concessionarie, Nissan continuerà a vendere le versioni e-POWER (quelle ibride per chi ha ancora l’ansia da ricarica), ma il futuro è segnato. Il nuovo Juke nascerà nello storico stabilimento di Sunderland, nel Regno Unito, che ormai è diventato la Bat-caverna dell’elettrificazione europea.

Quando lo vedremo?

Tenete a freno l’entusiasmo (e il portafoglio): il debutto ufficiale è fissato per la primavera del 2027. Abbiamo tutto il tempo per finire la nostra lista di anime arretrati e mettere da parte i risparmi. Al momento i dettagli tecnici sono più segreti dei piani della Morte Nera, ma restate sintonizzati per i prossimi leak.

LG Miraclass rivoluziona il cinema: la tecnologia LED riporta il pubblico nelle sale

Qualcosa sta cambiando davvero dentro le sale cinematografiche, e no, non è solo nostalgia o quella strana voglia collettiva di tornare a sedersi al buio con perfetti sconosciuti mentre un film ti esplode davanti agli occhi come ai tempi in cui il trailer bastava a decidere il weekend. I numeri raccontano una storia che chi frequenta il cinema con costanza aveva già iniziato a percepire sulla pelle: oltre 68 milioni di spettatori in Italia e quasi mezzo miliardo di euro di incassi in un solo anno, roba che non sa di semplice ripresa ma di ritorno consapevole, quasi affettivo, verso un rituale che sembrava sul punto di dissolversi tra piattaforme streaming e binge watching compulsivo .

Eppure, mentre scorrono questi dati, la testa corre altrove, a quelle sensazioni molto precise che solo la sala sa darti, quel momento in cui le luci si abbassano e ti rendi conto che stai entrando in uno spazio diverso, quasi parallelo, un po’ come succede negli anime quando il protagonista attraversa un portale e tutto cambia improvvisamente scala, colore, percezione. Solo che qui non è magia narrativa, è tecnologia che sta facendo un salto evolutivo piuttosto serio, e una delle cose più interessanti che stanno succedendo in questo momento ha un nome che sembra uscito da una boss fight di fine livello: LG Miraclass.

Dietro questo nome c’è LG Electronics, ma ridurre tutto a un brand sarebbe troppo facile. La verità è che ci troviamo davanti a un cambio di paradigma che ricorda quello che abbiamo vissuto passando dal tubo catodico all’HD, o dal 2D al 3D nei videogiochi, solo che qui il campo di battaglia è il grande schermo, quello vero, quello che ti sovrasta e ti ingloba.

Le prime avvisaglie di questa trasformazione stanno già prendendo forma in Europa, e non in posti qualsiasi, ma in sale che hanno una loro identità forte, quasi mitologica per chi ama il cinema. Da una parte lo storico Alcazar Cinema di Parigi, uno di quei luoghi che respirano storia e memoria, dall’altra il Cinema Odeon Multisala di Madrid, che invece si è lanciato a capofitto in questa rivoluzione diventando il primo multisala al mondo a integrare completamente questa tecnologia LED. Due approcci diversi, due modi di vivere il cinema, un unico punto in comune: la sensazione che qualcosa di grosso stia succedendo davvero.

Il punto è che qui non si parla semplicemente di “immagine più bella”, quella roba da brochure che ormai non convince più nessuno. Qui si entra in territori che toccano direttamente la percezione visiva, il modo in cui il cervello interpreta ciò che vede. Parliamo di una profondità di colore che arriva a miliardi di variazioni, una roba che, detta così, sembra quasi inutile finché non ti ritrovi davanti a una scena scura in cui finalmente distingui ogni sfumatura, ogni dettaglio, ogni piccolo movimento che prima si perdeva nel nero. È come passare da un manga stampato male a una tavola perfettamente restaurata, dove improvvisamente capisci perché l’autore ha scelto proprio quella linea, proprio quel tratto.

E poi c’è la luminosità, che non è più un parametro fisso ma qualcosa che si adatta, respira insieme al contenuto, come se lo schermo smettesse di essere una superficie passiva e iniziasse a comportarsi quasi come un organismo vivo. Questo significa che puoi passare da un film ultra cinematografico a un evento live, da una proiezione 3D a una presentazione senza quella sensazione di “compromesso” che spesso si percepisce nelle sale tradizionali.

La cosa che mi colpisce di più, però, è un’altra. Questa tecnologia non riguarda solo chi guarda, ma anche chi crea e chi gestisce le sale. È come se improvvisamente il cinema tornasse a essere uno spazio flessibile, un hub, una piattaforma reale in cui possono succedere cose diverse, un po’ come i mondi aperti nei videogiochi moderni, dove la mappa non è più un percorso obbligato ma un ecosistema da esplorare.

E lì entra in gioco anche il suono, perché non puoi parlare di immersione senza tirare in mezzo Dolby Atmos, che ormai è diventato quasi uno standard emotivo più che tecnico. Non è più questione di “sentire bene”, ma di essere dentro il suono, percepirlo sopra, sotto, dietro, come se ogni scena avesse una tridimensionalità che va oltre lo schermo.

A questo punto la domanda arriva da sola, quasi inevitabile: il cinema sta davvero tornando al centro della cultura pop oppure sta semplicemente cambiando pelle per sopravvivere? Perché se ci pensi bene, tutto questo discorso sulla qualità visiva, sull’immersività, sull’esperienza premium, suona molto simile a quello che abbiamo visto accadere nel mondo gaming, quando si è passati dai pixel alla grafica fotorealistica e poi ancora oltre, verso mondi sempre più credibili.

Solo che qui c’è una differenza fondamentale. Il cinema, a differenza dei videogiochi o dello streaming, è un’esperienza collettiva. E forse è proprio questo il punto che continua a tenerlo vivo, quella strana magia che nasce quando una sala intera reagisce insieme, ride insieme, trattiene il fiato nello stesso momento. Nessuna tecnologia può sostituire quella sensazione, ma può amplificarla, renderla più intensa, più memorabile, più difficile da replicare altrove.

E allora viene da chiedersi se queste nuove sale LED rappresentino semplicemente un upgrade tecnico o l’inizio di qualcosa di più profondo, una trasformazione che potrebbe ridefinire completamente il modo in cui viviamo il cinema nei prossimi anni, magari portandolo sempre più vicino a quelle esperienze ibride tra spettacolo, tecnologia e immersione totale che fino a poco tempo fa sembravano roba da fantascienza.

Perché sì, alla fine la sensazione è proprio quella: non stiamo assistendo a un semplice miglioramento, ma a una specie di evoluzione silenziosa, di quelle che non fanno troppo rumore all’inizio ma che poi, quando ti giri indietro, ti fanno capire che nulla è più come prima.

E adesso la curiosità è tutta lì, sospesa, perché la vera domanda non è tanto dove arriverà questa tecnologia, ma come reagiremo noi, pubblico cresciuto tra anime, cinema, streaming e videogiochi, davanti a un’esperienza che prova a riportare tutto insieme, nello stesso spazio, davanti allo stesso schermo.

Magari qualcuno l’ha già provata, magari altri sono scettici, magari c’è chi pensa che nulla potrà mai superare la “vecchia” pellicola… però raccontatemi una cosa: se davvero il cinema sta cambiando così tanto, voi da che parte state guardando questa trasformazione?

Alexa+ in Italia: la nuova era degli assistenti vocali tra AI conversazionale, smart home e vita quotidiana nerd

Casa ancora mezza addormentata, quella luce sporca dell’alba che filtra tra le tapparelle come nei vecchi caricamenti della The Elder Scrolls V: Skyrim, e tu che ti muovi in automatico verso la cucina pensando alla solita routine… poi parte una voce. Ma non è quella voce. Non è più quella Alexa educata e un po’ limitata che negli anni abbiamo imparato a trattare come un interruttore parlante con educazione incorporata. Stavolta sembra quasi che qualcuno abbia fatto un recast al personaggio, come se un NPC secondario si fosse svegliato con una nuova IA e avesse deciso di prendersi un po’ di spazio nella scena.

E lì capisci che qualcosa è cambiato davvero, non a livello di feature da comunicato stampa, ma proprio nella sensazione. Quella roba che chi ha vissuto per anni tra fiere, palchi e backstage riconosce subito: il momento in cui una tecnologia smette di essere gimmick e prova a diventare linguaggio.

Dopo una vita passata a organizzare eventi, a montare palchi mentre la gente ancora dorme e a vedere le community trasformarsi sotto i tuoi occhi, certe cose le senti prima ancora di leggerle nei dettagli tecnici. Alexa+, arrivata anche qui in Italia, non è un semplice aggiornamento. È uno di quei passaggi che, se li guardi bene, somigliano più a un cambio di generazione che a una patch.

Per anni abbiamo convissuto con un’assistente che, detta senza cattiveria, sembrava progettata con la stessa logica dei vecchi menu a scelta multipla dei JRPG anni ’90. Tu parlavi, lei eseguiva. Fine. Una roba funzionale, certo, ma con lo stesso fascino emotivo di un telecomando universale. E lo dico da uno che negli anni ha riempito case e stand di Amazon Echo, testandoli tra demo live e smanettamenti notturni per capire fin dove si poteva spingere la domotica.

Adesso invece la sensazione è diversa. Non devi più “lanciare comandi”, devi iniziare una conversazione. E già questa cosa, detta così, sembra marketing… finché non la provi davvero e ti accorgi che il ritmo cambia. Non è più botta e risposta, è flusso. Un flusso imperfetto, certo, ma vivo. Un po’ come quei dialoghi negli anime spokon che ami anche quando sono sopra le righe, perché senti che dietro c’è intenzione, non solo funzione.

Il salto più grosso non è nemmeno nella voce o nella fluidità. È nella volontà di agire. Alexa+ non si limita a stare lì a rispondere come un centralinista diligente, prova proprio a entrare nella tua giornata. Prenotazioni, suggerimenti, automazioni… roba che fino a ieri richiedeva app, passaggi, dita sullo schermo. Ora invece passa dalla voce, ma non quella rigida, quella “umana”, che capisce il contesto e si ricorda quello che le hai detto prima.

E qui, da vecchio nerd cresciuto con Neon Genesis Evangelion e le armature dei Saint Seiya, parte subito il parallelo mentale. Perché questa roba l’abbiamo già vista mille volte nella fantascienza. Solo che lì funzionava sempre tutto perfettamente, mentre nella realtà… beh, nella realtà siamo ancora in quella fase in cui il sistema è potente ma ogni tanto inciampa come un praticante al primo allenamento.

Ed è proprio questo il punto interessante.

Dietro Alexa+ non c’è una singola intelligenza, ma una specie di dojo pieno di modelli diversi che si alternano a seconda della situazione, orchestrati tramite Amazon Bedrock. Dentro girano cose come Amazon Nova e Claude, ognuna con il suo stile, il suo modo di ragionare. È un approccio che, da appassionato di arti marziali, mi fa sorridere: non esiste una tecnica perfetta, esiste l’adattamento continuo.

Il problema è che questo adattamento, ogni tanto, si sente troppo. Momenti in cui sembra di parlare con qualcosa di davvero intelligente si alternano a risposte fuori tempo, suggerimenti un po’ invadenti, piccoli glitch che rompono l’illusione. E chi vive il mondo nerd da anni sa benissimo quanto sia sottile il confine tra immersione totale e fastidio.

La community, infatti, non l’ha presa tutta allo stesso modo. Durante gli eventi lo percepisci subito: c’è chi è gasatissimo, chi ci gioca come fosse una beta aperta e chi invece storce il naso, infastidito da questa nuova personalità un po’ troppo “presente”. Alcuni la trovano fin troppo amichevole, quasi invadente, altri non sopportano certi suggerimenti che sembrano più consigli sinceri ma che, sotto sotto, profumano di algoritmo commerciale.

E sai qual è la cosa più interessante? Che per la prima volta da anni non si discute solo di cosa fa una tecnologia, ma di come si comporta. Di carattere. Di tono. Di presenza. Roba che fino a poco tempo fa era territorio esclusivo di anime, film e videogiochi.

Nel frattempo, sotto la superficie, la smart home diventa sempre più una regia invisibile. Luci che si adattano, dispositivi che si coordinano, contenuti che si intrecciano con quello che stai vivendo. Durante una serata su Amazon Prime Video puoi iniziare a parlare con Alexa come se fosse qualcuno seduto accanto a te, chiedere dettagli, curiosità, connessioni. A volte funziona, a volte meno… ma il punto è che stiamo iniziando a trattare un sistema domestico come se fosse parte della conversazione.

E qui entra in gioco un’altra cosa che, da organizzatore, mi colpisce sempre: il rapporto tra tecnologia e abitudine. Perché puoi avere il sistema più avanzato del mondo, ma se cambia troppo in fretta rischia di spiazzare. Non tutti vogliono un coinquilino digitale che parla. Molti vogliono ancora un interruttore che funziona.

Amazon lo sa, e infatti ha lasciato una via di fuga. Puoi tornare indietro, ridimensionare, spegnere certe funzioni. Un rollback elegante, quasi come scegliere se giocare un remake o restare fedele alla versione originale.

Poi c’è il discorso economico, che aleggia sempre dietro le quinte. Per ora tutto incluso, ma il messaggio è chiaro: questa roba diventerà sempre più centrale nell’ecosistema Amazon, e prima o poi qualcuno dovrà pagare il biglietto per restare nella partita completa.

Alla fine, guardandola con gli occhi di uno che ha passato metà della vita tra community, cosplay, tornei, panel e notti infinite a discutere di futuro davanti a una birra calda, Alexa+ non è ancora quella promessa perfetta che ci raccontano. Assomiglia molto di più a un episodio pilota. Di quelli pieni di idee, pieni di potenziale, ma ancora in cerca della propria identità definitiva.

E forse è proprio questo il bello.

Perché significa che siamo ancora dentro la fase in cui possiamo osservare, criticare, adattarci… e in qualche modo anche influenzare come questa roba crescerà. Un po’ come succedeva con i primi forum, con i primi MMORPG, con i primi eventi nerd organizzati con due tavoli e tanta incoscienza.

Ora la domanda vera è un’altra, e non ha niente di tecnico: voi che tipo di rapporto volete con questa nuova presenza? Uno strumento evoluto… o qualcosa che prova davvero a sedersi accanto a voi sul divano mentre guardate una puntata e vi dice cosa ordinare per cena?

Io, nel dubbio, continuo a testarla. Ma con la stessa diffidenza rispettosa con cui si entra in un dojo nuovo. Perché certe cose, prima di fidarti davvero… le vuoi sentire sulla pelle.

Huawei Pura X Max: Largo, anzi larghissimo

Huawei ha deciso di giocare d’anticipo. Sì, perché il nuovo Huawei Pura X Max sembra aver rubato i compiti a casa di Apple, sfoggiando quel design “cicciotto” e largo che, secondo i rumor, dovrebbe caratterizzare l’attesissimo (e perennemente in ritardo) iPhone Fold.

In arrivo in Cina la prossima settimana, il Pura X Max non è esattamente una piuma. Si ispira al design del suo fratellino minore, il Pura X, ma lo porta su una scala… beh, “Max”. La particolarità? Un aspect ratio decisamente ampio, che lo fa sembrare più un libro tascabile che un telecomando.

Le immagini mostrano un triplo sensore fotografico posteriore e una versatilità che permette di usarlo sia in verticale che in orizzontale senza sembrare dei totali disagiati. Insomma, Huawei ha deciso che il formato “stretto e lungo” alla Samsung ha stancato, e indovinate chi la pensa allo stesso modo? Esatto, i geni di Cupertino.

L’iPhone Fold (o Ultra) costerà quanto un rene

Parliamo della mela morsicata. Mentre Huawei lancia prodotti reali, Apple continua a popolare i nostri sogni (e gli incubi dei nostri portafogli). Le ultime voci parlano di un dispositivo che da chiuso avrà un display da 5,5 pollici (praticamente un ritorno alle dimensioni dell’iPhone 8 Plus, ma senza cornici), mentre da aperto diventerà un mini-tablet da 7,8 pollici. Poco meno di un iPad mini, per intenderci.

  • Il nome: Dimenticate “iPhone Fold”. I leaker più accreditati, tra cui Mark Gurman, suggeriscono iPhone Ultra. Perché “Ultra” suona più costoso, no?

  • Il prezzo: Si parla di una base di partenza di 2.000 dollari. Praticamente il prezzo di uno scooter o di una fornitura a vita di ramen istantaneo.

  • I colori: Classici Apple. Grigio siderale e argento. Noia? Forse, ma fa molto “premium”.

Addio piega: il segreto è nella colla

Uno dei problemi esistenziali dei foldable è quella fastidiosa riga orizzontale che ti ricorda costantemente che hai speso duemila euro per uno schermo rotto a metà. Apple, ovviamente, vuole risolvere il problema alla sua maniera: con la tecnologia.

Secondo un report di TrendForce, la chiave sarà un nuovo tipo di adesivo otticamente trasparente (OCA). Questo “adesivo intelligente” dovrebbe mantenere i vari strati del display perfettamente allineati anche dopo migliaia di aperture, rendendo la piega praticamente invisibile. Spoiler: se ci riescono davvero, stavolta potremmo dover dar loro ragione.

Quando arriva? (Se arriva)

Nonostante qualche rallentamento nella produzione segnalato da DigiTimes, la tabella di marcia punta dritta all’autunno 2026. L’iPhone Ultra dovrebbe debuttare insieme alla gamma iPhone 18 Pro. Quindi avete ancora un paio d’anni per mettere i soldi nel porcellino o convincere la vostra banca che un telefono pieghevole è un investimento immobiliare valido.

La Giornata Internazionale del Volo Spaziale Umano: da Gagarin alle Sfide Geopolitiche Contemporanee

Il 12 aprile non è una data qualsiasi per gli appassionati di spazio e tecnologia: è il giorno in cui, nel 1961, Yuri Gagarin divenne il primo uomo a viaggiare nello spazio, aprendo una nuova era per l’umanità. Un evento talmente epocale che l’Assemblea Generale delle Nazioni Unite ha deciso di dichiararlo “Giornata internazionale del volo spaziale umano”, riconoscendo il ruolo fondamentale della scienza e della tecnologia spaziale nello sviluppo sostenibile e nel miglioramento del benessere globale. Ma oggi, in un contesto geopolitico sempre più teso, questa celebrazione assume significati nuovi e complessi, specialmente per un’Europa che guarda con sospetto alle ambizioni russe nel cosmo.

Per comprendere appieno l’importanza di questa giornata, bisogna tornare a quella mattina del 12 aprile 1961, quando il cosmonauta sovietico Yuri Gagarin, a bordo della capsula Vostok 1, lasciò il pianeta Terra per un viaggio di 108 minuti che lo avrebbe reso immortale. “La Terra è blu. Che meraviglia!”, esclamò mentre orbitava intorno al pianeta a una velocità di 27.400 km/h. Un’affermazione che racchiudeva l’essenza stessa del sogno spaziale: la scoperta, il superamento dei limiti, l’unità dell’umanità di fronte all’immensità del cosmo. Tuttavia, non si trattava solo di una vittoria della scienza: era anche un trionfo propagandistico dell’Unione Sovietica nel pieno della Guerra Fredda, una dimostrazione di superiorità tecnologica che metteva in crisi gli Stati Uniti e consolidava la corsa allo spazio come uno dei fronti più caldi della competizione tra i due blocchi.

Il successo sovietico spinse le Nazioni Unite a interrogarsi sul ruolo dello spazio e sulla necessità di regolamentarne l’uso. Così, nel 1967, nacque il Trattato sullo Spazio Esterno, noto anche come la “Magna Carta dello spazio”, che stabiliva principi fondamentali come l’uso pacifico dello spazio, il divieto di rivendicazioni territoriali e la responsabilità degli Stati per le attività spaziali. Questo trattato rimane ancora oggi il pilastro della legislazione spaziale internazionale, sebbene l’attuale scenario geopolitico lo stia mettendo a dura prova.

Nel XXI secolo, lo spazio non è più solo il palcoscenico di una sfida tra superpotenze, ma un ambiente affollato da aziende private, nuove potenze emergenti e programmi militari sempre più sofisticati. L’Europa, che ha sempre puntato sulla cooperazione internazionale per le sue missioni spaziali, si trova ora di fronte a una realtà in cui la Russia, un tempo partner chiave, si sta progressivamente allontanando, complice la crisi geopolitica e le sanzioni economiche. La decisione di Mosca di interrompere la collaborazione con l’Agenzia Spaziale Europea per la missione ExoMars e la crescente militarizzazione dello spazio da parte di Stati Uniti, Cina e Russia stessa sollevano interrogativi inquietanti sul futuro della cooperazione spaziale.

L’ONU, attraverso l’Ufficio per gli Affari dello Spazio Esterno (UNOOSA), continua a promuovere l’uso pacifico dello spazio e la collaborazione tra Stati, ma il panorama attuale appare sempre più frammentato. Le ambizioni spaziali russe, che includono nuove stazioni orbitali autonome e missioni lunari indipendenti, sembrano suggerire una nuova fase della corsa allo spazio, in cui la cooperazione potrebbe lasciare il posto alla competizione.

Celebrando la Giornata internazionale del volo spaziale umano, dunque, non si commemora solo un grande traguardo della scienza e dell’ingegno umano, ma si riflette anche sulle sfide che il futuro ci pone. Sarà possibile mantenere lo spazio come “provincia di tutta l’umanità”, come auspicato dall’ONU, o diventerà il nuovo campo di battaglia delle potenze terrestri? Il sogno di Gagarin e di tutti coloro che hanno guardato alle stelle con speranza sembra oggi più fragile che mai, in un mondo sempre più diviso, ma anche sempre più dipendente dalle tecnologie spaziali per il suo progresso e la sua sicurezza. La risposta, come sempre, è scritta nelle stelle… e nelle scelte che faremo sulla Terra.

Au Revoir Windows: La Francia molla Microsoft e si lancia tra le braccia di Tux

Mentre noi comuni mortali passiamo le domeniche a combattere con gli aggiornamenti di Windows che decidono di partire esattamente quando stiamo per lanciare una partita a Elden Ring, il governo francese ha deciso di tagliare la testa al toro. O meglio, al logo di Redmond. La notizia è ufficiale: la Francia ha iniziato il grande trasloco verso Linux in nome della sacra “sovranità digitale”.

La riscossa di Tux (con la baguette sotto braccio)

La DINUM (che suona come un’agenzia segreta di un anime sci-fi, ma è “solo” la Direzione Interministeriale del Digitale) ha sganciato la bomba: basta dipendere dai giganti extra-europei. Entro l’autunno, ogni ministero dovrà presentare un report dettagliato su quanto siamo messi male — ops, volevo dire, quanto siamo dipendenti — da software americano per qualunque cosa: dagli antivirus all’intelligenza artificiale, passando per i database.

L’obiettivo? Creare una sorta di distribuzione Linux “alla francese”. Non sappiamo ancora se avrà un’interfaccia color bordeaux o se risponderà solo a comandi impartiti con sdegno, ma il messaggio è chiaro: l’Europa vuole riprendersi le chiavi di casa propria.

Non è solo una questione di “feticismo” per l’Open Source

Dietro questa mossa non c’è solo la voglia di smanettare con il kernel (a proposito, il supporto per i chip M1 di Apple è ormai realtà consolidata, giusto per dire che Linux non è più roba da terminali a riga di comando anni ’90). C’è una questione geopolitica grossa come una casa. Le tensioni tra USA ed Europa stanno spingendo molti governi a chiedersi: “Ma perché dobbiamo regalare tutti i nostri dati e i nostri soldi a Big Tech?”.

La Francia sta aprendo la strada, seguendo l’esempio di chi, con un po’ di coraggio, ci ha già provato:

  • Danimarca: Hanno detto addio a Microsoft Office per passare a LibreOffice.

  • Monaco di Baviera: La città tedesca vive una relazione tossica con Linux. Lo hanno adottato, poi hanno avuto un ritorno di fiamma per Windows nel 2017, e nel 2020 sono tornati di nuovo tra le braccia del software libero. Una soap opera nerd in piena regola.

Sarà davvero l’anno del Desktop Linux?

Sì, lo sappiamo, è il meme più vecchio dell’internet. Però, se uno Stato intero decide di migrare, il segnale è forte. Se l’esperimento francese dovesse funzionare senza far implodere la burocrazia di Parigi, potremmo trovarci davanti a un effetto domino.

Prepariamo i popcorn: la sfida alla sovranità digitale è appena entrata nel vivo e, per una volta, il protagonista non è un supereroe in tutina, ma un pinguino molto determinato.

Ascendance of a Bookworm, l’anime che trasforma i libri in una rivoluzione e riaccende il dibattito sull’IA

Alcuni anime ti restano addosso come una soundtrack ascoltata per caso durante una notte passata a grindare su un JRPG e poi mai più dimenticata, e Ascendance of a Bookworm appartiene esattamente a quella categoria rara, quasi pericolosa, di storie che sembrano quiete e invece ti scavano dentro piano, episodio dopo episodio, con la stessa ostinazione con cui Myne continua a inseguire pagine stampate in un mondo che dei libri ha fatto un privilegio per pochi. Da fan di anime isekai, abituata a reincarnazioni spettacolari, skill rotte, boss fight e protagonisti overpowered che in tre puntate diventano semidei ambulanti, l’impatto con Honzuki no Gekokujou è stato straniante nel senso migliore possibile: qui non si combatte per salvare regni con spade leggendarie, qui si combatte per carta, inchiostro, alfabetizzazione, accesso alla conoscenza. E sembra una differenza minuscola, ma cambia tutto.

L’anime tratto dalla light novel di Miya Kazuki illustrata da You Shiina ha sempre avuto qualcosa di profondamente diverso nel DNA, una specie di delicatezza testarda che non cerca mai di urlare più forte degli altri titoli stagionali. Dal debutto animato del 2019, affidato ad Ajia-do Animation Works con la regia di Mitsuru Hongo, fino all’arrivo della quarta stagione nel 2026 prodotta da Wit Studio, Ascendance of a Bookworm ha costruito la sua identità come fanno le serie destinate a durare: senza scorciatoie, accumulando emozioni, dettagli, relazioni, piccoli traumi e grandi conquiste. Lo senti nella crescita della protagonista, ma anche nella progressione stessa dell’adattamento anime, passato da una prima stagione di quattordici episodi quasi intima e domestica, a un’espansione narrativa sempre più ampia, stratificata, politica, dove il sogno privato di una bambina reincarnata si intreccia con gerarchie religiose, nobiltà e tensioni sociali. La longevità della saga, nata su Shōsetsuka ni Narō e poi trasformata in una monumentale serie di trentatré volumi, si percepisce tutta: ogni arco narrativo sembra una nuova campagna di worldbuilding sbloccata come in quei videogame gestionali dove parti con un villaggio spoglio e finisci per governare un impero.

Myne, o meglio Urano Motosu reincarnata in Myne, resta una delle protagoniste più anomale e irresistibili degli ultimi anni anime. Fragile, malata, spesso fisicamente esausta, lontanissima dall’archetipo dell’eroina invincibile, eppure devastante nella sua determinazione. Quello che mi colpisce sempre di lei è il modo in cui il desiderio di leggere diventa una forma di resistenza culturale. In un panorama isekai saturo di protagonisti che dominano il nuovo mondo grazie a cheat ability e reincarnazioni privilegiate, Myne entra in scena senza alcun vantaggio reale, se non una memoria adulta e una fame insaziabile di libri. È quasi commovente vedere come la sua rivoluzione parta da oggetti che noi diamo per scontati: carta, tavolette, caratteri mobili. Guardarla reinventare il libro in un contesto medievale mi ha sempre ricordato quella sensazione nerd purissima di chi prova a costruire qualcosa da zero, come il primo cosplay assemblato con materiali improbabili o il primo server Minecraft messo online con amici alle tre del mattino.

Ed è proprio questa materialità del sogno a rendere Ascendance of a Bookworm così speciale. Non vende l’illusione dell’epica facile, ma la bellezza del processo. La prima stagione, trasmessa tra ottobre e dicembre 2019, aveva già fissato perfettamente questo tono, accompagnata da opening e ending che sembravano cucite addosso al mondo interiore della protagonista, da “Masshiro” cantata da Sumire Morohoshi fino alla dolce malinconia di “Kamikazari no Tenshi” di Megumi Nakajima. Poi la seconda stagione nel 2020 ha ampliato il respiro narrativo, trascinando Myne dentro il tempio e aprendo il racconto a tensioni più complesse, mentre la terza, arrivata nel 2022, ha spinto ancora oltre l’intreccio con una maturità che ha premiato chi era rimasto fedele alla serie sin dall’inizio.

E adesso eccoci al capitolo più discusso, quello che sta facendo litigare fandom, artisti, animatori e appassionati in ogni angolo della community anime online: la quarta stagione prodotta da Wit Studio, iniziata il 4 aprile 2026, e la polemica sull’uso dell’intelligenza artificiale generativa negli sfondi dell’opening. Ammetto che leggere il comunicato ufficiale mi ha lasciata con quella strana amarezza che provi quando scopri che dietro una scena bellissima si nasconde una crepa etica difficile da ignorare. Wit Studio ha confermato che alcuni cut dell’opening del primo episodio contenevano immagini generate con IA, una scelta in contrasto con la loro stessa policy interna, annunciando subito il ridisegno completo degli sfondi incriminati e la sostituzione delle sequenze a partire dal secondo episodio. È una presa di responsabilità importante, e va riconosciuta, ma il caso apre una ferita molto più ampia: che cosa succede all’anima dell’animazione giapponese, fatta di mani, linee, errori umani, sensibilità artigianale, se anche serie come Honzuki finiscono dentro questa zona grigia?

Perché Ascendance of a Bookworm è forse uno dei titoli peggiori possibili per una controversia del genere, proprio per ciò che rappresenta. Questa è una storia che parla del valore umano della creazione culturale, del lavoro dietro ogni pagina, del sapere come atto collettivo. Inserire IA generativa in un’opera che celebra il gesto manuale del produrre libri ha quasi il sapore di una contraddizione narrativa interna, come se in un anime sul cosplay scoprissimo che il costume vincitore è stato stampato interamente da una macchina senza alcun intervento artigianale. E il fandom lo ha percepito immediatamente, perché chi ama Honzuki tende ad avere un rapporto quasi affettivo con il tema della manifattura, della pazienza, del fare con le mani.

Questo non cancella, però, il fascino enorme di una stagione che promette di adattare Part 3, “Adopted Daughter of an Archduke”, uno degli archi più attesi dai lettori della light novel. Il passaggio a Wit Studio ha portato un’evoluzione visiva evidente, con la regia di Yoshiaki Iwasaki e il nuovo character design di Aiko Minowa, e già dai primi episodi si percepisce una scala produttiva più ambiziosa. L’opening “Pages” delle Little Glee Monster, al netto della polemica, resta perfettamente in sintonia con il cuore della serie: ogni pagina voltata è una soglia, ogni libro un portale, ogni parola un atto di emancipazione.

Forse è proprio questo che continua a farmi amare Ascendance of a Bookworm in modo quasi viscerale: non è un anime che ti seduce con l’adrenalina, ma con la persistenza. Ti ricorda che la cultura può essere rivoluzionaria, che leggere è un atto politico, che una bambina fragile può destabilizzare un intero sistema solo insistendo sul diritto di accedere ai libri. In un’epoca in cui consumiamo contenuti a velocità assurda, Myne costringe a rallentare, ad apprezzare il tempo necessario perché qualcosa venga creato davvero. E forse anche la polemica sull’IA, in fondo, ci obbliga a farci la stessa domanda: quanto siamo disposti a sacrificare dell’umano in nome dell’efficienza?

Io continuo a pensare che pochi anime sappiano parlare agli appassionati nerd con questa intensità sommessa, e ogni nuova stagione di Honzuki mi lascia quella sensazione rara di aver ritrovato una vecchia amica tra scaffali impolverati e sogni impossibili. Voi da che parte state in questo dibattito, e soprattutto: questa nuova stagione vi sta conquistando come le precedenti, oppure sentite anche voi che qualcosa, tra quelle pagine animate, sta cambiando più in profondità di quanto sembri?

L’intelligenza artificiale si sta affermando sempre più come un nuovo copilota per lo shopping online

Ricordate quella sensazione da fine anni Novanta, o magari da primi Duemila, quando comprare qualcosa online sembrava una missione secondaria dentro un RPG complicatissimo, con decine di finestre aperte, forum pieni di opinioni contrastanti, recensioni scritte da utenti con nickname improbabili e il dubbio costante di star per spendere soldi nel posto sbagliato? Ecco, quella fase sta evaporando sotto i nostri occhi, e il bello è che il cambiamento non ha il rumore spettacolare delle rivoluzioni annunciate: somiglia piuttosto a uno di quei momenti negli anime cyberpunk in cui ti accorgi che il mondo è già cambiato mentre eri distratto a guardare altro. L’intelligenza artificiale nello shopping online sta facendo esattamente questo, e il nuovo Ecommerce Delivery Benchmark 2026 di Packlink lo mette nero su bianco con numeri che raccontano una trasformazione ormai impossibile da ignorare.

Un italiano su quattro ha già usato l’AI per fare acquisti online negli ultimi dodici mesi. Detta così sembra solo una percentuale, ma dentro quel 23% c’è un passaggio culturale enorme: significa che milioni di persone stanno delegando a sistemi intelligenti una parte delle proprie scelte di consumo, lasciando che algoritmi e assistenti conversazionali filtrino offerte, comparino prodotti, analizzino specifiche e decidano, spesso meglio di noi, quale sia davvero l’acquisto giusto. È una mutazione silenziosa, ma potentissima. Siamo passati dal cliccare compulsivamente su comparatori di prezzo al chiedere a un’intelligenza artificiale: “Qual è il miglior monitor gaming sotto i 300 euro per una setup RGB decente?”. E lei risponde. Subito. Con precisione crescente.

Il dato diventa ancora più affascinante se lo guardiamo attraverso il prisma generazionale, perché il 93% degli under 35 ha utilizzato strumenti AI nell’ultimo anno. E onestamente non sorprende affatto. Chi è cresciuto tra anime come Psycho-Pass, navigatori vocali, chatbot, recommendation engine di Netflix e feed algoritmici di TikTok vive l’intelligenza artificiale come una naturale estensione del quotidiano, non come una tecnologia estranea. Per molti ragazzi della generazione digitale, affidarsi a un assistente AI per trovare il miglior laptop o la promo perfetta su una console non è diverso dal fidarsi di Spotify per una playlist notturna o di Google Maps per evitare il traffico.

La cosa più interessante, però, è capire perché le persone lo fanno. Il 48% degli utenti usa l’AI per risparmiare tempo, che ormai è la vera moneta rara dell’era digitale, mentre il 47% la sfrutta per stanare offerte e promozioni migliori. E qui viene da sorridere, perché in fondo è la stessa dinamica dei gamer che cercano loot rari in una mappa open world: ottimizzare risorse, evitare sprechi, massimizzare rendimento. Solo che al posto di spade leggendarie e armature epiche oggi si cercano smartphone, cuffie noise cancelling, action figure limited edition e GPU introvabili. Subito dopo arrivano il confronto tra prodotti, la ricerca di informazioni più precise, la scoperta di articoli nuovi e persino la personalizzazione dell’esperienza d’acquisto. In pratica, l’AI non ci sta solo aiutando a comprare: sta riscrivendo il modo in cui desideriamo gli oggetti.

E qui entra in scena un protagonista che molti di noi hanno già iniziato a usare quasi per gioco, salvo poi accorgersi che il gioco era diventato realtà: ChatGPT. Già dallo scorso inverno OpenAI ha trasformato il suo assistente in qualcosa che assomiglia terribilmente a un personal shopper nerd iper-evoluto. La funzione “shopping research” ha aperto una porta nuova, una specie di marketplace conversazionale dove non devi più perderti tra mille tab aperte come accadeva una volta, ma puoi dialogare con un sistema che ragiona con te, capisce i tuoi gusti, filtra per budget, uso, caratteristiche tecniche e preferenze personali.

Ed è qui che il salto sembra davvero uscito da una serie sci-fi. Non stiamo parlando di un semplice motore di ricerca con filtri avanzati, ma di una chat che ti accompagna nella scelta del prodotto come farebbe quell’amico nerd ossessionato dalle specifiche hardware che tutti abbiamo avuto almeno una volta nella vita. Cerchi una tastiera meccanica silenziosa per scrivere e giocare? Vuoi trovare il regalo perfetto per un fan di One Piece che ha già mezzo catalogo Banpresto in casa? ChatGPT può proporti opzioni, spiegarti differenze, suggerire alternative e persino imparare dai tuoi feedback se clicchi su “più simili” o “non mi interessa”.

Il dettaglio più futuristico, però, è ciò che sta arrivando: Instant Checkout. E qui davvero sembra di assistere alla nascita di una nuova fase del commercio digitale. Presto, per i merchant aderenti, si potrà completare l’acquisto direttamente dentro ChatGPT, senza saltare da una scheda all’altra, senza rimbalzi tra e-commerce, redirect, popup e login infiniti. Dalla domanda iniziale al pagamento finale, tutto avverrà dentro la stessa interfaccia conversazionale. È il sogno cyberpunk dell’assistente AI che non si limita a consigliare, ma agisce. Una specie di NERV commerciale personale, solo meno traumatica e con meno angeli da combattere.

Dietro le quinte, a far girare questa macchina, c’è una versione specializzata di GPT-5 mini addestrata per i task di shopping, capace di analizzare fonti online aggiornate, leggere recensioni, comparare prezzi, interpretare immagini e comprendere schede tecniche anche per categorie complesse come hardware gaming, accessori tech, wearable e prodotti sportivi. E se la memory è attiva, il sistema ricorda pure ciò che hai cercato in passato: se mesi fa parlavi di e-bike o di una postazione streaming, potresti ritrovarti con suggerimenti futuri su upgrade, accessori compatibili e offerte mirate. È una personalizzazione quasi inquietante, ma anche terribilmente comoda.

Naturalmente OpenAI non corre da sola. Google sta spingendo funzioni simili dentro AI Mode, mentre altre piattaforme sperimentano agenti intelligenti capaci di fare da intermediari tra utenti e marketplace. Gli analisti chiamano questo scenario “DoorDash problem”, perché il vero nodo è chi controllerà il rapporto diretto con il consumatore finale. Se l’assistente AI diventa il filtro principale tra brand e acquirente, il potere cambia mani. Non scegli più entrando nel negozio virtuale: scegli passando attraverso un’entità intelligente che decide cosa mostrarti prima.

E mentre i consumatori si godono questo nuovo livello di comodità, i commercianti vivono una pressione crescente. Il 36% degli operatori europei considera l’adozione dell’intelligenza artificiale una necessità assoluta per restare competitivo. E non è difficile capire perché: mentre aumentano costi logistici, concorrenza online, rischi di frode e aspettative di consegne rapide, chi non integra sistemi AI rischia semplicemente di restare indietro. Matthew Trattles di Packlink lo dice chiaramente: non si tratta più di chiedersi se adottare l’AI, ma di capire come farlo in fretta e bene.

La verità è che siamo dentro una soglia storica simile a quella vissuta con la nascita del web commerciale. Solo che stavolta il cambiamento corre più veloce, perché ha già imparato dai propri errori. Entro il 2030, tra il 70 e l’80% di consumatori e merchant si aspetta che gli agenti AI diventino parte integrante dell’esperienza d’acquisto. Tradotto in linguaggio pop: stiamo entrando in quell’epoca che per anni abbiamo visto immaginata nei romanzi cyberpunk, negli anime distopici e nelle utopie tecnologiche dei manga sci-fi.

E allora la vera domanda resta sospesa, più intrigante di qualsiasi benchmark: in un mondo dove l’intelligenza artificiale saprà già cosa vogliamo comprare prima ancora che lo cerchiamo, resterà spazio per il piacere caotico della scoperta casuale, per quell’acquisto impulsivo trovato alle tre di notte dopo aver aperto una tab “solo per curiosità”? Forse sì, forse no. Ma qualcosa mi dice che questa partita è appena cominciata, e noi siamo ancora al tutorial.

Ray Gunn: il ritorno visionario di Brad Bird tra noir cyberpunk, alieni e detective del futuro

Brad Bird appartiene a quella rarissima categoria di autori capaci di far percepire ogni nuovo progetto come un evento, non semplicemente come un’uscita cinematografica. Il suo nome, per chi è cresciuto attraversando decenni di animazione americana tra il trauma poetico de Il Gigante di Ferro, la perfezione meccanica de Gli Incredibili e l’eleganza narrativa di Ratatouille, porta con sé una promessa quasi mitologica: l’idea che dietro l’angolo possa ancora nascondersi un film capace di reinventare il linguaggio dell’animazione mainstream. Ecco perché le prime immagini diffuse di Ray Gunn, il suo attesissimo ritorno al lungometraggio animato adulto, hanno provocato quella scossa elettrica che solo certi annunci sanno generare nelle vene della community nerd più navigata.

A colpire, prima ancora della trama, è il fatto stesso che Ray Gunn esista davvero. Per anni questo titolo ha avuto il sapore dei progetti fantasma, di quelle opere leggendarie sospese in una dimensione quasi apocrifa, citate nelle interviste, sussurrate nei forum di appassionati, rimandate da un’industria che troppo spesso teme l’ambizione. Brad Bird aveva concepito questa storia addirittura negli anni Novanta, immaginandola come un noir futuristico ambientato in Metropia, una megalopoli rétro-futurista che sembra uscita da un sogno condiviso fra Raymond Chandler, Moebius e i fondali urbani di Blade Runner. L’idea originale rimase congelata per decenni, travolta dai mutamenti industriali, dalle fusioni societarie e dalle priorità degli studios, mentre Bird passava da un capolavoro all’altro costruendo una filmografia quasi irreale per coerenza e qualità. Eppure Ray Gunn non è mai morto davvero: è rimasto lì, come quei concept mai realizzati che nell’immaginario geek finiscono per diventare ancora più potenti proprio grazie alla loro assenza.

Adesso quel fantasma ha finalmente preso corpo, e lo fa con una configurazione creativa che definire intrigante è riduttivo. Il film arriverà su Netflix entro il 2026, prodotto da Skydance Animation, e già questa collocazione dice molto sul mutamento profondo che l’animazione sta vivendo. Un’opera neo-noir cyberpunk, dichiaratamente adulta, affidata a una piattaforma globale e non a una distribuzione tradizionale da sala, rappresenta un segnale forte: i confini tra cinema d’autore, blockbuster animato e sperimentazione di genere stanno saltando, e Bird sembra intenzionato a sfruttare proprio questa libertà per spingere il mezzo in territori poco battuti.

La premessa narrativa ha il fascino irresistibile delle grandi collisioni di immaginari. Raymond Gunn, ultimo detective umano in un mondo abitato da alieni e terrestri, si muove fra omicidi, complotti e scandali che coinvolgono Venus Nova, superstar planetaria dal volto e dalla voce di Scarlett Johansson, diva pop la cui immagine pubblica rischia di implodere trascinando con sé segreti ben più oscuri di un semplice gossip galattico. Sam Rockwell presta la voce al protagonista, e francamente è difficile immaginare casting più centrato: Rockwell possiede quella miscela perfetta di ironia sghemba, malinconia da perdente di lusso e carisma jazzistico che un detective privato del futuro richiede quasi per statuto genetico. Se poi qualcuno, vedendo il character design di Ray, ha pensato che il personaggio sembri scolpito addosso al suo interprete, non è il solo. E sì, diciamolo chiaramente: se Bird non inserisce almeno una scena in cui Rockwell/Ray si lascia andare a uno di quei suoi movimenti da ballerino nato, sarà una delle occasioni mancate più dolorose del cinema animato recente.

Ancora più affascinante risulta la presenza di Tom Waits nei panni di Eyera, alieno monocolo e alleato fidato del protagonista. Basta pronunciare il nome di Waits per evocare un intero universo sonoro fatto di whisky, ferraglia, locali fumosi e poesia urbana corrosa dal tempo. Inserirlo in un noir spaziale equivale a innestare una vena di autenticità sporca dentro un mondo di neon e astronavi, una scelta che promette scintille. E in fondo è proprio questo che sembra essere Ray Gunn: un’opera costruita sull’attrito continuo fra glamour futuristico e decadimento metropolitano, fra il fascino lucido del pop interstellare e la ruggine emotiva del detective movie classico.

Sul piano estetico, le immagini mostrate finora lasciano intuire una direzione artistica di straordinaria ricchezza. Metropia appare come una città smisurata, stratificata, quasi respirante, figlia tanto del retrofuturismo anni Cinquanta quanto della fantascienza illustrata europea. Da imagineer, abituato a osservare come gli spazi raccontino storie prima ancora dei personaggi, trovo irresistibile questa scelta di Bird di costruire il mondo come un set narrativo totale. Le architetture di Ray Gunn sembrano pensate come attrazioni attraversabili, scenografie che non fanno solo da sfondo ma diventano drammaturgia. Ogni skyline, ogni insegna luminosa, ogni vicolo sospeso sembra promettere un racconto collaterale. È il tipo di worldbuilding che sogni di trasformare in esperienza immersiva, in dark ride noir con pioggia artificiale e jazz cosmico in diffusione overhead.

Poi c’è Matthew Robbins, co-sceneggiatore del progetto, figura leggendaria troppo spesso evocata meno di quanto meriti. La sua presenza accanto a Bird è un dettaglio che agli occhi degli appassionati più attenti pesa enormemente, perché Robbins appartiene a quella generazione di narratori che hanno plasmato il fantastico cinematografico moderno lavorando spesso dietro le quinte, con una sensibilità capace di tenere insieme meraviglia e ombra. La promessa implicita è chiara: Ray Gunn non sarà solo esercizio stilistico, ma racconto stratificato, mystery vero, con personaggi segnati dal peso delle proprie crepe.

Michael Giacchino alle musiche completa un quadro che sa quasi di reunion ideale. Bird e Giacchino insieme hanno sempre generato alchimie straordinarie, e immaginare il compositore alle prese con un noir cyberpunk fa venire in mente una partitura sospesa tra big band intergalattica, synth analogici e malinconia cosmica. Se davvero il film saprà fondere il detective movie classico con la space opera pulp, la colonna sonora potrebbe diventare uno dei suoi elementi più memorabili.

Dietro Ray Gunn si avverte anche una rinuncia significativa: Bird ha scelto questo progetto al punto da allontanarsi dalla regia di Gli Incredibili 3, lasciando il timone a Peter Sohn. Non è un dettaglio da poco. Significa che, fra il ritorno a una proprietà amata e consolidata e la realizzazione di un sogno creativo inseguito per decenni, ha scelto la seconda strada. Una decisione che racconta molto dell’autore e del suo rapporto con il cinema: Bird continua a inseguire ciò che lo inquieta, non ciò che lo rassicura.

Forse la vera ragione per cui Ray Gunn sta già accendendo l’immaginazione collettiva risiede proprio in questo: sembra arrivare da un’altra epoca produttiva, da un tempo in cui i registi custodivano idee per trent’anni pur di farle nascere nel modo giusto. In un panorama dominato da sequel, franchise pianificati al millimetro e algoritmi che misurano perfino il rischio creativo, vedere emergere un film così personale, così ostinatamente fedele alla propria identità, ha qualcosa di profondamente emozionante.

E allora resta da capire se Ray Gunn riuscirà davvero a mantenere tutte le promesse che porta con sé: quelle del noir adulto animato, del cyberpunk con anima classica, del sogno mai spento di Brad Bird finalmente materializzato. Io, da parte mia, continuo a guardare quelle prime immagini con la stessa sensazione che provavo da ragazzo davanti ai concept art mai realizzati dei grandi film perduti: la percezione netta che qualcosa di speciale stia per arrivare. E sono curioso di sapere se anche voi, guardando Metropia prendere forma, avete avuto quella stessa vertigine.

 

Reddit dice addio a r/all: perché la rimozione del feed storico sta facendo infuriare la community

Reddit ha sempre avuto qualcosa che gli altri social non sono mai riusciti davvero a replicare: quella sensazione da sala giochi infinita nascosta dietro una schermata spartana, quasi ostile a chi arriva da Instagram o TikTok convinto che internet debba essere per forza levigato, patinato, addomesticato. Entrare su Reddit, per tanti di noi cresciuti tra forum anime, fansub scaricati di notte e thread chilometrici su quale fosse il miglior arco narrativo di Evangelion, significava infilarsi in un ecosistema ancora selvatico, uno di quei pochi luoghi digitali dove il caos non era un bug ma parte del fascino. E proprio per questo la rimozione definitiva di r/all non è soltanto una modifica tecnica: sembra la fine di un’epoca, uno di quei piccoli terremoti che cambiano il paesaggio senza fare troppo rumore, ma che chi frequenta certi spazi online percepisce subito come una crepa profonda.

Per capire perché tanti utenti stanno reagendo con rabbia bisogna ricordare che r/all non era un feed qualunque. Era una specie di portale dimensionale grezzo e imprevedibile, una homepage anarchica capace di catapultarti in pochi secondi da una discussione su un leak Marvel a una teoria assurda su One Piece, da una notizia geopolitica a una community dedicata ai sintetizzatori modulari o ai meme sui Gundam. Non era “personalizzato”, non cercava di indovinare chi fossi, non ti coccolava con contenuti scelti da un algoritmo paternalista. Ti lanciava addosso internet nella sua forma più pura, contraddittoria e spesso disturbante. Ed era proprio lì il punto.

Reddit, nato nel 2005 e diventato negli anni una specie di gigantesca metropoli fatta di subreddit, ha costruito la sua identità sul principio che ogni nicchia, ogni ossessione, ogni fandom potesse trovare casa. I subreddit sono sempre stati il DNA della piattaforma: mondi autonomi governati da moderatori, regole interne, linguaggi propri. Alcuni sono diventati veri poli culturali, basti pensare a quelli dedicati alla tecnologia, ai videogiochi, agli anime stagionali o ai leak dell’industria entertainment, dove spesso le notizie emergono prima che arrivino sui media tradizionali. Reddit è stato per anni la “prima pagina di internet” proprio perché metteva in collisione queste comunità, lasciando che il traffico delle idee scorresse in modo meno filtrato, meno ingabbiato.

La cancellazione di r/all arriva dentro una trasformazione più ampia e, per certi versi, inevitabile: Reddit vuole somigliare sempre di più alle piattaforme moderne, più pulite, più profilate, più prevedibili. L’azienda lo dice apertamente: l’obiettivo è semplificare l’esperienza utente e renderla più pertinente agli interessi personali. Tradotto nel linguaggio di chi vive online da abbastanza tempo da ricordarsi Digg e i forum phpBB: meno esplorazione casuale, più feed cuciti addosso come Netflix fa con le serie e Spotify con le playlist. Il problema è che Reddit non è mai stato amato per la sua capacità di servirti esattamente ciò che già vuoi. Era amato perché ti faceva inciampare in ciò che non sapevi ancora di volere.

La differenza tra r/popular e r/all, per chi non mastica Reddit quotidianamente, può sembrare minima, ma non lo è affatto. r/popular resta il feed ufficiale per scoprire i trend del momento, ma è filtrato, più ripulito, più prudente. r/all invece conservava quella ruvidità quasi archeologica: raccoglieva contenuti da tutta la piattaforma con meno mediazioni, escludendo il materiale esplicito ma lasciando passare anche post NSFW non pornografici, discussioni borderline, contenuti meno addomesticati. Era il feed dove internet manteneva ancora un margine d’imprevedibilità.

Ed è qui che si inserisce la frattura emotiva con la community. Reddit non è TikTok, non è Facebook, non è una piattaforma dove la gente arriva solo per consumare clip veloci e scorrere passivamente. Reddit è sempre stato un luogo identitario, quasi tribale, dove gli utenti si percepiscono parte di una cultura partecipativa. Togliere r/all, per molti, equivale a smontare un pezzo di memoria collettiva. Le proteste esplose dopo l’annuncio lo raccontano bene: il timore dominante non riguarda solo la nostalgia, ma la paura concreta che diventi più difficile scoprire nuovi subreddit, passioni sconosciute, comunità eccentriche. In altre parole: che Reddit perda quella sua natura da dungeon crawler digitale e si trasformi nell’ennesimo corridoio algoritmico.

La cosa più ironica, se ci pensi, è che questa battaglia arriva in un momento storico in cui il web sembra ossessionato dalla personalizzazione estrema. Ogni app vuole prevedere i nostri gusti prima ancora che li formuliamo. Le AI suggeriscono musica, film, acquisti, perfino amici. Eppure chi frequenta Reddit da anni sa benissimo che una parte della magia online nasce dall’errore, dalla deviazione, dall’imbattersi per caso in un thread assurdo alle due di notte e restarci intrappolati per ore come accadeva con Wikipedia nei suoi giorni migliori. r/all era uno degli ultimi spazi dove quell’imprevisto sopravviveva ancora.

Reddit ha precisato che il feed non sparirà del tutto per chi usa la vecchia interfaccia desktop, quasi fosse una reliquia nascosta per veterani irriducibili. Ma questa sopravvivenza clandestina somiglia più a un easter egg malinconico che a una vera concessione. Il messaggio è chiaro: il futuro della piattaforma punta altrove, verso un’esperienza più controllata, più sicura, forse più accessibile ai nuovi utenti e agli inserzionisti, ma inevitabilmente meno anarchica.

E allora viene spontaneo chiedersi se questa scelta non segni qualcosa di più grande della semplice rimozione di un feed. Forse stiamo assistendo all’ennesima metamorfosi di internet da territorio da esplorare a ecosistema guidato, dove il caso viene progressivamente eliminato in nome dell’efficienza. Chi è cresciuto saltando da un forum su Naruto a una board di modding per emulatori lo sente sulla pelle: ogni volta che una piattaforma rinuncia al caos, guadagna ordine ma perde un frammento di anima.

Reddit continuerà a essere Reddit, certo. I subreddit restano, le community pure, le discussioni incendiarie su anime, gaming, AI, cinema e meme continueranno a nascere ogni minuto. Ma senza r/all qualcosa cambia nella percezione stessa della piattaforma. Manca quel corridoio centrale dove tutte le voci, nel bene e nel male, si accalcavano insieme come in una fiera nerd senza mappa.

E forse è proprio questo il nodo che lascia tanti utenti con l’amaro in bocca: non la nostalgia sterile, ma la sensazione che il web stia lentamente chiudendo tutte le sue porte laterali, quelle da cui entravano sorpresa, casualità e scoperta autentica. Chi bazzica Reddit da anni lo sa bene: certe funzioni non sono semplici strumenti, diventano rituali. E i rituali, una volta spezzati, cambiano il modo in cui abitiamo uno spazio.

Da qui in poi resta da vedere se r/popular saprà raccogliere davvero quell’eredità o se nasceranno nuove forme di esplorazione dentro Reddit, magari inattese, magari persino migliori. Ma intanto la domanda resta sospesa, come accade sempre nelle grandi saghe che non vogliono ancora scrivere i titoli di coda: senza r/all, Reddit sarà ancora la stessa arena imprevedibile che ci faceva sentire ogni login come un salto nel multiverso digitale?