Se siete cresciuti con gli X-Men o avete passato notti insonni su Black Mirror, sapete che la telepatia è il “boss finale” dei superpoteri. Per secoli abbiamo provato a leggere i pensieri con metodi discutibili: nell’800 usavano le sedute spiritiche, negli anni ’70 la CIA spendeva milioni nel progetto Stargate sperando che qualche sensitivo riuscisse a spiare il Cremlino fissando intensamente una parete. Spoiler: hanno fallito tutti.
Ma nel 2026, la musica è cambiata. La vera telepatia non è arrivata con l’evoluzione genetica, ma con i modelli linguistici tipo GPT. Sì, esatto: le stesse IA che usate per scrivere le mail quando non avete voglia, ora stanno imparando a tradurre i vostri impulsi cerebrali in testo.
La mappa del tesoro che hai nel cranio
Il trucco sta nel fatto che il nostro cervello è un tipo ordinato (più o meno). Già nel 2016, i ricercatori avevano capito che la nostra corteccia organizza i significati come un’app di mappe: i concetti simili vivono vicini. “Pizza” e “Pasta” sono vicini di casa; “Fisica quantistica” sta in un altro continente.
Nel 2023, uno studio ha dimostrato che se passi 16 ore a sentire podcast dentro una risonanza magnetica (una gioia, immaginiamo), un’IA può imparare a mappare i tuoi pattern cerebrali.
Il colpo di scena? L’IA non “sente” le tue parole, ma capisce il concetto. Mettiamo che tu sia al cinema a vedere l’ultimo attesissimo cinecomic e il tuo cervello stia urlando: “Che boiata atomica, rivoglio indietro i soldi del biglietto!”.
Il decoder dell’IA non scriverà parola per parola la tua recensione brutale. Potrebbe invece produrre qualcosa come: “Lo spettatore sta provando una profonda insoddisfazione per l’esperienza cinematografica e percepisce una perdita di valore”.
Non è un errore, è una parafrasi. L’IA sta leggendo la struttura profonda della tua mente, non solo il dizionario che hai in testa.
Meta ci sta letteralmente entrando in testa
Mentre noi giochiamo con i filtri di Instagram, il team di Meta AI ha fatto il level-up. Hanno smesso di usare la risonanza magnetica (troppo lenta, una scansione ogni due secondi è roba da boomer) e sono passati alla MEG, che cattura l’attività neurale in millisecondi.
L’ultimo arrivato è TRIBE v2, presentato a marzo 2026. Questo modello è stato addestrato su migliaia di ore di dati cerebrali e ora riesce a prevedere cosa stai pensando anche se non ti ha mai “visto” prima. È in grado di ricostruire persino le immagini che stai guardando. Se fissi un cane, l’IA genera l’immagine di un cane. Magari non è lo stesso carlino che hai davanti, ma il concetto è quello.
Dobbiamo iniziare a preoccuparci?
Prima di correre a comprare un cappellino di carta stagnola per proteggere la vostra cronologia di ricerca mentale, calmiamo l’hype. Ci sono ancora dei bei “ma”:
-
Serve collaborazione: Se non vuoi farti leggere il pensiero e inizi a contare le pecore o a recitare la formazione della tua squadra del cuore, l’IA si arrende.
-
Il rumore di fondo: Il pensiero spontaneo è caotico. Senza uno stimolo preciso (come un video o un racconto), l’IA fa ancora molta fatica a capire se stai pensando alla cena o al senso della vita.
-
Hardware ingombrante: Non esiste ancora un’app per smartphone che ti legge la mente. Ti serve ancora un macchinario da qualche milione di euro.
In breve: non siamo ancora alla “Polizia del Pensiero” di Orwell, ma siamo passati ufficialmente dalla magia alla scienza pesante. E la scienza, a quanto pare, parla lo stesso linguaggio di ChatGPT.
Scopri di più da CorriereNerd.it
Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.










Aggiungi un commento