Avete presente quel vostro amico che parla di film, serie TV e fumetti con una sicurezza incrollabile, per poi scoprire che confonde la Marvel con la DC? Ecco, a quanto pare Google AI Overview è diventato esattamente quel tipo di persona. Solo che, invece di sbagliare il nome del regista di un cinecomic, rischia di darvi consigli medici o ricette degne di un film horror.
Secondo un’analisi condotta dalla startup Oumi e riportata dal New York Times, fidarsi ciecamente dei riassuntini magici di Big G è un po’ come giocare alla roulette russa: una risposta su dieci è sbagliata. Sì, avete letto bene. Il 10% delle volte, l’AI di Google decide che la realtà è troppo noiosa e ne inventa una nuova di zecca.
Allucinazioni e logica da “Trust me, bro”
Il problema non è solo che sbaglia, ma che lo fa con una spocchia invidiabile, spacciando per verità assolute delle vere e proprie follie pescate nel sottobosco di internet (magari da qualche vecchio post troll su Reddit).
Volete un esempio? È diventato leggendario il caso in cui l’AI, interrogata su come far aderire meglio il formaggio alla pizza, ha suggerito con estrema pacatezza di aggiungere della colla vinilica non tossica nell’impasto. O ancora, quando ha consigliato a un utente di mangiare almeno un sasso al giorno per integrare i minerali. Logica impeccabile, se fossi un robot fatto di silicio, un po’ meno se sei un essere umano che vorrebbe arrivare a domani.
In altri casi meno pericolosi ma altrettanto assurdi, il sistema ha citato correttamente istituzioni esistenti per poi sostenere, nella frase successiva, che quelle stesse istituzioni non sono mai esistite. Gaslighting digitale ai massimi livelli.
Il rischio di saltare le fonti
Il vero dramma per noi nerd, che siamo abituati a spulciare fonti, Wiki e database per ore, è che Google AI Overview nasce per assecondare la nostra pigrizia. L’obiettivo è darci la pappa pronta senza farci cliccare sui siti web (uccidendo di fatto il traffico di chi i contenuti li scrive davvero). Ma se il “centravanti” della ricerca smette di passare la palla alle fonti originali e inizia a tirare sempre fuori campo, chi ci rimette siamo noi utenti.
Se si parla di curiosità pop, vabbè, ci facciamo una risata e un meme. Ma quando l’errore tocca temi medici, fiscali o legali, la situazione diventa meno divertente di un reboot non richiesto di una saga cult.
Gemini 3: Meglio, ma non ancora un Pro
I dati parlano chiaro:
-
Con Gemini 2.5, l’accuratezza era dell’85%.
-
Con l’aggiornamento a Gemini 3, siamo saliti al 91%.
Un miglioramento c’è, non lo neghiamo. Ma quel 9% di margine d’errore, su scala globale, si traduce in milioni di bufale generate automaticamente ogni giorno. Un bug di sistema che può influenzare le decisioni reali delle persone. Già tempo fa, diverse ricerche indipendenti avevano avvertito: dare retta a AI Overview sulla salute può essere decisamente rischioso.
La replica di Google: “Noi diciamo di no”
Ovviamente Mountain View non è rimasta a guardare mentre il New York Times smontava il suo giocattolo nuovo. Il portavoce Ned Adriance ha liquidato lo studio dicendo che presenta “gravi lacune” e che non riflette come gli utenti usano davvero il motore di ricerca. Per Google, i loro test interni dicono che va tutto a gonfie vele.
Certo, come no. Nel dubbio, ragazzi, continuate a fare come abbiamo sempre fatto: cliccate sui link, verificate le fonti e non fidatevi mai di chi vi dà una risposta senza spiegarvi da dove l’ha tirata fuori. Nemmeno se è Google. Soprattutto se vi dice di mettere la colla nella margherita
Scopri di più da CorriereNerd.it
Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.










Aggiungi un commento