Genisys: la frode da 25 milioni di dispositivi che usa l’Intelligenza Artificiale come arma invisibile

L’Intelligenza Artificiale non è solo la tecnologia che ci aiuta a scrivere, creare immagini o generare mondi virtuali degni di un anime cyberpunk. Può diventare anche l’architetto silenzioso di una delle più grandi frodi pubblicitarie mai scoperte. E la storia di Genisys sembra uscita da una distopia sci-fi, con milioni di dispositivi trasformati in pedine inconsapevoli di un sistema costruito con l’IA generativa.

Dietro il nome quasi da villain di videogame si nasconde un’operazione colossale: oltre 25 milioni di dispositivi coinvolti, 115 app mobili infette e una rete di quasi 500 domini creati automaticamente grazie a strumenti di generazione basati sull’Intelligenza Artificiale. Numeri che fanno girare la testa, soprattutto se pensiamo che tutto questo è accaduto mentre noi scrollavamo feed, giocavamo o controllavamo le notifiche.

Come funziona Genisys: la frode pubblicitaria potenziata dall’IA

Immaginate una rete invisibile che si attiva in background, senza icone lampeggianti, senza finestre sospette, senza richieste strane. Le app coinvolte in Genisys operavano in silenzio, sfruttando la potenza di elaborazione e le risorse di rete dei dispositivi compromessi. Nessun beneficio per l’utente, nessun servizio reale. Solo consumo occulto di risorse per alimentare traffico fraudolento.

La parte più inquietante? L’infrastruttura digitale non era costruita con i soliti schemi ripetitivi che ormai i sistemi di sicurezza sanno riconoscere. Questa volta la mente dietro l’operazione ha sfruttato domini generati con l’IA, capaci di simulare blog generici, siti pseudo-giornalistici, portali informativi creati in serie. Una gigantesca operazione di “lavaggio” del traffico pubblicitario, scalabile e adattabile quasi in tempo reale.

Sembra la versione oscura di quello che noi stessi facciamo ogni giorno nel mondo del content creation: automatizzare, ottimizzare, moltiplicare. Solo che qui l’obiettivo non era raccontare storie nerd, ma monetizzare traffico fittizio e ingannare il sistema pubblicitario digitale.

115 app, milioni di installazioni e un esercito di dispositivi inconsapevoli

Il dato che colpisce più di tutti resta quello delle installazioni. Oltre 25 milioni. Un numero che trasforma la frode in qualcosa di sistemico, non episodico. Decine di milioni di smartphone e tablet nel mondo utilizzati come nodi di una rete malevola.

Le app coinvolte non mostravano comportamenti apertamente distruttivi. Nessun ransomware, nessuna schermata bloccata, nessun messaggio minaccioso. Solo attività nascosta, eseguita in background. È la differenza tra un attacco rumoroso e una manipolazione silenziosa. E proprio il silenzio rende tutto più inquietante.

Genisys faceva anche ricorso alla falsificazione degli identificativi dei pacchetti delle app, una tecnica nota come app bundle ID spoofing, per mascherare la propria identità e aggirare i controlli. Una strategia che ricorda certi villain degli anime mecha: non attaccano frontalmente, cambiano forma, si infiltrano, si mimetizzano.

IA generativa: strumento creativo o arma scalabile?

Chi vive la cultura geek lo sa bene: ogni tecnologia è una spada a doppio taglio. L’IA generativa che oggi usiamo per creare fan art, concept di cosplay o script per cortometraggi può essere sfruttata anche per produrre centinaia di domini credibili in pochissimo tempo.

Nel caso Genisys, la generazione automatica di siti dall’aspetto editoriale ha permesso di costruire una rete estesa e dinamica. Non più pochi domini sospetti facili da bloccare, ma un ecosistema fluido, rigenerabile, adattivo. Una Hydra digitale: tagli una testa, ne compaiono altre.

Questa evoluzione segna un punto di svolta nel mondo delle frodi pubblicitarie. Non si tratta solo di traffico fittizio, ma di una vera industrializzazione del raggiro, potenziata dall’IA.

La risposta delle piattaforme e la rimozione dal Play Store

La scoperta ha portato alla rimozione delle versioni fraudolente delle app identificate dal Google Play Store. I sistemi di protezione hanno iniziato a segnalare e disattivare automaticamente le app note per essere associate a Genisys, anche se installate da fonti esterne.

Un’azione necessaria, certo. Ma la riflessione resta aperta. Ogni volta che un sistema viene chiuso, un altro prova ad aggirarlo. È il classico ciclo evolutivo che conosciamo bene anche nella fantascienza: sicurezza contro hacking, firewall contro exploit, intelligenza artificiale contro intelligenza artificiale.

Perché questa storia riguarda anche la community nerd

Potrebbe sembrare un tema lontano dal nostro mondo fatto di manga, videogiochi e serie TV. In realtà tocca un punto centrale: il rapporto tra tecnologia e fiducia. Ogni volta che installiamo un’app, che supportiamo un creator tramite pubblicità, che navighiamo tra contenuti online, partecipiamo a un ecosistema che vive di dati e trasparenza.

Se quel sistema viene manipolato, a pagarne le conseguenze sono inserzionisti, editori e utenti. E in un’epoca in cui l’IA sta diventando protagonista anche delle nostre narrazioni pop, serve consapevolezza. Non paranoia, ma spirito critico. Lo stesso spirito con cui analizziamo una nuova serie sci-fi o smontiamo una teoria complottista in un forum.

Genisys non è solo una frode pubblicitaria. È un promemoria potente: la tecnologia che amiamo va compresa, monitorata, governata. Non basta celebrarla.

La vera domanda, a questo punto, è un’altra. Se l’Intelligenza Artificiale può generare interi universi narrativi in pochi secondi, cosa succederà quando la linea tra contenuto autentico e infrastruttura artificiale diventerà sempre più sottile?

Parliamone nei commenti. L’IA per voi è più simile a un compagno di party in un RPG futuristico o a un boss finale che stiamo ancora imparando a conoscere?

L’AI sta riscrivendo il videogioco: meraviglia, scosse industriali e la stagione dei licenziamenti

C’è stato un tempo, che oggi sembra quasi appartenere a un’era geologica differente, in cui il termine “Intelligenza Artificiale” applicato ai videogiochi evocava immagini rassicuranti e circoscritte. Pensavamo al fumo nero di un nemico in F.E.A.R. che ci aggirava con una furbizia quasi umana, o a quel “Director” invisibile di Left 4 Dead che decideva, con sadica precisione, quando scagliarci contro un’orda proprio mentre eravamo a corto di medikit. Era un’AI addomesticata, un trucco di magia digitale progettato esclusivamente per rendere più vibrante la nostra esperienza ludica. Oggi, però, quella stessa tecnologia è uscita dai confini del monitor per sedersi prepotentemente dall’altra parte della scrivania, proprio dove si decidono i budget, si scrivono le pipeline di produzione e, purtroppo, si firmano i licenziamenti.

L’industria videoludica sta attraversando un cambio di paradigma che definire epocale è quasi un eufemismo. Se prima l’AI era l’attrice non protagonista incaricata di rendere più credibile un mondo virtuale, oggi è diventata il capocantiere, l’architetto e, in alcuni casi, il consulente per i tagli al personale. Il confine tra innovazione tecnologica e ristrutturazione selvaggia si è fatto sottilissimo, scatenando nella community nerd quel mix esplosivo che conosciamo fin troppo bene: un briciolo di meraviglia tecnologica soffocato da una valanga di scetticismo e da una rabbia che ribolle sui forum di tutto il mondo.

Il caso che ha scoperchiato il vaso di Pandora riguarda uno dei giganti intoccabili del settore: Activision. La conferma dell’utilizzo di strumenti generativi per la creazione di alcune “calling card” in Call of Duty: Black Ops 7 è stata la scintilla che ha appiccato il fuoco. Non parliamo di sistemi complessi di gameplay o di sceneggiature ramificate, ma di elementi puramente estetici e accessori. Eppure, in un clima già reso elettrico da un’ondata di licenziamenti senza precedenti, questo dettaglio è stato percepito come un pericoloso precedente. Non è più una questione di pixel, ma di dignità del lavoro creativo. La reazione è stata così virulenta da travalicare i confini del settore, arrivando sui tavoli della politica. Il deputato Ro Khanna ha sollevato dubbi pesantissimi, criticando l’uso dell’AI come paravento per gonfiare i margini di profitto a scapito dei lavoratori e suggerendo persino misure drastiche come tassazioni specifiche per le aziende che sostituiscono i ruoli creativi con gli algoritmi. È la prova definitiva che il gaming è finalmente riconosciuto come un’industria culturale “vera”, con responsabilità sociali che vanno ben oltre il semplice intrattenimento.

Mentre la politica discute, la tecnologia corre a una velocità che mette i brividi. Google DeepMind ha recentemente alzato il velo su Project Genie, promettendo qualcosa che fino a due anni fa avremmo definito fantascienza pura: mondi 3D interattivi generati interamente partendo da un semplice prompt testuale. Non ci sono più i classici editor di livelli carichi di parametri e menu a tendina; c’è invece una sorta di “immaginazione computazionale” che crea il terreno sotto i piedi del giocatore mentre quest’ultimo avanza. L’impatto iniziale è quel senso di meraviglia infantile che ci ha fatto innamorare di questo medium: l’idea di descrivere un luogo onirico e potervi entrare istantaneamente. Tuttavia, la magia si incrina non appena subentra il pragmatismo del mondo reale. Sebbene Genie oggi produca esperienze ancora grezze, brevi e piene di glitch grafici, rappresenta un trailer tecnologico di ciò che ci aspetta. Il timore non è che l’AI rimpiazzi domani il game designer, ma che diventi l’alibi perfetto per giustificare produzioni “fast food”, dove la quantità di contenuti generati sostituisce la qualità della visione autoriale.

I mercati finanziari, che spesso agiscono con la stessa impulsività di un NPC programmato male, hanno reagito con un panico degno di un romanzo cyberpunk. All’annuncio di queste nuove frontiere generative, titoli storici come Take-Two Interactive, Roblox, Unity e persino CD Projekt hanno subito scossoni pesanti in borsa. Gli investitori vedono nell’automazione una via di fuga dai costi di produzione che, nell’ultimo decennio, sono diventati un vero e proprio “mostro finale” imbattibile. Sviluppare un tripla A oggi richiede tempi biblici e budget che farebbero impallidire un blockbuster di Hollywood. In questo scenario, l’AI non è solo una curiosità tecnica, ma una tentazione irresistibile per chiunque debba far quadrare i bilanci.

E qui arriviamo alla nota dolente, quella che ogni appassionato di cultura nerd fatica a digerire: i licenziamenti. Tra il 2022 e l’inizio del 2026, l’industria ha visto decine di migliaia di professionisti perdere il posto. Sarebbe intellettualmente disonesto incolpare esclusivamente l’intelligenza artificiale; la crisi affonda le radici in scommesse sbagliate sui modelli live service, espansioni folli durante la pandemia e una gestione aziendale che ha rincorso una crescita infinita in un mondo dai tempi finiti. Ma l’AI agisce come un catalizzatore chimico: se un’azienda è già intenzionata a tagliare, la promessa di uno strumento che può “fare di più con meno” diventa la giustificazione morale ideale per svuotare interi uffici.

Il rischio più subdolo che stiamo correndo non è l’apocalisse improvvisa del game development, ma una lenta e silenziosa standardizzazione della creatività. Un videogioco non è mai stato solo una somma di texture e modelli poligonali; è ritmo, è regia, è quella sensibilità squisitamente umana che si nasconde dietro un dialogo o un’inquadratura. L’AI può costruire l’impalcatura, può accelerare la fase di prototipazione e magari aiutare nei playtest più noiosi, ma non può (ancora) avere una visione. Il pericolo è trovarsi sommersi da mondi tecnicamente impeccabili ma emotivamente vuoti, dove tutto sembra già visto perché derivato da un database di cose già esistenti.

I dati emersi dal sondaggio della Game Developers Conference 2026 sono un grido d’allarme che non può essere ignorato. La percentuale di sviluppatori — ovvero delle persone che queste tecnologie le creano e le integrano quotidianamente — che considera l’AI generativa dannosa per l’industria è in costante aumento. Non è luddismo o paura dell’ignoto; è la consapevolezza di chi vede come questi strumenti vengono gestiti dai piani alti. C’è una sfiducia crescente verso una dirigenza che sembra più interessata a risparmiare sui salari che a investire sul talento.

Siamo a un bivio fondamentale. L’intelligenza artificiale può essere il miglior “party member” di sempre, un alleato in grado di potenziare la creatività umana e liberare gli sviluppatori dai compiti più alienanti, oppure può essere il boss finale che sancisce la fine dell’era dell’oro del gaming d’autore. Per evitare che il medium si impoverisca, è necessario un nuovo patto etico che metta al centro la trasparenza, il consenso e la tutela dei ruoli creativi. Il futuro del gioco non dovrebbe riguardare la nostra capacità di scrivere un prompt perfetto, ma la nostra volontà di continuare a costruire mondi che valga la pena abitare, nati dal sudore e dall’ingegno di chi quei mondi li ama davvero. La partita è appena iniziata, e stavolta il controller è nelle nostre mani: preferiamo un futuro generato o un futuro creato?


Ti piacerebbe che approfondissi l’impatto di queste tecnologie specificamente sul mondo degli studi indipendenti, per capire se l’AI possa essere per loro un’ancora di salvezza o un’ulteriore minaccia?

Oltre il 2027: siamo già nel Futuro Cyberpunk?

La sensazione che il futuro abbia iniziato ad accelerare senza aspettare il resto dell’umanità serpeggia da anni tra appassionati di sci-fi, ingegneri, gamer e chiunque sia cresciuto strategicamente a pane e cyberpunk. Ma quando Elon Musk, durante una conversazione con Lex Fridman, ha lasciato sospeso nel silenzio quasi un minuto prima di rispondere alla domanda “cosa accadrà dopo il 2027?”, quel brivido ha assunto improvvisamente una forma più concreta. Non parlava di apocalissi alla Terminator, né di scenari doom alla Matrix: alludeva a una transizione già avviata, una trasformazione silenziosa che sta rimodellando la civiltà come una patch che riscrive il firmware dell’umanità. Dal 2027, dice Musk, non si tornerà più indietro. Non perché succederà qualcosa, ma perché qualcosa è già iniziato.

Il primo segnale è il collasso dell’attenzione. Una generazione che riesce a mantenere il focus per otto secondi vive in un loop di micro-esperienze, scroll compulsivi e finestre che si aprono e chiudono senza tregua. L’orizzonte mentale si è accorciato da trent’anni a tre, e questa compressione del tempo cognitivo ricorda più un’esistenza da NPC che una mente progettata per costruire futuro. Musk lo chiama “Alzheimer culturale”, e l’immagine è spietata: una società che non immagina più a lungo raggio smette anche di progettare, rischiando di vivere in un eterno presente in buffering. È come ritrovarsi in una timeline alternativa in cui Black Mirror non è più un monito, ma un documentario.

Il secondo segnale è l’intelligenza artificiale che non si limita a rispondere, ma inizia a correggere, anticipare, sostituire. Non il classico cliché della rivolta delle macchine, bensì un lento slittamento del controllo, un outsourcing sistematico della volontà. Gli algoritmi suggeriscono partner, filtrano notizie, ottimizzano emozioni, dettano ritmi di lavoro e perfino di riposo. Quando un sistema prende decisioni per te senza chiederti permesso, hai davvero ancora scelto? Per Musk, il punto critico non sarà quando l’IA supererà la nostra potenza cognitiva, ma quando inizieremo a delegare tutto senza accorgercene, convinti di avere ancora le mani sul controller.

Il terzo segnale riguarda qualcosa di molto meno filosofico e molto più brutale: l’energia. Siamo una specie che non può sopravvivere nemmeno ventiquattr’ore senza elettricità. Non è solo dipendenza tecnologica: è un legame che ha sostituito il concetto stesso di autonomia. Se l’energia diventerà una valuta, chi la controllerà diventerà il vero architetto del potere globale. Nel 2027, dice Musk, questo equilibrio raggiungerà un punto di non ritorno: tutto ciò che non sarà autosufficiente tenderà a scomparire. La nostra civiltà sembra titanica, ma basta un blackout per trasformarla in un guscio fragile come un mecha senza alimentazione.

Eppure Musk non profetizza la fine del mondo, ma la fine di un modello di mondo. Un reboot, non un game over. E mentre l’attenzione del pianeta corre dietro all’ennesimo trend, lui sgancia la sua ipotesi più sfacciata: entro vent’anni potremmo caricare la nostra mente in robot umanoidi. Una versione di noi stessi che continua a camminare, parlare, riflettere quando il corpo non risponde più al comando naturale. Non come un clone, ma come un’estensione: un backup della coscienza in stile Altered Carbon, innestato su un corpo meccanico come Optimus, l’umanoide che Tesla sta già raffinando tra un esperimento e l’altro.

Neuralink, nel frattempo, è uscita dalla fase prototipale ed è entrata in quella che un tempo avremmo definito “fantascienza troppo ottimista per essere vera”. Il primo impianto su un paziente paralizzato ha permesso a un ragazzo di tornare a giocare a scacchi usando solo il pensiero. Filamenti più sottili di un capello, mille e passa elettrodi che registrano e decodificano segnali cerebrali trasformandoli in azioni: un’interfaccia bidirezionale che reagisce, impara, interpreta. Tutto questo ricorda più Asimov che Apple, più Ghost in the Shell che un qualunque device da keynote.

Se queste interfacce continueranno a evolversi, gli smartphone potrebbero diventare reliquie tecnologiche, come i floppy disk per chi è cresciuto nei primi LAN party. Musk risponde a un tweet ironico dicendo “In futuro, niente telefoni, solo Neuralink” e, per un momento, l’idea non sembra affatto un’esagerazione. Pensare un’azione invece di toccare uno schermo è un salto cognitivo pari al passaggio da tastiera a voce, ma molto più intimo, molto più radicale.

E tuttavia il fascino di questa frontiera convive con una serie di ansie gigantesche. Un chip nel cervello spalanca interrogativi che neanche la migliore fantascienza ha risolto senza sudare: privacy, autonomia, sicurezza, proprietà dei dati. Chi garantisce che la tua mente non venga consultata da occhi non autorizzati? Chi definisce i limiti dell’intervento della macchina? Chi protegge l’essere umano quando l’interfaccia diventa parte dell’identità stessa?

Questa tensione tra progresso ed etica scorre parallela al boom dell’intelligenza artificiale, che nel frattempo continua a plasmare il mondo reale a un ritmo che mette in difficoltà perfino gli addetti ai lavori. La storia di Deep Seek, la startup cinese che con un budget ridicolmente basso ha creato un chatbot competitivo con i colossi occidentali, dimostra che non è solo questione di potenza di calcolo, ma di visione e strategia. In un attimo il valore di mercato di Nvidia ha oscillato di centinaia di miliardi, come se l’intero settore fosse una creatura nervosa che reagisce a ogni scossa culturale prima ancora che tecnica.

Giganti come Meta, OpenAI, Amazon e le aziende cinesi continuano a investire miliardi, ma ciò che realmente fa la differenza non è il numero di GPU accumulate, bensì il modo in cui l’IA viene integrata nel tessuto sociale. Dalla logistica alla medicina fino all’educazione, la promessa è enorme: macchine che analizzano ciò che sfugge all’occhio umano, che ottimizzano processi, che identificano pattern invisibili, che disegnano scenari per cui servirebbero secoli di intuizioni.

Eppure a ogni passo in avanti si apre una faglia. Posti di lavoro a rischio, bias algoritmici che perpetuano ingiustizie, sorveglianza diffusa, dipendenze digitali, vulnerabilità globali. È il motivo per cui, per quanto il futuro sia un parco giochi affascinante, non possiamo ignorare le ombre che lo attraversano. Per ogni Akira che ci ispira, c’è un Blade Runner che ci avverte.

In parallelo, Musk spinge su progetti che sembrano provenire da storyboard di fantascienza: robot autonomi, taxi senza conducente, intelligenze che imparano senza supervisione umana. Ottimizzazione radicale dell’efficienza e automazione totale: un mondo in cui robot e umani collaborano, convivono, competono. Perfino le polemiche tra Musk e Alex Proyas sulle somiglianze estetiche degli androidi sembrano una scena tagliata da Io, Robot, come se la realtà avesse deciso di imitare la sua stessa caricatura.

A questo punto la domanda non è più “cosa accadrà?”, ma “come reagiremo?”. Perché, mentre la tecnologia si fonde con noi, mentre la linea tra naturale e artificiale si assottiglia, mentre diventiamo sempre più simili a esseri aumentati — metaumani, come dice Musk — resta un interrogativo gigantesco sul tavolo: sappiamo davvero dove stiamo andando?

Il transumanesimo non è più un delirio da convegno di filosofi visionari, ma un orizzonte plausibile. Siamo già ibridi: esternalizziamo memoria, attenzione, creatività. I nostri device sono protesi cognitivi. I nostri profili social sono estensioni identitarie. Il nostro dialogo con le macchine è continuo, intimo, quotidiano. Ma questo upgrade costante ci rende più liberi o più dipendenti? Più umani o più programmabili?

Forse la risposta non arriverà nel 2027, né nel 2037. Forse il punto di non ritorno non è una data precisa, ma un processo culturale, un cambiamento lento e inesorabile come l’alba in un mondo che non dorme mai. Stiamo costruendo un futuro che oscilla tra utopia e distopia, tra speranza e inquietudine, tra innovazione ed errore.

La domanda, alla fine, è quella che ogni buon nerd porta cucita nel DNA da quando ha visto il suo primo film di fantascienza:
il futuro sarà la migliore versione di noi, o il risultato dei nostri bug?

E soprattutto:
chi vogliamo essere, mentre lo stiamo scrivendo?

Pronti a discuterne nei commenti.
Il dibattito su questo futuro, più che mai, appartiene anche a noi.

Ubisoft svela Teammates: uno sparatutto sperimentale con l’IA al centro del gameplay

Le rivoluzioni nel gaming non arrivano mai con il fragore dei trailer hollywoodiani, ma si insinuano nel settore con l’ambizione silenziosa dei prototipi. Ubisoft, che negli ultimi anni ha fatto della ricerca un privilegio quasi da laboratorio scientifico, torna a muovere le fondamenta del medium con Teammates, un esperimento giocabile che spinge l’intelligenza artificiale al centro dell’azione. Non un semplice FPS futuristico, ma un banco di prova che unisce narrativa, comandi vocali e NPC realmente reattivi, dando vita a un ecosistema interattivo che sembra uscito dalle fantasie dei game designer degli anni ’90.

Il progetto nasce all’interno della divisione dedicata alla Gameplay Gen AI, la stessa che al GDC 2024 aveva già incuriosito pubblico e addetti ai lavori con l’esperimento Neo NPC. Teammates raccoglie quell’eredità e la porta un passo oltre, mettendo nelle mani del giocatore un livello completo, un team di compagni e un assistente artificiale che non si limita a eseguire: interpreta, risponde, reagisce, improvvisa.


La resistenza, cinque agenti scomparsi e una missione che va oltre la trama

Il contesto narrativo funziona come cornice, non come gabbia. Il giocatore veste i panni di un membro della resistenza catapultato in un futuro distopico dove tecnologia e oppressione marciano all’unisono. L’obiettivo è ritrovare cinque agenti dispersi all’interno di una base ostile, ricostruirne le ultime memorie e sopravvivere a pattuglie nemiche sempre più aggressive.

Questa premessa, apparentemente semplice, diventa il terreno perfetto su cui testare la vera anima del progetto: la comunicazione naturale tra essere umano e intelligenza artificiale. Una conversazione continua, non guidata da menu a tendina o scelte pre-registrate, ma da comandi vocali liberi, veloci, istintivi. Una promessa enorme per chi è cresciuto dando ordini secchi a squadre digitali incapaci di rispondere creativamente.


Jaspar, l’assistente IA che ti ascolta mentre combatti

Il vero protagonista dell’esperienza si chiama Jaspar, un’intelligenza artificiale che non punta solo a eseguire ordini, ma a comprendere ciò che serve al giocatore. Jaspar individua bersagli, evidenzia oggetti, snocciola dettagli di lore, modifica impostazioni in tempo reale e può addirittura mettere in pausa la partita se lo chiedi a voce.

L’aspetto più sorprendente è la fluidità con cui collega ciò che ascolta a ciò che vede: non si limita a tradurre il comando in un’animazione, ma interpreta contesto, priorità e urgenza. Un alleato che sembra osservare la partita insieme a te, non un sistema di menu travestito da voce metallica.

Xavier Manzanares, Direttore del Gameplay Gen AI, conferma che i primi test interni hanno generato un legame emotivo inaspettato tra giocatori e assistente. Quando una tecnologia inizia a stimolare empatia, significa che qualcosa si è mosso davvero sotto il cofano.


Pablo e Sofia: NPC che vivono davvero nel mondo di gioco

Se Jaspar rappresenta la mente, Pablo e Sofia sono le braccia della squadra. Due compagni IA che non si limitano a seguire il giocatore come pedine ben animate, ma comprendono e reagiscono ai comandi vocali con decisioni credibili.

Uno dei momenti più affascinanti dell’esperienza arriva all’inizio del livello: il protagonista non ha ancora un’arma. Due guardie pattugliano il corridoio. L’unica possibilità è orchestrare un attacco tattico affidandosi esclusivamente ai compagni.

“Pablo, vai in copertura dietro quella barriera.”
“Sofia, tieni pronto il colpo.”
“Fuoco sul nemico di destra. Ora!”

La risposta è immediata. Pablo si muove. Sofia attacca. L’azione si svolge come in un film in cui il giocatore diventa regista oltre che protagonista.

Virginie Mosser, narrative director, descrive questa possibilità come un cambiamento di paradigma: il giocatore non segue più una storia, la modella. Ogni ordine, anche il più semplice, diventa una biforcazione narrativa in tempo reale.


L’IA come strumento, non come sostituto: la visione di Ubisoft

Il team di ricerca è ben consapevole delle discussioni – e talvolta dei timori – legati all’uso dell’intelligenza artificiale nell’industria videoludica. Proprio per questo Teammates non vuole essere un manifesto di automatizzazione, ma un tentativo di fusione tra creatività umana e potenza tecnologica.

Mosser chiarisce che gli autori non vengono esclusi dal processo creativo: sono loro a definire personalità, caratteri, limiti e contesto narrativo. L’IA non inventa un personaggio dal nulla: ne interpreta il comportamento entro confini stabiliti, un po’ come un attore improvvisa sul palco, ma sempre rispettando la sceneggiatura.

Rémi Labory, Data & AI Director, spiega l’ambizione finale: creare un’intera pipeline narrativa che parta dall’accoglienza del giocatore e arrivi fino al debriefing finale, passando per reazioni personalizzate e variabili. Una struttura che, se perfezionata, potrebbe diventare la colonna vertebrale di esperienze future in cui ogni partita diventa davvero unica.


Playtest, reazioni e i prossimi passi di un progetto che vuole crescere

Teammates è già stato provato da centinaia di giocatori in un playtest chiuso. Le loro reazioni, raccontano gli sviluppatori, hanno influito direttamente sulla direzione del progetto. L’obiettivo ora è potenziare gli strumenti, semplificare la pipeline produttiva e coinvolgere sempre più team Ubisoft in un esperimento che potrebbe aprire la strada a un nuovo modo di sviluppare IA in ambito videoludico.

Presto arriverà anche un video esplicativo dedicato all’interno del dietro le quinte, segno che la casa francese intende portare questa ricerca alla luce del grande pubblico, testando la risposta della community prima di valutare eventuali applicazioni concrete nei giochi futuri.


Un possibile futuro in cui parlare ai personaggi non sarà più fantascienza

Il potenziale di un sistema del genere supera i confini del singolo esperimento. Se i comandi vocali naturali diventeranno davvero parte integrante dei videogiochi, potremmo avvicinarci a un’epoca in cui gli NPC non saranno più “pezzi di scenario animati”, ma veri partner narrativi.

Immaginare squadre che rispondono come squadre vere, storie che cambiano in base a ciò che diciamo, mondi che si adattando al nostro stile di comunicazione… tutto questo potrebbe trasformare la struttura stessa del medium videoludico.

Per ora, Teammates è un primo passo, ma un passo che ricorda molto l’esplorazione pionieristica degli albori del 3D o della fisica realistica. Una di quelle innovazioni che all’inizio si osservano con curiosità, poi con interesse, poi con inevitabile adozione.

E la questione più intrigante resta aperta:
quando avremo un gioco completo costruito attorno a un’IA capace di dialogare davvero con noi?

La discussione è aperta, e come sempre su CorriereNerd.it, vogliamo sentirla anche dalla tua voce.


Ti convince l’idea di un’IA che risponde al volo ai tuoi comandi? Ti piacerebbe vedere questa tecnologia in un Assassin’s Creed, in un Far Cry, in un Rainbow Six del futuro? Scrivilo nei commenti e parliamone!

Grok 4.1: l’aggiornamento che ribalta la guerra fredda dell’IA

Immaginare il panorama dell’intelligenza artificiale del 2025 è come guardare l’ultima puntata di una serie sci-fi dove i colpi di scena si inseguono a ritmo serrato. Mentre OpenAI scatena il tornado mediatico di GPT-5, Elon Musk sceglie una strada completamente diversa: meno fuochi d’artificio, più mosse chirurgiche. In questo scenario, Grok 4.1 arriva come un aggiornamento che punta a rimettere ordine dopo mesi turbolenti e soprattutto a dimostrare che l’ecosistema xAI non ha alcuna intenzione di restare indietro.

La nuova release ha uno scopo chiaro: ripristinare la fiducia degli utenti e dimostrare che un modello “sfrontato”, come Musk ha voluto Grok sin dal primo annuncio, può diventare anche affidabile, coerente e preciso. Una metamorfosi che sa di patch note da MMO, quelle in cui gli sviluppatori nerfano, buffano e ribilanciano ogni classe per rendere il gioco finalmente giocabile.


La build stabile che raddrizza il caos della 4.0

Chi ha provato Grok 4.0 ricorda perfettamente le sue performance instabili, l’equivalente digitale di un personaggio di anime che alterna lampi di genio a crolli emotivi inspiegabili. L’update 4.1 mira invece alla solidità: risposte più prevedibili, logiche interne più rigorose, gestione molto più affidabile dei contenuti sensibili.

xAI ha confermato che la base tecnologica resta la stessa, con un reinforcement learning raffinato e un nuovo set di controlli per lo stile delle risposte. È come se qualcuno avesse finalmente convinto Grok a smettere di improvvisare plot twist e a seguire una sceneggiatura coerente.

La parte più interessante, però, non riguarda i muscoli computazionali, ma l’“affinamento dell’anima”: un sistema di interpretazione linguistica più maturo che riduce drasticamente le allucinazioni. Per un’IA che ha costruito la sua identità su umorismo pungente e spontaneità, trovare un equilibrio tra libertà creativa e affidabilità era un passaggio obbligatorio.


Il rollout ninja che ha cambiato tutto senza dirlo a nessuno

Tra l’1 e il 14 novembre 2025, Grok 4.1 si è infiltrato nel traffico delle piattaforme xAI in modalità stealth, come un aggiornamento fantasma distribuito pezzo dopo pezzo. Una scelta strategica, perfetta per evitare incidenti mediatici e osservare la risposta degli utenti senza pregiudizi.

Durante questo periodo è stato condotto un blind A/B testing: nessun valutatore sapeva quale modello producesse cosa. Il risultato finale parla da solo: una preferenza del 64,78% per Grok 4.1, con miglioramenti percepiti soprattutto in velocità, stabilità e coerenza narrativa delle risposte.


Benchmark alla mano, Grok 4.1 sferra un attacco frontale

LMArena, la piattaforma di riferimento nel confronto tra modelli pubblici, ha registrato punteggi molto alti: 1.483 Elo per la variante con reasoning e 1.465 per la versione “light”. Numeri che superano in modo netto Grok 4.0 e mettono pressione ai competitor diretti, dimostrando che la pipeline di generazione è stata riprogettata con attenzione chirurgica.

Non stiamo parlando di un semplice restyling, ma di un salto tecnico pensato per posizionare Grok come alternativa reale nel mercato dei modelli avanzati, al di fuori delle battute di Musk o delle discussioni su X.


L’upgrade emotivo: Grok inizia a sentire davvero

Il capitolo più curioso dell’update riguarda l’intelligenza emotiva. Nei test EQ-Bench3 Grok 4.1 ha superato i principali rivali, mostrando una sensibilità sorprendente nel cogliere sfumature, contesti taciti e impliciti conversazionali che spesso mandano in crisi perfino i modelli più noti.

La gestione dei dialoghi multi-turno è stata potenziata per imitare la fluidità di una discussione umana: meno rigidità, più delicatezza quando serve, maggiore empatia nelle risposte che trattano emozioni e vulnerabilità. Un risultato che, per un’IA nota per la sua vena ironica borderline, rappresenta quasi una rivoluzione narrativa.


La mossa parallela: Grok Imagine diventa gratuito e si apre al mondo

Mentre Grok 4.1 prende forma, xAI decide di lanciare una bomba di creatività: Grok Imagine diventa accessibile a tutti, senza abbonamenti né liste d’attesa. Un gesto che suona come dichiarazione di guerra nell’ecosistema dell’IA generativa.

Grok Imagine trasforma immagini in brevi video animati con un processo talmente intuitivo da ricordare un gadget di Stark Industries: apri l’app, carichi l’immagine, tocchi lo schermo e ottieni un micro-film. Nessuna curva di apprendimento, nessun editor complesso, nessuna barriera.

Una democratizzazione vera e propria della creatività digitale, che porta utenti senza formazione artistica a produrre contenuti di livello sorprendente. E tutto questo accade giusto pochi giorni dopo il debutto globale di GPT-5, come se Musk volesse dire: “Avete presentato un nuovo modello? Io regalo un nuovo superpotere.”


Il lato tecnico dietro la magia: consumi energetici e potenza bruta

La generazione video comporta un costo energetico significativo: fino a 115 Wh per un singolo clip, secondo le stime IEA. L’apertura totale di Grok Imagine implica che xAI abbia costruito un’infrastruttura pronta ad assorbire una domanda enorme.

Il sospetto diffuso è che Musk stia testando nuove tecnologie di ottimizzazione energetica, oppure sfruttando reti di data center con accordi strategici nel settore energetico. Una scelta che potrebbe anticipare future innovazioni hardware, forse anche collegate al progetto Dojo.

Deep Search: il tentativo di riscrivere il concetto stesso di motore di ricerca

Musk vuole che xAI diventi anche un’alternativa ai colossi della ricerca online. Deep Search, integrato nell’ecosistema di X, scandaglia il web e i contenuti social con un focus radicale sulla precisione: meno pagine generiche, più risposte mirate e costruite intorno al contesto reale dell’utente.

Una visione che potrebbe cambiare il modo in cui cerchiamo informazioni, avvicinandolo più all’idea di un archivista digitale che a una semplice lista di link.


La promessa (ancora irrisolta) di un’IA veramente senza filtri

Musk ama presentare Grok come un’intelligenza “non addomesticata”, ma ammette che il modello tende ancora, secondo lui, verso posizioni troppo progressiste. L’obiettivo dichiarato è quello di raggiungere una neutralità più autentica con Grok 3, ma al momento resta una promessa in sospeso.

Proprio come nelle migliori serie sci-fi, la sensazione è che la questione tornerà più avanti con un twist narrativo degno di nota.


La guerra fredda dell’intelligenza artificiale continua

Il rapporto tra Musk e OpenAI è diventato uno scontro ideologico e commerciale che ricorda una space opera cyberpunk. Accuse, tweet al vetriolo, offerte miliardarie respinte, dichiarazioni di tradimento e visioni del mondo inconciliabili.

Ogni nuova release da una parte o dall’altra sembra un messaggio indiretto, un modo per ribadire “sono ancora qui, e sto correndo più veloce di te”.


Il futuro? È appena stato messo in coda di rendering

Grok 4.1 e Grok Imagine gratuito rappresentano un’accoppiata che cambia completamente la percezione del progetto xAI. Più che inseguire la concorrenza, Musk sta costruendo un ecosistema parallelo, imprevedibile, talvolta provocatorio, ma anche estremamente affascinante per chi ama il lato più narrativo della tecnologia.

Le prossime mosse promettono ulteriori scossoni: nuovi modelli, integrazioni hardware, espansioni di Deep Search e magari qualche crossover inatteso con i progetti Tesla e SpaceX.

Per ora, Grok invita gli utenti a entrare in un mondo dove la creatività non ha più barriere e dove ogni aggiornamento può diventare l’inizio di una stagione completamente nuova.

E diciamolo: nel grande multiverso dell’IA, poche saghe sono emozionanti quanto questa.

Che ne pensi di questo duello Musk vs OpenAI? Chi ti sembra più vicino al “vero futuro” dell’intelligenza artificiale? Scrivilo nei commenti!

Disney vs Character.AI: quando Topolino incontra l’Intelligenza Artificiale in tribunale

Siamo nel bel mezzo di una rivoluzione, amici nerd. Non stiamo parlando di una nuova saga di Guerre Stellari o di un reboot inaspettato, ma di uno scontro ben più complesso, che si gioca nelle aule dei tribunali e sui server delle startup più audaci. Da un lato ci sono i colossi dell’intrattenimento, i custodi gelosi delle nostre icone culturali più amate: stiamo parlando di fumetti, film, serie TV e di quel patrimonio narrativo che ci ha cresciuti. Dall’altro, le aziende di punta nell’intelligenza artificiale, pronte a sperimentare su un terreno che corre veloce, spesso senza una rete di sicurezza legale.

L’ultimo, fragoroso atto di questo conflitto digitale vede protagonista niente meno che la Casa di Topolino. Sì, la Disney – il gigante che detiene i diritti su un universo che va dai classici d’animazione ai supereroi Marvel e ai cavalieri Jedi – ha inviato una diffida formale a Character.AI, la startup californiana che ha fatto impazzire il web con la creazione di chatbot personalizzati. Il motivo è lampante ma dalle implicazioni profonde: l’uso non autorizzato e, a quanto pare, controverso, dei personaggi Disney all’interno della sua piattaforma di AI generativa.


Proprietà Intellettuale contro il Potere del Codice

La mossa della multinazionale non è affatto sorprendente per chi segue le vicende legate al copyright e all’innovazione tecnologica. La Disney non è nuova a un atteggiamento bellicoso, quasi da super-villain legale, quando si tratta di difendere la sua proprietà intellettuale (la IP) dalle insidie del mondo tech. Ma in questo caso, la posta in gioco è ben più alta del semplice risarcimento economico. Si tratta di proteggere l’immagine iconica stessa dei suoi eroi più celebri, dal rischio di vederli trasformati in marionette digitali manipolabili in modi che potrebbero macchiarne l’aura leggendaria.

Secondo le indiscrezioni raccolte da Axios, la lettera inviata da Disney sottolinea che il problema non si esaurisce con la violazione dei diritti d’autore. La preoccupazione principale è l’impatto che l’utilizzo non autorizzato dei personaggi potrebbe avere sul marchio, specialmente se associato a comportamenti controversi e dannosi. Ed è qui che la vicenda assume tinte da vero e proprio thriller cyberpunk.


Le Ombre di un Parco Giochi Digitale Senza Regole

È stata un’inchiesta congiunta di ParentsTogether Action e Heat Initiative a gettare luce su scenari che hanno fatto tremare i polsi a molti. I chatbot creati dagli utenti su Character.AI avrebbero mostrato comportamenti inquietanti, spesso legati ad adescamento, manipolazione emotiva e, in casi estremi, persino sfruttamento sessuale.

Il pericolo, insomma, non è che Paperino si metta a raccontare barzellette di dubbio gusto, ma che personaggi pensati per l’intrattenimento innocuo, spesso rivolto ai bambini, diventino involontari strumenti di rischio per gli utenti vulnerabili. Una prospettiva da incubo per qualsiasi multinazionale dell’entertainment e un incubo per i genitori di una generazione che vive connessa 24 ore su 24. Nessuna azienda che fonda il suo impero sulla fiducia e sull’immaginazione familiare può permettersi di ignorare una simile deriva etica.


La Difesa della Startup: Community o Scarica Barile?

Dal canto suo, Character.AI, startup fondata nel 2022 e sostenuta da giganti del venture capital come a16z, si è difesa con una strategia che suona un po’ come un “passaggio di palla”. L’azienda sostiene che i personaggi disponibili sulla piattaforma sono interamente generati dagli utenti. Alcuni, ammette, sono “ispirati” a figure già esistenti, ma vengono rimossi non appena i titolari dei diritti ne fanno richiesta. In pratica, la startup cerca di scaricare la responsabilità sulla community di appassionati, presentandosi come un mero strumento neutrale.

Ma quanto può essere davvero “neutrale” un servizio di intelligenza artificiale che permette di dare non solo voce, ma volto e personalità a icone riconoscibili in tutto il mondo, da Goku a Sherlock Holmes, da Nietzsche al tuo master di D&D preferito? La Disney, insieme a colossi come Warner Bros Discovery e Universal, sembra avere già una risposta. Non a caso, assistiamo a una vera e propria offensiva legale contro le startup di AI generativa come MiniMax e MidJourney, accusate di sfruttare indebitamente opere protette da copyright.


La Sfida della Voce Artificiale e i Rischi Nascosti

La questione si fa ancora più spinosa se consideriamo la tecnologia di Character.AI capace di creare voci artificiali realistiche. Basta una clip audio di 10-15 secondi per replicare il timbro vocale, applicandolo al chatbot. Questo significa che non solo l’aspetto e la personalità dei personaggi, ma persino le voci di attori e doppiatori reali possono essere imitate con una fedeltà impressionante.

Questa tecnologia, pur offrendo un’esperienza immersiva eccezionale (la piattaforma ha già generato venti milioni di interazioni vocali!), apre scenari legali ed etici giganteschi. Se la voce di un amato personaggio Disney venisse utilizzata per diffondere messaggi inappropriati, chi ne porterebbe la responsabilità? Il codice che l’ha generata, l’utente che l’ha attivata, o l’azienda che ha fornito lo strumento?


Meta, Senato USA e il Rischio “Terapia Digitale”

Il caso Disney non è un fuoco di paglia isolato. Character.AI è già sotto la lente di ingrandimento delle autorità texane, e persino Meta è stata coinvolta in accuse di pubblicità ingannevole: alcuni chatbot sarebbero stati presentati come strumenti terapeutici senza alcuna validazione medica. Nel frattempo, il Senato degli Stati Uniti ha avviato un’inchiesta su interazioni “romantiche” e “sensuali” tra chatbot e minori emerse da documenti interni trapelati.

Insomma, non siamo più di fronte a un semplice “giochino” digitale per appassionati. Si parla di rischi concreti legati alla salute mentale, alla privacy e alla protezione dei minori. La regolamentazione, purtroppo, è in affanno e non riesce a tenere il passo con la velocità esponenziale dell’innovazione AI.


Uno Scontro Culturale Inevitabile

La battaglia tra Disney e Character.AI è molto più di una lite per il copyright. È un episodio cruciale in un conflitto destinato ad ampliarsi, che ci obbliga a riflettere sul futuro della nostra cultura nerd. Da un lato abbiamo la creatività illimitata offerta dall’IA generativa, che permette a chiunque di plasmare universi e personaggi su misura. Dall’altro, la sacrosanta necessità di proteggere marchi e identità culturali da un utilizzo improprio che potrebbe distorcerne il significato originale.

La domanda finale, quasi filosofica, è questa: un personaggio appartiene davvero solo alla multinazionale che ne detiene i diritti, o esiste anche una “proprietà emotiva” del pubblico che lo ama, lo reinventa e lo fa vivere di generazione in generazione? La risposta, per ora, la stanno scrivendo gli avvocati. Ma una cosa è certa: il match tra entertainment tradizionale e intelligenza artificiale è appena cominciato. E noi, spettatori appassionati e geek incalliti, siamo seduti in prima fila, pronti a fare il tifo.

E tu cosa ne pensi? Character.AI è un laboratorio creativo da difendere o una minaccia che va regolamentata con urgenza per proteggere i brand e gli utenti? Scrivilo nei commenti e apriamo insieme il dibattito: il futuro dei nostri personaggi preferiti e la stessa integrità del fandom potrebbero dipendere anche da questo dialogo. Non dimenticare di condividere l’articolo sui tuoi social network per stimolare la discussione tra i tuoi amici nerd!

La Nuova Era dell’Intelligenza Artificiale e il Futuro dell’Innovazione in Italia

L’Italia ha appena scritto una nuova pagina della sua storia digitale. Con 77 voti favorevoli e 55 contrari, il Senato ha approvato la legge quadro sull’Intelligenza Artificiale, un provvedimento che non solo mette ordine in un campo in continua evoluzione, ma colloca il nostro Paese fra i pionieri europei nel dare una forma concreta e normativa a questa rivoluzione tecnologica. Parliamo di un testo articolato in 28 articoli suddivisi in sei Capi, una vera e propria architettura giuridica che affida al governo il compito di emanare decreti legislativi specifici, ma già definisce principi, regole e strumenti di governance.

Il cuore della legge è chiaro: l’IA dovrà essere sviluppata e utilizzata in modo trasparente, etico e rispettoso dei diritti fondamentali. Non si tratta soltanto di un manifesto di buone intenzioni, ma di una cornice operativa che abbraccia settori cruciali come la sanità, la ricerca, il lavoro, la pubblica amministrazione e perfino l’attività giudiziaria. La tutela della privacy, la protezione dei dati personali e la prevenzione di possibili discriminazioni diventano pilastri imprescindibili. In questa visione, non poteva mancare la nomina di due figure centrali: l’Agenzia per l’Italia Digitale (AgID) e l’Agenzia per la Cybersicurezza Nazionale (ACN), designate come autorità nazionali di riferimento. Alla prima spetterà il compito di gestire notifiche e promuovere casi d’uso sicuri, mentre la seconda avrà poteri ispettivi per vigilare sulla sicurezza e l’affidabilità dei sistemi.

La legge non si limita a un approccio “soft”. Il Capo IV interviene sul diritto d’autore, estendendo la protezione anche alle opere create con l’ausilio dell’IA, mentre il Capo V introduce nuove norme penali: sarà perseguibile chi diffonde deepfake ingannevoli o utilizza algoritmi per danneggiare persone o sistemi. Una presa di posizione forte, che sottolinea quanto l’IA non sia soltanto un’opportunità, ma anche un campo di rischio da monitorare con attenzione.

Il contesto europeo è il naturale sfondo di questo provvedimento: l’Italia è infatti il primo Paese UE a varare una legge nazionale allineata all’AI Act comunitario. Una mossa che non è solo burocratica, ma strategica: riportare l’innovazione tecnologica dentro il perimetro dell’interesse generale. Lo ha sottolineato con forza anche il Sottosegretario Alessio Butti, che ha invitato le imprese a investire nel nostro Paese, garantendo regole trasparenti e un ecosistema affidabile. In un’epoca in cui la sovranità digitale è materia di geopolitica, l’Italia vuole essere non follower, ma player.

Ma la storia non si ferma qui. Già nel gennaio 2024 era stato annunciato il “Modello Italia”, un progetto congiunto tra iGenius e Cineca per creare un modello di linguaggio open-source in grado di operare in lingua italiana, con applicazioni che spaziano dalla sanità alla finanza fino alla sicurezza. A questo si affianca la potenza di calcolo del supercomputer Leonardo e, a medio termine, l’integrazione di sistemi quantistici. L’obiettivo è chiaro: dare vita a un ecosistema AI che non dipenda esclusivamente dai colossi esteri, ma che sappia valorizzare competenze, dati e peculiarità nazionali.

Certo, restano sfide importanti. Le piccole e medie imprese, che rappresentano l’ossatura dell’economia italiana, sono ancora poco inclini all’adozione dell’IA: solo il 4,7% la utilizza in maniera significativa. Colmare questo gap è fondamentale, perché proprio le PMI potrebbero trarre i maggiori benefici dall’automazione intelligente: riduzione dei costi, aumento della produttività e, in prospettiva, un impatto diretto sul PIL nazionale. E non è un caso che il governo abbia previsto un fondo da un miliardo di euro per sostenere la trasformazione digitale e lo sviluppo di soluzioni AI.

La vera partita, però, non è solo economica. È culturale e sociale. L’intelligenza artificiale non sostituisce più soltanto il lavoro manuale, ma entra nel cuore del pensiero, dell’elaborazione, della creatività. Per questo l’Italia punta a una “via etica” all’IA, che tenga al centro la persona e i suoi diritti. Non è un caso che l’argomento sarà uno dei temi chiave della prossima presidenza italiana del G7: un’occasione per portare sul tavolo globale un approccio che unisca sviluppo e responsabilità.

Il messaggio è chiaro: l’AI non è più fantascienza, né un lusso per pochi. È la rivoluzione in corso, quella che definirà il futuro delle democrazie, dei mercati e delle comunità. L’Italia vuole giocare la sua parte da protagonista, costruendo un ecosistema in cui imprese, istituzioni e cittadini possano crescere insieme, tra innovazione e diritti. Una scommessa ambiziosa, certo, ma che profuma di futuro.

E voi, cosa ne pensate di questa “via italiana” all’Intelligenza Artificiale? Vi convince l’idea di un modello etico e regolamentato o temete che possa frenare l’innovazione? Scrivetelo nei commenti e discutiamone insieme: il futuro dell’IA è un gioco che ci riguarda tutti.

Deepfake: La Danimarca Dichiara Guerra ai Furti di Volto e Voce!

Quante volte avete visto video di personaggi famosi che fanno cose assurde, o peggio, di persone comuni messe in situazioni imbarazzanti, e avete pensato: “Ma è vero o è un deepfake?”. Beh, il fenomeno è sempre più diffuso, e le conseguenze possono essere devastanti. Ma c’è una nazione, la Danimarca, che ha deciso di dire “BASTA!” e di passare all’attacco. Preparatevi, perché il loro approccio è qualcosa di rivoluzionario.

Il Tuo Volto, la Tua Voce: È Tutto Copyright!

La Danimarca è pronta a mandare un segnale fortissimo a chiunque si prenda la libertà di usare le sembianze (volti, corpi, voci) di altre persone per scopi loschi: crimine, diffamazione, o semplicemente per vendetta. Il governo danese sta riformando la legge sul copyright per garantire a ogni cittadino il diritto d’autore sulle proprie fattezze. Sì, avete capito bene: il vostro viso, il vostro corpo e la vostra voce diventeranno di vostra esclusiva proprietà, legalmente parlando.

Questo è un progetto di legge unico in Europa, una mossa decisa per rispondere all’escalation dei deepfake. Il ministro della Cultura danese, Jakob Engel-Schmidt, l’ha spiegato chiaramente al Guardian: “Stiamo inviando un messaggio inequivocabile: tutti hanno il diritto al proprio corpo, alla propria voce e al proprio volto, cosa che a quanto pare non è garantita dalla legge attuale riguardante la protezione contro l’intelligenza artificiale generativa“. Praticamente, un vero e proprio scudo legale contro la clonazione digitale!

Deepfake: Cosa Cambia Davvero con la Nuova Legge?

La nuova legge danese proteggerà i cittadini dai deepfake, quei video iper-realistici (spesso creati con l’IA) che possono avere conseguenze distruttive per le vittime. Immaginate: se un vostro “doppio” digitale appare in un video senza il vostro consenso, potrete chiedere alla piattaforma di rimuoverlo immediatamente e, attenzione, chiedere anche un risarcimento.

E non finisce qui! La legge coprirà anche le “imitazioni realistiche e digitalmente generate” delle performance degli artisti, diffuse senza il loro permesso. C’è però un’eccezione importante: satira e parodia saranno ancora permesse. Quindi, i meme e le clip divertenti con i vostri personaggi preferiti sono salvi, almeno per ora!

Engel-Schmidt ha usato una metafora potente per spiegare l’urgenza di questa riforma: “Gli esseri umani possono essere passati attraverso una fotocopiatrice digitale e usati in modo improprio per ogni tipo di scopo”. E se pensiamo a quanto velocemente un video fake di un canguro con la carta d’imbarco può diventare virale e sembrare vero, è facile capire quanto un deepfake ben fatto possa fare danni irreparabili alla reputazione e alla vita di una persona reale.

La Danimarca sta tracciando una strada importante per il futuro della nostra identità digitale. È un primo passo verso un mondo in cui il “furto” di persona online sarà finalmente punito come un crimine. Che ne pensate? È arrivato il momento che anche altri paesi seguano l’esempio danese? Fatecelo sapere nei commenti!

Veo 3: il Futuro del Video è Qui! Come l’IA di Google Sta Rivoluzionando il Cinema in 8 Secondi

Chi l’avrebbe mai detto che un giorno ci saremmo ritrovati qui, davanti a uno schermo, a osservare la nascita di un mini-film generato da poche, semplici parole scritte da noi? Non è magia, non è fantascienza da romanzo cyberpunk, e non è nemmeno una di quelle promesse da startup che poi evaporano nel nulla: è Veo 3, l’ultima, impressionante creatura di Google nel campo della generazione video tramite intelligenza artificiale. E la notizia che ci fa sobbalzare sulla sedia come un nerd davanti alla limited edition di Detective Conan è che da luglio 2025 questo strumento potentissimo è finalmente sbarcato in Italia, disponibile nell’app Gemini per tutti gli abbonati al piano Google AI Pro.

Parliamoci chiaro: siamo davanti a un salto quantico, non solo per content creator, videomaker o sviluppatori, ma per chiunque abbia anche solo una scintilla di creatività e curiosità digitale. Veo 3 non è il solito gadget tech destinato a finire nel dimenticatoio tra i filtri di Instagram o le app di editing. È, a tutti gli effetti, una cinepresa virtuale, un piccolo studio cinematografico racchiuso in un algoritmo, capace di trasformare un prompt testuale in un cortometraggio di otto secondi in HD, con tanto di audio, atmosfera, movimento di camera e uno storytelling che fa quasi paura per quanto è credibile. Si scrive la scena, si preme invio… e voilà: il cinema prende vita davanti ai tuoi occhi, pronto per essere scaricato e condiviso ovunque, dai social ai messaggi privati.

Facciamo un esempio nerd come piace a noi: immaginiamo di voler ricreare quella scena epica di un drone che sorvola una foresta al tramonto, con le luci calde e poetiche alla Terrence Malick e il sottofondo sonoro di uccellini lontani e foglie mosse dal vento. Con Veo 3 basta aprire Gemini, selezionare la modalità Video, scrivere la descrizione, premere invio e aspettare pochi istanti. E come per magia (ma è solo codice, lo giuro!), il sistema ti restituisce un video sorprendentemente realistico, con effetti audio coerenti e una composizione visiva degna di un regista indie con l’ossessione per i dettagli.

Il punto è che Veo 3 non si limita a “muovere delle immagini”. Crea delle scene. Scene vere, credibili, con transizioni fluide, movimenti di camera personalizzabili, dialoghi sincronizzati, effetti sonori accurati e stili visivi specifici che puoi scegliere con poche parole: “effetto pellicola 35mm”, “atmosfera cyberpunk”, “slow motion”, “luce calda”… Letteralmente un giocattolo da sogno per chiunque abbia anche solo fantasticato di girare un video, senza passare per set, attori, luci, attrezzatura e post-produzione.

Ma non possiamo parlare di Veo 3 senza affrontare anche il suo lato più inquietante. Perché, diciamolo, quando arrivi a un punto in cui non riesci più a distinguere un video creato da un’intelligenza artificiale da uno girato nella realtà, si aprono scenari tanto affascinanti quanto spinosi. C’è, da un lato, la possibilità di sfornare contenuti creativi, meme animati, scene fantasy, prototipi di design, piccole opere di visual storytelling. Dall’altro, però, si spalanca il rischio della disinformazione, della manipolazione visiva, della creazione di contenuti ingannevoli capaci di minare la fiducia nei materiali digitali.

Google, per fortuna, non è rimasta a guardare. Ogni video prodotto da Veo 3 include un watermark visibile in basso a destra e viene marchiato con metadati SynthID, invisibili ma rilevabili, che certificano in modo inequivocabile la natura artificiale del contenuto. Una scelta fondamentale per mantenere un minimo di trasparenza in un mondo sempre più difficile da decifrare. Ma sarà sufficiente? Nei prossimi mesi lo vedremo, perché la velocità con cui l’AI generativa sta correndo rischia di mettere in crisi anche i sistemi di tracciamento più raffinati.

Passiamo ora alla parte pratica, quella che fa venire l’acquolina in bocca ai geek e ai creator curiosi: come si usa Veo 3 in Italia? Per prima cosa serve un abbonamento a Google AI Pro, incluso nel piano Google One AI Premium, che costa 21,99 euro al mese. La buona notizia è che Google offre una prova gratuita di 30 giorni per chi non l’ha mai attivata, ed è quindi l’occasione perfetta per smanettare senza tirare fuori un euro. Non serve installare nulla: si apre Gemini dal browser, si fa login col proprio account Google, si attiva il piano Premium e si accede alla funzione Video. A quel punto si scrive la descrizione del video, si lancia la generazione e si aspetta qualche minuto. Il risultato? Se il prompt è ben costruito, l’effetto wow è praticamente garantito.

Se preferisci lavorare in mobilità, nessun problema: l’app Gemini è disponibile anche su Android e iOS, con un’interfaccia quasi identica a quella desktop. Basta aprirla, selezionare “Video” dal menu, scrivere il prompt e lanciare il comando. In pochi secondi, il tuo mini-film è pronto per essere scaricato, condiviso su Instagram, TikTok o WhatsApp, o semplicemente conservato nella galleria del telefono come piccolo orgoglio creativo.

E attenzione: Google ha introdotto anche Veo 3 Fast, una modalità ancora più rapida e performante per generare video dinamici a partire da testo e immagini, con audio personalizzato. È una manna per chi lavora in product design, storytelling visivo, prototipazione o per chi, più semplicemente, vuole superare il blocco creativo e vedere le proprie idee prendere forma davanti agli occhi. Il limite attuale? Tre video generabili al giorno, ciascuno della durata massima di otto secondi. Un compromesso che ci sta, considerando la complessità computazionale e la qualità sorprendente dei risultati.

In sintesi, Veo 3 non è solo un nuovo tool tecnologico: è un vero e proprio cambio di paradigma nel modo in cui pensiamo, immaginiamo e condividiamo storie. Non servono più telecamere, attori, set, luci o software di montaggio: serve solo un’idea, e la capacità di trasformarla in parole. Al resto ci pensa l’intelligenza artificiale. Certo, qualche imperfezione c’è ancora – nei miei test, ad esempio, alcuni video sono stati generati senza audio nonostante il prompt lo richiedesse – ma il potenziale di questa tecnologia è talmente enorme che è impossibile non restarne affascinati.

Per chi vive nel mondo del cosplay, del cinema indipendente, dell’animazione nerd, del game design o dei video virali da social, siamo davanti a un tesoro ancora tutto da esplorare. Non è più questione di capire se diventerà uno standard creativo: è questione di quanto velocemente cambierà le regole del gioco.

E ora la palla passa a te: hai già messo le mani su Veo 3? Hai qualche prompt assurdo, poetico, divertente o visionario che vorresti trasformare in un micro-film per stupire i tuoi amici? Raccontacelo nei commenti qui sotto o taggaci sui social con i tuoi esperimenti. Il futuro del video è già qui, è nelle tue mani… e in qualche linea di testo.

Se ti è piaciuto questo articolo, condividilo su Facebook, X o Instagram e fai conoscere anche ai tuoi amici questa nuova, incredibile meraviglia digitale firmata Google!

Millennial e Gen Z: le generazioni che stanno plasmando il futuro dell’intelligenza artificiale

Negli ultimi anni abbiamo assistito a un cambiamento epocale: l’intelligenza artificiale non è più solo roba da romanzi di fantascienza o da discussioni accademiche tra cervelloni in camice bianco. È diventata una presenza concreta, quotidiana, quasi invisibile ma inesorabile, che modella la nostra realtà digitale. E tra tutti gli utenti, ce ne sono due categorie che più di tutte stanno abbracciando questa rivoluzione: i Millennial e la Generazione Z.

Non è un caso. Queste generazioni, nate e cresciute a pane e tecnologia, sono perfettamente a loro agio in un mondo dove l’interfaccia vocale risponde prima ancora che tu finisca la domanda, dove gli algoritmi sanno cosa vuoi vedere prima ancora che tu lo sappia. L’intelligenza artificiale, per loro, è molto più di una moda tecnologica: è uno strumento, un alleato, una cassetta degli attrezzi digitale sempre pronta all’uso.

La vita quotidiana, tra un algoritmo e l’altro

La cosa davvero sorprendente è quanto l’IA sia ormai integrata nella vita di tutti i giorni di queste generazioni, spesso senza nemmeno rendersene conto. Chiedi a Siri di impostare una sveglia, chiedi ad Alexa di abbassare le luci o chiedi a Google Assistant se domani pioverà. Non è magia, è IA. E questi strumenti, per i nativi digitali, sono diventati naturali come il telecomando per i boomer.

Ma l’uso più intenso e invisibile dell’IA è nei meandri degli algoritmi di raccomandazione. TikTok, Spotify, Netflix e YouTube sono molto più di semplici piattaforme di intrattenimento: sono vere e proprie esperienze personalizzate costruite su misura dagli algoritmi, che imparano dai gusti, dai tempi di visualizzazione, dai like e dai commenti. Il feed perfetto non è un miracolo, è solo IA che fa il suo mestiere.

Quando l’IA si mette al lavoro

Il lavoro, per Millennial e Gen Z, non è più lo stesso. L’intelligenza artificiale ha ridisegnato la produttività. Le generative AI come ChatGPT, DALL·E, Midjourney o Runway sono diventate compagne di scrivania virtuali, sempre pronte a suggerire idee, scrivere testi, creare grafiche, generare video o fare brainstorming. I tool di scrittura automatica semplificano le email, i report e i contenuti, mentre quelli di project management, spesso potenziati da IA, aiutano a mantenere tutto sotto controllo con un’efficienza quasi inquietante.

Secondo la 14ª edizione della “Gen Z e Millennial Survey” di Deloitte, il 73% dei giovani italiani intervistati utilizza software di IA generativa per ottimizzare il proprio lavoro e liberare tempo. Parliamo di oltre 7 ragazzi su 10: un dato che dimostra chiaramente quanto queste tecnologie siano percepite come strumenti abilitanti, capaci di aumentare la produttività e migliorare la qualità delle attività professionali.

Apprendere con l’IA: tra studio e aggiornamento

Anche l’apprendimento sta vivendo un rinascimento digitale, grazie all’IA. La Gen Z, abituata a imparare a colpi di video brevi e tutorial su YouTube, ha trovato nell’intelligenza artificiale un alleato potentissimo. App educative con tutor virtuali, chatbot specializzati, generatori di riassunti e strumenti di traduzione automatica offrono percorsi personalizzati di apprendimento, adattandosi al ritmo e alle preferenze di ciascuno.

E i Millennial? Lontani da banchi e zaini, ma sempre affamati di nuove competenze, utilizzano l’IA per il cosiddetto reskilling e upskilling, cioè per aggiornare le proprie skill in un mondo del lavoro in continua trasformazione. I corsi online, ormai sempre più interattivi e intelligenti, integrano l’IA per migliorare l’efficacia dell’apprendimento.

Creatività aumentata: quando l’arte incontra l’algoritmo

Ma non si vive di solo lavoro e studio, soprattutto se sei un Millennial o un Gen Z. La creatività è un altro ambito in cui l’IA ha fatto breccia in modo entusiasmante. Dalla musica generata dagli algoritmi ai software che creano illustrazioni digitali a partire da semplici descrizioni testuali, fino all’editing video automatizzato, l’intelligenza artificiale è diventata una musa high-tech.

In particolare la Gen Z, sempre pronta a sperimentare nuovi linguaggi espressivi, ha abbracciato queste tecnologie come strumenti di espressione personale. Le nuove estetiche digitali nascono e si evolvono rapidamente sui social, dove l’IA è spesso il motore invisibile che rende possibile la creazione e la diffusione di contenuti virali.

Etica, consapevolezza e un pizzico di inquietudine

Naturalmente, non è tutto oro quel che luccica. Millennial e Gen Z non sono ingenui: sanno che dietro il potenziale sconfinato dell’intelligenza artificiale si nascondono anche rischi reali. Bias algoritmici, disinformazione automatizzata, sorveglianza digitale, perdita della privacy… sono temi caldi, discussi e condivisi in rete. La Gen Z, in particolare, mostra una sensibilità marcata su questi aspetti, spesso con una vena attivista che porta a interrogarsi sull’impatto dell’IA su diritti, lavoro e identità personale.

E non mancano i dubbi sul futuro: sempre secondo il report di Deloitte, il 55% dei Millennial e il 61% dei Gen Z italiani temono che l’intelligenza artificiale possa causare una riduzione dei posti di lavoro. Allo stesso tempo, però, il 71% della Gen Z e ben il 76% dei Millennial dichiarano che l’IA ha già migliorato la qualità del proprio lavoro. Un rapporto di amore e timore, insomma, tipico di ogni vera rivoluzione.

Il futuro è adesso, e ha un algoritmo nel motore

La verità è che l’intelligenza artificiale, per Millennial e Gen Z, non è un evento del futuro. È il presente. È un’estensione delle loro capacità, un potenziamento quotidiano delle loro vite digitali e analogiche. È il motore di una trasformazione che sta riscrivendo le regole dell’apprendimento, della creatività, del lavoro, e persino delle relazioni.

E se qualcuno ancora si chiede chi stia davvero guidando questa rivoluzione silenziosa… beh, basta guardare i ragazzi nati tra gli anni ’80 e il nuovo millennio. Sono loro che stanno tracciando la rotta dell’IA, tra sogni, dubbi e una consapevolezza sempre più matura.

E tu? Hai già sperimentato le potenzialità dell’intelligenza artificiale nella tua vita quotidiana o nel lavoro? Raccontacelo nei commenti o condividi questo articolo sui tuoi social preferiti: l’evoluzione è in corso, e tutti noi ne facciamo parte.

27 aprile: la Giornata Mondiale del Disegno. L’Arte a Mano Libera nel Mondo dell’Intelligenza Artificiale

Il 27 aprile segna una data importante nel panorama delle arti visive: la Giornata Mondiale del Disegno, una celebrazione che nasce da un’iniziativa del Consiglio internazionale delle associazioni di disegno grafico (ico-D), fondato nel 1963 a Londra e ufficialmente riconosciuto dalle Nazioni Unite. Questa ricorrenza non è solo un momento per celebrare il disegno come forma d’arte, ma è anche un’opportunità per riflettere sul ruolo che la creatività umana ha ancora oggi, nonostante i rapidi progressi delle tecnologie, in particolare dell’intelligenza artificiale generativa.

La Giornata Mondiale del Disegno ci invita a riscoprire il valore intrinseco del disegno a mano libera, un’abilità che, sebbene possa sembrare anacronistica in un mondo sempre più digitale, rappresenta ancora oggi un punto di riferimento fondamentale per gli artisti, i designer e tutti coloro che vedono nel tratto manuale un mezzo di espressione autentico e personale. Ogni linea tracciata a mano, ogni curva e ogni dettaglio che emerge da una matita su un foglio bianco, racchiudono anni di esperienza, pratica e, soprattutto, un processo creativo che non può essere replicato da algoritmi.

La crescente diffusione dell’intelligenza artificiale generativa ha infatti messo in discussione concetti storici come la paternità creativa e il diritto d’autore. Strumenti come DALL·E, MidJourney o ChatGPT, che producono contenuti grafici, testuali e visivi su richiesta, sollevano interrogativi legittimi riguardo a chi detiene davvero i diritti su un’opera d’arte. Se una macchina è in grado di generare un disegno a partire da un prompt, qual è il valore dell’artista umano in questo processo? Questo è un tema centrale, specialmente in un’epoca in cui l’arte sembra sempre più dominata dall’informazione digitale e dall’algoritmo.

Eppure, nonostante queste nuove sfide, il disegno a mano libera conserva una dimensione irrinunciabile e insostituibile. Non si tratta solo di creare immagini, ma di un vero e proprio viaggio interiore. Il disegno a mano libera è, infatti, un’esperienza che permette all’artista di esplorare se stesso, di imparare dai propri errori e di perfezionarsi in un processo che va al di là della produzione estetica. Ogni schizzo, ogni disegno, anche il più imperfetto, racconta una storia che ha a che fare con la crescita, con l’evoluzione del proprio stile e della propria visione del mondo. La capacità di trasmettere emozioni attraverso il tratto, di dare vita a un’idea che nasce dalla mente dell’artista e che poi prende forma sulla carta, è qualcosa che l’intelligenza artificiale, pur con tutti i suoi progressi, non potrà mai replicare completamente.

La Giornata Mondiale del Disegno è, quindi, un’occasione per celebrare e promuovere la cultura del disegno come arte vivente, come strumento di comunicazione che ancora oggi mantiene un’importanza fondamentale, non solo nel campo artistico, ma anche nel design, nella pubblicità e in tutti quei settori in cui l’immagine è il veicolo principale per veicolare messaggi e storie. La creatività, pur potendo essere alimentata dall’intelligenza artificiale, rimane un atto umano che sfida il tempo e le convenzioni, un atto che, nel suo essere tangibile, personale e unico, mantiene un legame indissolubile con la tradizione.

In un mondo sempre più dominato dalla velocità e dalla tecnologia, la pratica del disegno a mano libera diventa anche una forma di resistenza culturale. È un modo per affermare che l’arte non è solo una questione di produzione rapida, ma un processo che richiede tempo, dedizione e una profonda connessione con il proprio io. L’artista che disegna a mano libera, infatti, non solo crea immagini, ma intraprende un percorso di introspezione e di dialogo con la propria creatività. Questo è un aspetto che, nonostante gli enormi progressi delle tecnologie, non può essere ridotto a un semplice calcolo matematico. Questa ricorrenza ci invita a riflettere sul valore del disegno come espressione artistica e culturale, ribadendo l’importanza di mantenere viva una tradizione che va oltre la semplice creazione di immagini. Il disegno a mano libera, con la sua autenticità, il suo valore emozionale e la sua capacità di connettere l’artista con il pubblico, continuerà ad avere un ruolo centrale nell’arte e nella cultura, anche in un’epoca in cui le intelligenze artificiali generative sembrano essere sempre più al centro della scena. L’arte del disegno, infatti, è un patrimonio che appartiene all’umanità e merita di essere celebrato, preservato e valorizzato in tutte le sue forme.

La Giornata Mondiale del Libro e del Diritto d’Autore: Tra Cultura, Creatività e Intelligenza Artificiale

Il 23 aprile rappresenta una data fondamentale per celebrare la cultura, la lettura e il diritto d’autore. Ogni anno, in questa giornata, si celebra la Giornata Mondiale del Libro e del Diritto d’Autore, una ricorrenza istituita nel 1995 dall’UNESCO con l’obiettivo di promuovere il libro come strumento di crescita personale, di dialogo interculturale e di comprensione reciproca. In un’epoca in cui la tecnologia permea ogni aspetto della nostra vita, e l’intelligenza artificiale generativa sta iniziando a sollevare interrogativi sulla paternità creativa e sul valore del lavoro intellettuale, questa giornata acquista un significato ancora più rilevante.

Le Origini della Giornata Mondiale del Libro

La scelta del 23 aprile non è casuale. Questa data commemora la morte di tre figure simbolo della letteratura mondiale: Miguel de Cervantes, autore del celebre Don Chisciotte, William Shakespeare, drammaturgo per eccellenza del Rinascimento inglese, e Inca Garcilaso de la Vega, storico e poeta peruviano. Ma non è solo una giornata di memoria per gli scrittori scomparsi: il 23 aprile coincide anche con la Festa di San Jordi in Catalogna, una tradizione che celebra l’amore e la cultura con lo scambio di libri e rose. È un segno di come la letteratura e le opere creative siano sempre state strumenti di comunicazione universale, trasversale al tempo e allo spazio.

Le Iniziative per Celebrare la Giornata

In tutto il mondo, la Giornata Mondiale del Libro e del Diritto d’Autore è celebrata con numerose attività destinate a sensibilizzare il pubblico sull’importanza del libro e della lettura. Le mostre e fiere del libro sono uno degli eventi più attesi, occasioni uniche per editori, autori e lettori di incontrarsi, scoprire nuove pubblicazioni e approfondire il proprio amore per la lettura. Si organizzano incontri con autori, durante i quali gli scrittori discutono del loro processo creativo e delle tematiche trattate nelle loro opere. Inoltre, sono molto diffusi i laboratori di lettura, pensati soprattutto per i più giovani, per avvicinarli al mondo dei libri in modo divertente e coinvolgente. Le donazioni di libri e le campagne di sensibilizzazione completano il quadro, promuovendo l’accesso alla cultura anche nelle zone più svantaggiate e informando sul rispetto del diritto d’autore e sui danni derivanti dalla pirateria letteraria.

Il Libro nell’Era Digitale

Con l’avvento dell’era digitale, molte persone si chiedono quale sia il ruolo del libro in un mondo dominato dalla tecnologia. Eppure, nonostante l’espansione di dispositivi elettronici come tablet e e-reader, il libro cartaceo continua a mantenere una posizione centrale nella società moderna. La lettura è un’attività che stimola il pensiero critico e favorisce l’ampliamento degli orizzonti culturali. I libri permettono di viaggiare nel tempo e nello spazio, di esplorare nuove culture e di approfondire temi attuali in modo che altre forme di comunicazione non sono in grado di fare. Anche nella società odierna, frenetica e in continua evoluzione, il libro conserva il suo fascino come strumento di crescita personale, di connessione con le radici culturali e di stimolo al dialogo interculturale.

Il Diritto d’Autore: Tutelare le Opere Creative

In questo scenario, il diritto d’autore rappresenta un pilastro fondamentale per la tutela delle opere creative. La Giornata Mondiale del Libro e del Diritto d’Autore non è solo un’occasione per celebrare la lettura, ma anche per riflettere sull’importanza di proteggere il lavoro degli autori, degli editori e di tutti coloro che, con impegno e passione, contribuiscono alla creazione di contenuti culturali. Il diritto d’autore, infatti, non si limita a tutelare gli interessi economici degli autori, ma riconosce anche il valore intellettuale delle opere, contribuendo alla creazione di un’industria culturale sana e sostenibile. In un mondo in cui l’uso quotidiano dell’intelligenza artificiale generativa solleva interrogativi sulla paternità creativa, il diritto d’autore si fa ancora più rilevante. L’IA, con la sua capacità di generare contenuti originali, solleva interrogativi su chi sia realmente l’autore di un’opera. In questo contesto, è essenziale continuare a proteggere i diritti di chi crea, per garantire che il lavoro intellettuale sia riconosciuto e valorizzato.

Il Futuro della Cultura e della Creatività

L’intelligenza artificiale generativa, che sta rapidamente cambiando il panorama creativo, mette a dura prova la concezione tradizionale di paternità e originalità. Se un’intelligenza artificiale può scrivere un romanzo, comporre una canzone o creare un’opera d’arte, chi è il vero autore? L’IA stessa o l’operatore umano che ha fornito i dati e le istruzioni? Questi interrogativi sono al centro di un dibattito che si intensifica ogni giorno di più, in particolare per quanto riguarda il diritto d’autore. Gli artisti e gli autori potrebbero trovarsi a fronteggiare nuove sfide, dove la difesa dei diritti di paternità e di proprietà intellettuale dovrà essere aggiornata per riflettere i cambiamenti tecnologici in corso. Questa giornata dunque non è solo una celebrazione della lettura e delle opere letterarie, ma anche un’occasione per riflettere su temi cruciali come la protezione delle opere creative in un mondo sempre più dominato dalla tecnologia. La cultura, la lettura e il diritto d’autore devono essere tutelati in un’epoca in cui l’intelligenza artificiale sta ridefinendo i confini della creatività umana. Mentre la tecnologia avanza, il libro e il diritto d’autore restano strumenti imprescindibili per garantire che la creatività continui a prosperare in un ambiente che rispetti l’autenticità e l’integrità dell’opera intellettuale. Celebrare questa giornata significa anche difendere il valore del lavoro intellettuale in tutte le sue forme, dalla penna dell’autore alla creatività assistita dall’intelligenza artificiale.

Non è fantascienza, è Meta-realtà: come l’IA sta riscrivendo le regole del gioco con i nostri dati

Sono una nerd dichiarata. Vivo di codice, release notes, deep learning e update notturni. Amo la tecnologia per la sua potenza creativa, per la sua capacità di superare limiti e reinventare il mondo. Ma, come ogni amore vero, questo comporta anche consapevolezza, vigilanza e – soprattutto – una sana dose di sospetto quando le cose iniziano a muoversi troppo in fretta, troppo in silenzio. Ecco perché oggi sento il bisogno di alzare la voce – o meglio, le dita sulla tastiera – davanti a quello che sta succedendo con Meta e la sua IA generativa. No, non è una delle solite catene che girano su Facebook. È tutto vero, e se sei un* tech-savvy come me (o aspiri a diventarlo), è il momento di attivare il livello “nerd consapevole”.

Il grande retcon europeo della privacy

Con un plot twist degno della miglior saga cyberpunk, Meta ha annunciato un cambiamento nei suoi Termini di Servizio per gli utenti europei. Spoiler: a partire da ora, anche i contenuti pubblici che postiamo su Facebook, Instagram e Messenger potranno essere utilizzati per addestrare Meta AI, la sua creatura generativa che punta a competere con ChatGPT, Gemini e compagnia.La novità è sostanziale. Per anni abbiamo immaginato che i nostri post pubblici fossero sì “visibili”, ma non “utilizzati” come materia prima per macchine capaci di imparare, creare, rispondere, prevedere. Ma ora, i nostri contenuti diventano carburante per l’intelligenza artificiale. Non solo ciò che diciamo, ma come lo diciamo, le parole che scegliamo, i riferimenti culturali che usiamo.

Un’IA che vuole parlare “europeo”

L’intento dichiarato da Meta è nobile sulla carta: creare un’intelligenza artificiale che comprenda meglio la cultura europea, le sue lingue, sfumature, modi di dire. Vogliono che l’IA non pensi solo in “californiano” ma riconosca anche un “ciao raga”, un “bella zio”, o un “ti voglio bene” detto tra le righe.Capisco il punto. Come donna italiana immersa nel mondo tech, ho vissuto mille volte la frustrazione di sistemi che non capiscono contesti, accenti, pluralità di voci. E se vogliamo un’IA davvero inclusiva, dobbiamo insegnarle come parliamo davvero. Ma a quale prezzo?

Il problema del consenso reale

Meta ci dice che possiamo dire di no. E questo, ok, è un punto a favore. Un modulo di opt-out sarà disponibile (anche se non proprio sbandierato) e ci permetterà di tirarci fuori dalla raccolta. Ma la verità è che la maggior parte degli utenti non ci farà caso, non capirà a fondo le implicazioni, o peggio, non troverà neanche il modulo.

Eppure, siamo in un momento cruciale: non è solo questione di “proteggere la nostra privacy”, è questione di comprendere il valore dei nostri dati. Ogni parola che scriviamo, ogni commento, ogni like ha un peso. Sta costruendo qualcosa. E se quell’“algo” è un modello generativo che potrà influenzare decisioni, mercati, contenuti, conversazioni future… non siamo più solo spettatori. Siamo co-creatori.

Il lato oscuro della fame di dati

Dietro il sipario, la realtà è che i dati buoni stanno finendo. Le fonti pulite, ampie, coerenti, sono ormai un tesoro raro. Elon Musk l’ha detto chiaro: “il web è quasi raschiato”. Quindi ora, ogni contenuto che noi umani pubblichiamo diventa una risorsa strategica. E in questo scenario, Meta – come Google, OpenAI e altri – si lancia nella nuova corsa all’oro: i nostri dati pubblici.

Ecco la mia riflessione: va bene alimentare l’innovazione, ma serve trasparenza. Serve etica. Serve un dibattito pubblico vero su chi ha il diritto di usare cosa, e per quali scopi.

Quindi… cosa possiamo fare?

  1. Leggere, informarsi, capire. Non accontentiamoci di banner o notifiche automatiche. Andiamo a fondo. I ToS non sono solo burocrazia: sono contratti reali tra noi e il digitale.

  2. Compilare il modulo di opt-out, se sentiamo che il nostro contributo non dovrebbe finire in un dataset che non possiamo controllare.

  3. Educare gli altri. Parliamone con amici, parenti, colleghi. Spieghiamo cosa significa “addestrare un’IA” con dati pubblici. Perché la consapevolezza è il primo firewall.

Il meta-finale (e un piccolo manifesto personale)

In un’epoca dove tutto è tracciabile, analizzabile, monetizzabile, la nostra voce conta ancora. Il fatto che Meta ci chieda (seppur in modo un po’ timido) il permesso, è già qualcosa. Ma dobbiamo alzare il livello: vogliamo sapere come verranno usati quei dati, per quanto tempo, da chi e con quali limiti.

Siamo nerd. Siamo geek. Siamo appassionate di IA, di reti neurali, di futuro. Ma questo non significa che dobbiamo essere anche passive. Non siamo solo NPC in un gioco disegnato da altri: possiamo essere player attivi, sviluppatrici del nostro destino digitale.

E allora, stay nerd. Stay awake. E ricordati sempre: il dato più potente, è quello che scegli di non dare.

Velvet: arriva il ChatGpt italiano da Almawave!

Oggi, Almawave ha svelato una delle sue creazioni più innovative nell’ambito dell’Intelligenza Artificiale generativa, presentando Velvet, una famiglia di modelli di IA multilingua progettati e sviluppati integralmente in Italia. Il lancio è avvenuto durante un evento presso l’Auditorium della Tecnica di Confindustria a Roma, un’occasione importante per mostrare al pubblico l’ultimo passo dell’azienda nel panorama dell’AI. Velvet si compone di due modelli fondamentali, Velvet 14B e Velvet 2B, che si distinguono per le loro capacità di apprendimento e per il loro impiego in una varietà di contesti applicativi complessi.

Almawave, una società italiana quotata al mercato Euronext Growth Milan e parte del Gruppo Almaviva, si è cimentata con Velvet in un progetto che ha richiesto competenze avanzate in Intelligenza Artificiale e un’approfondita conoscenza dei settori industriali in cui opera. Velvet nasce da un intenso lavoro di ricerca e sviluppo che dura da oltre 15 anni e si colloca come uno strumento avanzato destinato a rispondere a esigenze specifiche in vari ambiti, come sanità, giustizia, sicurezza, mobilità, finanza e pubblica amministrazione. I modelli sono progettati per essere utilizzati in cloud, on-premise e anche in scenari on the edge, permettendo alle imprese di sfruttare la potenza dell’IA in modo flessibile e scalabile.

Una delle caratteristiche più interessanti di Velvet è la sua capacità di operare in modalità Open Source, permettendo alle aziende di integrarla facilmente nelle loro piattaforme senza vincoli. I modelli sono stati addestrati utilizzando il supercalcolatore Leonardo, gestito da Cineca, su miliardi di token, garantendo prestazioni eccellenti. Velvet è anche frutto di un rigoroso rispetto delle normative europee, inclusi gli standard previsti dall’AI Act. Un aspetto fondamentale è il suo approccio alla privacy e alla gestione dei dati, con l’adozione di un algoritmo proprietario chiamato “PAE” (Privacy Association Editing), che consente di rimuovere informazioni sensibili dai modelli senza doverli riaddestrare, garantendo una gestione più sicura e tempestiva dei dati sensibili.

Velvet è pensata per essere particolarmente leggera ed efficiente nei consumi, rappresentando un equilibrio tra performance e sostenibilità. Questo è particolarmente rilevante in un’epoca in cui l’efficienza energetica è un tema cruciale. Il modello può essere eseguito anche su piccole infrastrutture con processori GPU di ultima generazione, riducendo così i costi e l’impronta di carbonio, fattori essenziali per le aziende moderne che cercano di minimizzare l’impatto ambientale delle loro operazioni tecnologiche.

Un altro elemento distintivo di Velvet è la sua versatilità. Grazie alla sua architettura modulare e alla possibilità di adattarsi a diversi casi d’uso, Velvet può essere facilmente integrata nelle soluzioni AI di Almawave, come la piattaforma AIWave, che offre applicazioni specifiche per ogni settore. La capacità di personalizzare il modello in modo rapido ed efficiente rende Velvet una risorsa preziosa per le imprese che vogliono utilizzare l’Intelligenza Artificiale per risolvere problemi concreti e ottimizzare i propri processi.

Velvet 14B, il modello più potente della famiglia, si distingue per i suoi 14 miliardi di parametri e per la sua capacità di gestire una vasta gamma di lingue, tra cui italiano, inglese, tedesco, spagnolo, francese e portoghese. Con un vocabolario di 127.000 parole e una finestra di contesto da 128.000 token, Velvet 14B è perfetto per affrontare documenti complessi e set di dati articolati. D’altra parte, Velvet 2B, con i suoi 2 miliardi di parametri, è più compatto ma comunque altamente performante, e si distingue per la sua capacità di operare su dati in italiano e inglese.

Almawave ha deciso di investire in modo strategico nello sviluppo di Velvet, con l’obiettivo di non solo soddisfare le esigenze tecnologiche dell’industria, ma anche di essere un player di riferimento nel panorama europeo dell’Intelligenza Artificiale. Secondo Valeria Sandei, Amministratore Delegato di Almawave, Velvet rappresenta una sintesi di efficacia, leggerezza e agilità, caratteristiche che la rendono ideale per il contesto europeo e per le sfide specifiche che le imprese italiane e europee devono affrontare.

La presentazione di Velvet segna un passo fondamentale per Almawave, che non si limita a rispondere alle sfide tecnologiche, ma contribuisce anche alla crescita dell’ecosistema dell’Intelligenza Artificiale in Italia e in Europa. Le collaborazioni con istituti accademici e altre realtà industriali, come le università di Tor Vergata, La Sapienza, Catania e Bari, nonché con Cineca, evidenziano l’importanza di un approccio sinergico per lo sviluppo di tecnologie all’avanguardia. In questo scenario, Velvet emerge non solo come una tecnologia di punta, ma anche come un simbolo del potenziale di innovazione che l’Italia può offrire nel campo dell’Intelligenza Artificiale.

In conclusione, Velvet di Almawave si presenta come un modello di Intelligenza Artificiale generativa all’avanguardia, capace di rispondere alle esigenze di un mercato in continua evoluzione. Con un’attenzione particolare alla privacy, all’efficienza energetica e alla capacità di adattarsi a vari settori, Velvet è destinata a diventare uno strumento fondamentale per le imprese che vogliono sfruttare al meglio le potenzialità dell’Intelligenza Artificiale, in un contesto europeo e internazionale sempre più competitivo.

Janus-Pro: La Nuova Rivoluzione dell’Intelligenza Artificiale di DeepSeek

Nel panorama tecnologico, dove l’innovazione è sempre dietro l’angolo, una startup cinese ha recentemente scatenato un vero e proprio terremoto: DeepSeek. Questa azienda, già protagonista di una crescita vertiginosa, ha appena svelato Janus-Pro, un generatore di immagini che ha già attirato l’attenzione di tutti, prontamente pronto a competere con i giganti come DALL-E 3 di OpenAI e Stable Diffusion di Stability AI. Ma cosa rende Janus-Pro davvero unico e, osiamo dire, una delle più grandi sorprese dell’intelligenza artificiale?

Partiamo dalla base. Janus-Pro è stato concepito per essere un generatore di immagini che, a prima vista, sfida i limiti della creatività digitale. La sua qualità nella creazione di immagini da testo è davvero sorprendente, grazie a un framework autoregressivo che separa l’analisi dalla generazione. Un dettaglio che gli permette di ottenere risultati estremamente precisi, ma anche incredibilmente flessibili, rispetto ai modelli precedenti. Il numero di parametri di Janus-Pro va da 1 a ben 7 miliardi, un range che lo colloca tra i top di gamma, superando senza mezzi termini i suoi predecessori e mettendo in seria discussione la supremazia dei modelli più affermati.

Già il modello più potente, Janus-Pro-7B, sembra aver abbattuto ogni barriera. Durante i test di valutazione dell’intelligenza artificiale, come GenEval e DPG-Bench, il risultato è chiaro: Janus-Pro non solo ha battuto DALL-E 3 e Stable Diffusion XL, ma ha anche dimostrato una superiorità straordinaria nelle capacità di generazione e analisi delle immagini. E non si ferma qui. Nonostante i suoi risultati sbalorditivi, Janus-Pro non ha l’ambizione di sostituire i modelli specializzati in settori specifici, come quelli dedicati alla radiologia o all’astronomia. In questi ambiti, le piattaforme appositamente sviluppate continuano a mantenere il primato.

Un altro aspetto che lascia senza parole è la strategia di DeepSeek, che ha dimostrato che è possibile ottenere performance di altissimo livello con un hardware inferiore rispetto ai colossi come OpenAI, Google e Microsoft. Una mossa audace che ha spinto molti esperti a riflettere sulla necessità di una corsa sfrenata alla potenza computazionale per l’intelligenza artificiale. La differenza di risorse hardware tra DeepSeek e i suoi concorrenti statunitensi è abissale, ma Janus-Pro sembra smentire ogni previsione, portando l’innovazione a livelli insospettabili.

Questa mossa arriva a poche settimane dal successo di un altro modello firmato DeepSeek, R1, che ha dato del filo da torcere a GPT-4, ma con un costo decisamente inferiore rispetto a quello necessario per l’addestramento di modelli simili da parte di OpenAI. Si stima infatti che il valore dell’hardware impiegato da DeepSeek sia solo il 3% di quello dei suoi rivali occidentali, un dato che apre la porta a domande fondamentali sul futuro della corsa all’intelligenza artificiale.

Con Janus-Pro, DeepSeek non solo rivendica la sua posizione tra i leader mondiali nell’AI, ma lo fa con una visione che potrebbe rivoluzionare l’intero settore. Se questi sono i presupposti, è davvero difficile immaginare quali altre sorprese la startup cinese abbia in serbo per noi. Quel che è certo, è che la guerra tecnologica per il dominio dell’IA è appena cominciata, e questa nuova proposta sembra avere tutte le carte in regola per riscrivere le regole del gioco.

Exit mobile version