AI generative, tra fuffa, delusioni e prospettive per il futuro

Le intelligenze artificiali generative sono quelle che possono creare contenuti di vario tipo, come testi, immagini, musica e altro. Sono state considerate una grande innovazione, perché possono automatizzare molti compiti che prima richiedevano l’intervento umano. Per esempio, puoi chiedere a una IA generativa di scrivere una poesia, di disegnare un animale o di comporre una canzone.

Però, non tutto è oro quello che luccica.

Alcuni esperti, come i finanziatori Paul Kedrosky e Eric Norlin, dicono che le intelligenze artificiali generative di oggi sono solo una “spazzatura”. Secondo loro, queste IA sono brave a produrre contenuti, ma non capiscono il significato di quello che dicono o fanno. Spesso, danno risposte senza senso, sbagliate o pericolose. Inoltre, non sono in grado di adattarsi al contesto o alle esigenze degli utenti. Questo le rende poco utili nella vita reale.

Un altro problema è che l’automazione dei compiti ripetitivi non ha portato i benefici sperati.

Invece di rendere il lavoro più facile e produttivo, ha creato nuove difficoltà e rischi. Per esempio, ha ridotto le opportunità di lavoro per molte persone e ha aumentato lo stress e la noia per altre. Questo potrebbe avere effetti negativi sull’economia e sulla società.

Le AI e la fuffa Aziendale!

Il mondo delle intelligenze artificiali, dopo mesi di grande entusiasmo e investimenti, sembra ora attraversare un periodo di riflessione. Startup di alto profilo come Inflection AI e Stability AI hanno dovuto affrontare pesanti defezioni nei rispettivi team dirigenti, mettendo in luce le sfide che il settore sta affrontando. Le difficoltà nel trovare modelli di business sostenibili e affidabili stanno generando una certa prudenza tra le aziende che investono in questo settore. L’espansione delle intelligenze artificiali generative, se da un lato ha portato a servizi innovativi come Copilot di Microsoft, dall’altro ha evidenziato problemi di affidabilità e “allucinazioni” nei risultati prodotti dai modelli linguistici su cui si basano queste tecnologie.

Il concetto di “AI washing”, coniato da Gary Gensler della SEC, indica una tendenza delle aziende a sfruttare il termine “intelligenza artificiale” nei report senza una reale base concreta. Anche le grandi aziende stanno faticando a monetizzare le AI, nonostante investimenti massicci, mettendo in luce la necessità di trovare modelli economici efficaci.

La concentrazione del potere in poche aziende, come Microsoft, Google, Meta e Amazon, rappresenta una sfida per le startup più piccole e in ascesa nel settore. Inoltre, le questioni legali legate all’utilizzo di materiali protetti da copyright per lo sviluppo delle intelligenze artificiali stanno creando incertezza e difficoltà nel settore.

C’è ancora la possibilità che le cose migliorino con la prossima generazione di intelligenze artificiali generative.

Questa dovrebbe arrivare tra due anni e sarà basata su nuove tecnologie e modelli. Questa nuova generazione sarà più economica, più specifica e più efficace delle precedenti. Ma per farlo, ci vogliono alcuni cambiamenti importanti.

Per esempio, ci vogliono strumenti migliori per creare e usare le intelligenze artificiali generative. Gli strumenti attuali sono vecchi e non riflettono la realtà di oggi. Bisogna riprogettare tutto da zero, con una visione più moderna e innovativa. Senza questo passo, l’automazione resterà mediocre.

Inoltre, bisogna tenere conto che la prossima generazione di intelligenze artificiali generative non sarà l’ultima. Ci saranno altre ondate di innovazione in futuro. Bisogna essere consapevoli di questo e sapere quali sono i limiti e le potenzialità delle tecnologie attuali. Secondo uno studio di McKinsey, entro il 2030 potrebbe essere automatizzata la metà dei lavori esistenti. Questo avrà un impatto enorme sull’economia e sul mondo intero, creando un valore annuo tra 2,6 e 4,4 mila miliardi di dollari.

Per evitare che l’intelligenza artificiale generativa diventi una delusione, bisogna affrontare alcune sfide. Gli analisti di McKinsey dicono che bisogna gestire i rischi legati all’intelligenza artificiale generativa e determinare le nuove competenze necessarie per i lavoratori. Inoltre, bisogna ripensare i processi aziendali fondamentali, come la formazione e lo sviluppo delle persone. Nuovi paradigmi tecnologici, una governance efficace, etica e pianificazione strategica sono essenziali per garantire un uso corretto ed efficiente dell’intelligenza artificiale. Questo equilibrio delicato rappresenta la vera sfida per il nostro futuro tecnologico.

Uno strumento per identificare le AI generated content su Instagram

Meta sta lavorando a un nuovo strumento per identificare le immagini generate da intelligenza artificiale (IA) che vengono caricate sul social network.

Non c’è ancora un annuncio ufficiale, ma il ricercatore e sviluppatore italiano Alessandro Paluzzi, ha rivelato di aver trovato un nuovo menu nel codice dell’app che mostra un avviso quando viene visualizzato un post con contenuti generati da IA.

L’obiettivo è ridurre la diffusione del deep fake?

L’obiettivo di questa nuova funzionalità potrebbe essere quello di limitare la diffusione di fake news e deep fake, ovvero foto e video falsi che sembrano reali ma che vengono creati al computer, spesso utilizzando chatbot o altri programmi, o almeno avvisare gli utenti con un disclaimer.

Questo aiuterebbe a mitigare polemiche inutili riguardo a contenuti fake casualmente o volutamente diffusi in rete.

Secondo Paluzzi, Instagram potrebbe inviare un messaggio all’apertura di un post creato da IA, che avvisa l’utente della generazione artificiale del contenuto.

Meta, l’azienda madre di Instagram, non ha ancora specificato come riuscirà a individuare questi post, ma questa mossa segue gli impegni presi dalle grandi aziende tecnologiche nei confronti del governo americano nel documento “Ensuring Safe, Secure, and Trustworthy AI” (Garantire un’intelligenza artificiale sicura, protetta e affidabile). Il rapporto si focalizza principalmente sul miglioramento degli strumenti a disposizione dei consumatori per distinguere tra immagini e video reali e quelli creati digitalmente, al fine di evitare truffe e manipolazioni. Paluzzi ha anche scoperto segnali di altri strumenti generativi basati sull’IA su Instagram, come una funzione di riepilogo dei messaggi per creare sintesi delle conversazioni private sulla piattaforma e opzioni di editing per le storie.

Exit mobile version