OpenAI cambia la sua politica sull’uso di ChatGPT per scopi militari

La società no-profit che ha creato il chatbot più avanzato al mondo ha modificato la sua politica di utilizzo, rendendola più generica e meno restrittiva. La nuova versione non vieta più esplicitamente l’uso di ChatGPT per attività militari e guerra, ma si limita a proibire l’uso del chatbot per causare danno a se stessi o agli altri. Questo potrebbe aprire la porta a nuove opportunità di business per OpenAI, che potrebbe attrarre l’interesse del Dipartimento della Difesa e delle agenzie di intelligence degli Stati Uniti.

ChatGPT è un chatbot basato sull’intelligenza artificiale, capace di generare testi coerenti e persuasivi su qualsiasi argomento, a partire da una parola o una frase. Il chatbot è stato sviluppato da OpenAI, una società no-profit fondata da alcuni tra i maggiori imprenditori e ricercatori nel campo dell’intelligenza artificiale. OpenAI si propone di garantire che l’intelligenza artificiale sia usata per il bene dell’umanità, e per questo ha reso disponibile ChatGPT gratuitamente per uso personale e di ricerca.

Tuttavia, la politica di utilizzo di ChatGPT è stata recentemente aggiornata, e ora è più leggibile, ma anche più vaga e meno restrittiva. Mentre la versione precedente aveva una lista dettagliata di usi proibiti, tra cui attività che possono causare gravi danni fisici, la nuova versione non vieta più esplicitamente l’uso di ChatGPT per attività militari e guerra. Ora, il chatbot è solo proibito di essere usato per causare danno a se stessi o agli altri. Per esempio, ChatGPT non può essere usato per promuovere il suicidio o l’autolesionismo, sviluppare o usare armi, danneggiare gli altri o distruggere la proprietà, e svolgere attività non autorizzate che violano la sicurezza di qualsiasi servizio o sistema.

Questo cambiamento potrebbe suggerire una nuova opportunità di business per OpenAI, visto che il linguaggio usato nei suoi termini di servizio è alquanto vago. Alcuni esperti del settore suggeriscono che la società con sede in California abbia rimosso i termini “militare” e “guerra” dopo aver notato un crescente interesse per la tecnologia da parte del Dipartimento della Difesa e delle agenzie di intelligence degli Stati Uniti. Questi potrebbero essere potenziali clienti per ChatGPT Enterprise, la versione a pagamento del chatbot, pensata per le aziende e le organizzazioni che vogliono usare il chatbot per scopi specifici.

Tuttavia, l’uso di ChatGPT per scopi militari solleva diverse questioni etiche e legali, come la responsabilità, la trasparenza, la sicurezza, e la conformità alle norme internazionali. Chi sarebbe responsabile se ChatGPT causasse danni involontari o intenzionali a persone o proprietà? Come si potrebbe garantire che ChatGPT non fosse usato per scopi illeciti o immorali, come la propaganda, la manipolazione, o la disinformazione? Come si potrebbe proteggere ChatGPT da attacchi informatici o da usi non autorizzati? Come si potrebbe assicurare che ChatGPT rispettasse i principi umanitari e i diritti umani nel contesto bellico?

Inoltre, l’uso di ChatGPT per scopi militari presenta delle sfide tecniche e pratiche, come la qualità, l’affidabilità, e la sicurezza dei testi generati. ChatGPT, infatti, non può pilotare un drone o lanciare un missile, ma potrebbe potenzialmente essere usato per scrivere codice. Data la questione delle allucinazioni, cioè la tendenza del chatbot a inventare fatti o dati non verificabili, ci sono evidenti rischi associati all’uso del chatbot per attività critiche o sensibili.

D’altra parte, l’uso di ChatGPT per scopi militari potrebbe anche avere degli aspetti positivi, come la facilitazione della comunicazione, la semplificazione dei processi, e la generazione di nuove idee. ChatGPT potrebbe essere usato per creare interfacce in linguaggio naturale per i sistemi senza pilota, permettendo ai soldati di interagire con i sistemi usando comandi vocali e linguaggio naturale. ChatGPT potrebbe anche essere usato per generare rapporti, briefing, documenti, e comunicazioni militari, sfruttando la sua capacità di produrre testi coerenti e persuasivi.

Su un piano diverso, il governatore della Pennsylvania ha recentemente annunciato che ChatGPT Enterprise sarebbe stato usato da alcuni dipendenti statali per compiti specifici, come creare e modificare testi, semplificare il linguaggio politico obsoleto, scrivere annunci di lavoro, identificare duplicazioni e istruzioni contrastanti all’interno dei documenti, e supportare la generazione di codice. Questo dimostra che ChatGPT può avere delle applicazioni utili e innovative anche al di fuori del settore militare, e che OpenAI può continuare a perseguire la sua missione di garantire che l’intelligenza artificiale sia usata per il bene dell’umanità.

Microsoft IVAS: occhiali per la realtà aumentata dell’esercito statunitense testati con successo

Microsoft ha consegnato con successo la versione militare delle cuffie HoloLens AR all’esercito statunitense. Gli occhiali per la realtà aumentata sono stati testati da due brigate di soldati, che hanno dato un feedback positivo.

Microsoft ha dovuto perfezionare IVAS dopo che, un anno fa, era stato rivelato che la versione precedente causava ai soldati mal di testa e affaticamento degli occhi.

Il feedback dei soldati dell’esercito americano è stato positivo. I soldati hanno elogiato l’affidabilità, il comfort e le prestazioni degli occhiali AR in condizioni di scarsa illuminazione.

Il Dipartimento della Difesa statunitense ha firmato un nuovo contratto con Microsoft per consegnare un nuovo lotto di IVAS e valutare la capacità dell’azienda di produrre grandi volumi di cuffie.

In caso di successo, l’esercito statunitense ordinerà 121.000 unità IVAS per un valore di 21,9 miliardi di dollari in 10 anni.

Black Mirror: filtrare fuori l’umanità.

L’inquietante serie fantascientifica Black Mirror era in pausa dal 2019. L’ultima stagione, la sesta di Black Mirror, è uscita a giugno scorso. Se siete fan delle rappresentazioni distopiche del decadimento della società e dello squilibrio sociale provocato da una tecnologia che è inquietantemente vicina ad essere reale (o lo è già), potete rallegrarvi! Guarderò i nuovi episodi con voi e non mi sorprenderei se l’informatico Iyad Rahwan si unisse a noi.

Rahwan dirige il Centro per gli esseri umani e le macchine presso l’Istituto Max Planck per lo sviluppo umano, dove, secondo il suo sito web, si concentra sulla comprensione “dell’impatto delle macchine intelligenti sull’umanità”. Data la sua curiosità, sembra inevitabile che Rahwan si ispiri agli scenari fantasiosamente tetri che Black Mirror fa vivere. Ed è proprio così che è nato il suo nuovo lavoro, di cui è coautore insieme allo psicologo sociale Nils Köbis e altri. La ricerca esplora una versione più benigna della situazione che l’episodio di Black Mirror “Uomini contro il fuoco” drammatizza. Come descrivono Rahwan e i suoi colleghi, “i soldati percepiscono il mondo attraverso un filtro AI in tempo reale che trasforma i loro avversari in mostruosi mutanti per vincere la loro riluttanza a uccidere”.

FILTRARE FUORI L’UMANITÀ: una clip tratta da Black Mirror che accenna a come i militari potrebbero alterare la percezione dei soldati utilizzando l’intelligenza artificiale per attenuare l’esitazione e il trauma associati allo sparare alle persone.

I ricercatori ritengono che l’episodio sia una meditazione sull’impatto che la tecnologia di offuscamento dei volti potrebbe avere su di noi dal punto di vista etico e psicologico. Molti di noi, sottolineano, sono già desensibilizzati all’uso di routine di sofisticati filtri che alterano le immagini su app come TikTok, dove gli utenti possono, ad esempio, assomigliare al loro io adolescente o, cosa più controversa, ritoccare il loro aspetto. “Quello di cui non ci rendiamo ancora pienamente conto è che i filtri potrebbero anche cambiare il modo in cui gli altri ci vedono. In futuro, le interazioni metaverse e le interazioni offline mediate da dispositivi di realtà aumentata offriranno infinite possibilità alle persone di modificare il modo in cui vedono il loro ambiente o il modo in cui vedono le altre persone”, scrivono. “In questo lavoro, ci siamo concentrati su una semplice alterazione, che è già facilmente implementabile in tempo reale: sfocare i volti degli altri”.

In tre esperimenti, Rahwan e i suoi colleghi hanno fatto giocare circa 200 persone a 10 round di due giochi online (nello specifico il Gioco del Dittatore e il Gioco della Carità). In ogni gioco, si può scegliere quanto denaro (2 dollari, con incrementi di 10 centesimi) regalare al proprio partner, che tiene il denaro offerto in uno dei round come ricompensa. Nel gioco del dittatore, il giocatore tiene quello che non regala; nel gioco della carità, il Programma alimentare mondiale tiene quello che non regala. In due esperimenti, i ricercatori hanno assegnato a caso ai partecipanti una foto di sé che il partner poteva vedere sfocata o non sfocata. Nel terzo esperimento, i soggetti hanno giocato mentre erano in videochiamata l’uno con l’altro, sempre con il volto sfocato o non sfocato.

Rahwan e i suoi colleghi affermano di aver riscontrato un effetto robusto: Le persone che giocavano con un partner offuscato nel Gioco del Dittatore assegnavano il denaro in modo più egoistico. “Questo risultato è in linea con l’idea che i filtri di sfocatura consentano il disimpegno morale spersonalizzando gli individui con cui interagiamo”, scrivono i ricercatori. Questo risultato supporta anche ricerche precedenti sul modo in cui le IA che interagiscono con gli esseri umani possono influenzare le decisioni morali. In uno studio del 2021, Köbis e Rahwan hanno scoperto che le IA potrebbero agire come “facilitatori di comportamenti non etici” che “possono permettere alle persone di trarre benefici non etici sentendosi bene con se stesse, un’interazione potenzialmente pericolosa”.

I risultati del gioco di beneficenza, tuttavia, sono stati contrastanti. Nell’esperimento video, le persone hanno dato più soldi ai loro partner sfocati che all’ente di beneficenza; nella versione non video, i soggetti hanno fatto il contrario, dando di più all’ente di beneficenza. Cosa succede? “L’interazione sociale con il partner è più pronunciata nel formato video grazie al carattere interattivo e simultaneo”, scrivono i ricercatori, “e potrebbe potenzialmente spiegare l’effetto capovolto”.

Su Twitter, Rahwan ha lasciato intendere che questo è solo l’inizio di una serie di esperimenti. “Questo lavoro fa parte dei nostri sforzi in corso per esplorare il concetto di ‘Science Fiction Science’ (o sci-fi-sci in breve)”, ha detto, “per simulare mondi futuri e poi testare le ipotesi sul comportamento umano in quei futuri”. Restate sintonizzati.

Misfits of Science (serie televisiva 1985)

Sempre per l’argomento serie televisive ormai quasi dimenticate, non solo dal tubo catodico ma anche dal tempo, mi viene alla mente una serie televisiva statunitense, a metà tra la commedia e la fantascienza, dove i protagonisti, grazie a super poteri innati oppure acquisiti, lottano contro i prepotenti per difendere i più deboli. Potrebbe quasi considerarsi una specie di progenitore dal quale hanno tratto spunti altre serie televisive come Heroes oppure Alpha, la serie in questione si intitola “Misfits”.

Uscita negli Stati Uniti nel 1985 prodotta dalla Universal TV con il titolo originale “Misfits of Science”, vennero realizzati 16 episodi compreso il pilot e vennero racchiusi in una sola stagione che poi venne cancellata dalla programmazione. Il tutto gira sulle avventure e vicissitudini dei protagonisti che cercano di uscire dai guai, a volte con la legge, oppure di aiutare gli altri grazie ai loro super poteri, molto spesso con risultati esilaranti. Qui in Italia la serie è stata trasmessa sulle reti locali del circuito Euro TV.

Misfits Of Science - Intro 1

Presso un centro di ricerca privato, la Humanidyne, specializzato nella ricerca sulle anomalie  del genoma umano, oltre a una numerosa equipe di ricercatori, lavorano anche due scienziati, Billy Hayes e Elvin “El” Lincoln, famosi all’interno del centro per la loro metodologia di studio poco ortodossa, durante i loro esperimenti vengono chiamati per esaminare il ritrovamento di un uomo criogenizzato negli anni 30, durante dei lavori stradali, giunti sul posto scoprono che “l’ibernato” si chiama Arnold Biefneiter ed era un operaio che venne ibernato per sbaglio e che per via della lunga esposizione alla “criogenia”, riesce a congelare ogni cosa solo toccandola con le mani e a creare getti a bassa temperatura.

Mentre Billy e Elvin stanno studiando la composizione biologica di Arnold per poter vedere se potevano invertire il processo, il direttore della Humanidyne con l’aiuto di alcuni militari porta via, senza dare nessuna spiegazione ai due scienziati, il corpo di Arnold chiuso in uno scafandro tipo palombaro, verso una destinazione sconosciuta. Le proteste di Billy verso il direttore della compagnia per l’abuso di potere avuto da parte sua e dei militari, danno come unica soluzione il licenziamento immediato di entrambi dalla Humanidyne.

Trovando la cosa poco chiara, i due fanno delle indagini, scoprendo che alcuni ufficiali dell’esercito con la complicità del direttore della compagnia utilizzano le scoperte effettuate per venderle al miglior offerente; purtroppo non avendo prove a sostegno, i due sono considerati alla stregua di millantatori e fuorilegge, e l’unico modo che hanno per uscirne non solo puliti, ma vivi, è cavarsela da soli. Ma Billy ha un’idea e decide di prendere con sé due ex “pazienti” della Humanidyne che nei mesi passati avevano studiato in quanto in possesso di particolari poteri, uno è un musicista rock John “Johnny B” Bukowski, che ha lasciato la vita pubblica perché durante un concerto è stato colpito da una potente scarica elettrica, che invece di ucciderlo gli ha donato il potere di assorbire elettricità e di scagliarla come fulmini, la seconda è una ragazzina di nome Gloria Dinallo detta “Glo” è dalla nascita una telecineta, ossia ha il potere di spostare gli oggetti con la mente; prima di andare a smascherare i loschi figuri e liberare Arnold dallo loro grinfie, Elvin confessa al collega di essersi sottoposto a un esperimento di manipolazione della crescita, infatti Elvin toccandosi la base del collo riesce a ridurre le proprie dimensioni a pochi centimetri per un lasso di tempo di 15 minuti.

Con non poche difficoltà, il gruppo che si autodefinisce “Misfits of Science”, riesce a raggiungere la località segreta dove si trovano i criminali e oltre a liberare Arnold. Riescono anche a rivelare il losco piano ai danni del Governo, così la reputazione di Billy e Elvin ritorna immacolata e vengono riassunti dal nuovo direttore alla Humanidyne e Glo e Johnny B possono ritornare alla loro vita di sempre. Però, se dovesse servire ad aiutare il prossimo, i “Misfits of Science” useranno la loro intelligenza e i loro poteri per aiutare i deboli contro i prepotenti e i criminali.

1985 - Misfits of Science - Johnny B. Goode

Tra gli interpreti del telefilm vi erano Courteney Cox, famosa per a serie Friends e la saga cinematografica di Scream, Kevin Peter Hall che vista la sua mole veniva utilizzato per interpretare mostri in film Horror e di fantascienza come l’alieno cacciatore in Predator e Predator 2. Anche questa serie, come altre, ha goduto di quei pochi attimi di gloria del momento per poi alla fine sparire pian piano dalla memoria dei fan, forse per via che serie simili tempestavano le televisioni a ciclo continuo, forse perché hanno avuto poca pubblicità i motivi posso essere molti, però è un vero peccato perché anche questa, come altre serie che sono state cancellate, avrebbero meritato un destino migliore.

Exit mobile version