MidJourney V6.1. Il Futuro del Fotorealismo e l’evoluzione imminente dell’IA

Il 31 luglio 2024, un nuovo capitolo nel romanzo della tecnologia ha avuto inizio. Midjourney, il gigante della generazione di immagini artificiali, ha lanciato la versione 6.1 del suo sofisticato modello di intelligenza artificiale. Questo aggiornamento non è semplicemente una versione migliorata; è una dichiarazione audace di quanto lontano la tecnologia possa spingersi verso il fotorealismo, come se ogni pixel stesse cercando di raccontarci una storia così verosimile da sembrare quasi reale.

Immaginate, se volete, un vasto universo di dati e algoritmi che si intrecciano e si amalgamano per creare visioni che sfidano i confini dell’immaginazione. Questo è il cuore pulsante di Midjourney V6.1, che rappresenta un avanzamento radicale nella qualità visiva delle immagini generate. Gli sviluppatori hanno operato come artigiani del futuro, perfezionando con meticolosità l’arte di replicare dettagli complessi come braccia, gambe, mani e corpi umani, rendendo ogni elemento non solo proporzionato ma autentico. Ma non è tutto: la magia di questo aggiornamento si estende anche al regno vegetale e animale, conferendo a ogni creazione una coerenza che pare quasi vibrante di vita propria.

Un aspetto che brilla in questa versione è la riduzione degli artefatti. Immaginate gli artefatti come delle crepe in una tela pregiata, che, se non trattate, possono compromettere la bellezza dell’opera. Midjourney V6.1 ha operato come un restauratore, riducendo al minimo queste imperfezioni e aumentando il dettaglio fino a renderlo quasi palpabile. Il miglioramento nella generazione del testo nelle immagini e l’ottimizzazione dell’upscaling hanno ulteriormente affinato l’arte della visualizzazione, restituendo risultati che sono tanto nitidi quanto affascinanti.

E non finisce qui. Questo modello non solo rende le immagini più raffinate, ma lo fa anche con una velocità impressionante. Midjourney V6.1 è il 25% più veloce rispetto alle sue versioni precedenti, un risultato che trasforma l’attesa in un’arte di creazione istantanea. Ma, per i più esigenti, è disponibile la modalità “–q 2”, che sacrifica un po’ di coerenza visiva per ottenere una resa delle texture di una qualità sorprendentemente elevata, richiedendo un 25% in più di tempo GPU. È come se l’IA avesse deciso di dedicare più tempo alla cura dei dettagli, per garantire una qualità che sfida ogni aspettativa.

Le prime immagini emerse dagli utenti sono la conferma tangibile di questo progresso. Tuttavia, come ogni grande innovazione, Midjourney V6.1 ha ancora dei limiti. Per ora, manca dei modelli di inpainting e outpainting, funzioni che rimangono disponibili solo nella versione 6.0. Ma l’orizzonte è luminoso: il prossimo aggiornamento, la versione 6.2, è previsto per agosto 2024 e promette di spingere ancora oltre i confini di ciò che l’intelligenza artificiale può fare.

Midjourney V6.1 non è solo un passo avanti; è un salto monumentale verso il futuro della generazione di immagini artificiali. Con un miglioramento nella coerenza visiva, una riduzione significativa degli artefatti e una qualità delle texture senza precedenti, questo aggiornamento dimostra quanto velocemente il mondo dell’IA stia evolvendo, aprendo nuovi orizzonti per la creazione visiva. Il viaggio della tecnologia è infinito, e ogni tappa come questa ci ricorda che siamo solo all’inizio di un’avventura straordinaria.

Lumiere: genera video da testo o immagini con la nuova AI di Google

Google, insieme al Weizmann Institute of Science e all’Università di Tel Aviv, ha lanciato Lumiere, un innovativo modello di intelligenza artificiale per la creazione di video a partire da foto e istruzioni testuali. Con un chiaro omaggio ai fratelli Lumière, pionieri del cinema, Lumiere IA rappresenta un passo avanti nella qualità e nella coerenza nel rendere animate immagini statiche.

Lumiere si distingue tra gli strumenti basati sull’Intelligenza Artificiale per la sua capacità di aggiungere movimento alle immagini statiche e creare video animati con una durata massima di cinque secondi. Grazie alla descrizione dettagliata fornita dall’utente tramite messaggi di testo, è possibile animare intere immagini o singoli elementi, ottenendo risultati sorprendenti e coinvolgenti.

Non solo video, ma anche la possibilità di replicare lo stile di altre immagini, modificare il look delle foto, aggiungere o rimuovere elementi e molto altro ancora. Con l’architettura Space-Time U-Net e l’Intelligenza Artificiale che analizza i dati disponibili, Lumiere promette risultati realistici e di alta qualità.

Al momento ancora in fase sperimentale, Lumiere di Google non è ancora disponibile al pubblico. Saranno necessari ulteriori sviluppi per affrontare sfide come la gestione dei rischi legati al copyright, la sicurezza e altre questioni legate all’utilizzo dell’Intelligenza Artificiale generativa, prima di poter rilasciare il software definitivo.

Audacity lancia nuovi effetti basati sull’IA grazie alla collaborazione con Intel

Audacity, il popolare software open source per la registrazione e l’editing audio, ha annunciato il rilascio di una serie di nuovi effetti basati sull’intelligenza artificiale (IA), frutto della collaborazione con Intel e del suo toolkit OpenVINO. Questi effetti, disponibili per gli utenti Windows, permettono di modificare e personalizzare audio e musica in modo avanzato e straordinario, aprendo nuove possibilità creative per i professionisti e gli appassionati del settore.

Soppressione del rumore e trascrizione automatica: due strumenti indispensabili per i podcast e la produzione musicale

Tra le novità più interessanti introdotte da Audacity, spiccano la soppressione del rumore e la trascrizione automatica, due strumenti che si rivelano estremamente utili per i podcast e la produzione musicale. La soppressione del rumore è un effetto che consente di eliminare o ridurre i suoni indesiderati presenti in una registrazione audio, come il fruscio, il vento o il traffico. Questo effetto era già disponibile in Audacity, ma ora è stato potenziato con l’aggiunta dell’IA, che lo rende più efficace ed efficiente, in grado di adattarsi alle diverse situazioni e fonti sonore. La trascrizione automatica, invece, è un effetto che consente di convertire l’audio in testo, utilizzando il motore Whisper.cpp, che sfrutta l’IA per riconoscere il linguaggio e la pronuncia. Questo strumento permette anche di tradurre e etichettare il testo ottenuto, facilitando così la creazione di sottotitoli, note e annotazioni. Per esportare le trascrizioni, basta seguire alcuni semplici passaggi all’interno del software.

Remix dei generi musicali e separazione delle tracce: due strumenti per esprimere la propria creatività musicale

Ma l’integrazione dell’IA in Audacity non si limita solo a questi due strumenti: gli utenti potranno anche sperimentare il remix dei generi musicali e la separazione delle tracce, due effetti che permettono di esprimere la propria creatività musicale in modo innovativo e originale. Il remix dei generi musicali è un effetto che consente di creare nuove combinazioni musicali basate sugli stili esistenti, come il rock, il jazz o il pop. L’IA analizza le caratteristiche delle diverse tipologie musicali e le mescola tra loro, dando vita a composizioni uniche e sorprendenti. La separazione delle tracce, invece, è un effetto che consente di estrapolare le diverse parti di una canzone, come le voci o gli strumenti, e di manipolarle separatamente. Questo strumento offre una maggiore flessibilità nella modifica audio, permettendo di isolare, rimuovere, modificare o aggiungere elementi sonori a una registrazione musicale.

OpenVINO: il toolkit di Intel che rende possibile l’IA in Audacity

Tutti questi nuovi effetti basati sull’IA sono resi possibili grazie alla collaborazione tra Audacity e Intel, e al suo toolkit OpenVINO. OpenVINO, acronimo di Open Visual Inference e Neural network Optimization, è un insieme di strumenti e librerie che consente l’esecuzione di modelli di deep learning su hardware Intel, come CPU, GPU, FPGA e VPU. Grazie a OpenVINO, gli utenti di Audacity possono sfruttare al meglio le potenzialità dell’IA per ottenere risultati di alta qualità direttamente sul proprio PC, senza dover ricorrere a servizi cloud o a dispositivi esterni.

Per utilizzare questi nuovi plugin OpenVINO, sviluppati da Intel, è possibile scaricarli dalla pagina dedicata su GitHub, dove sono disponibili anche le istruzioni per l’installazione e l’uso. È importante notare che al momento questi effetti sono disponibili solo per gli utenti Windows, anche se ci sono progetti per estendere la compatibilità a Linux e macOS in futuro.

Conclusioni: un passo avanti per Audacity e per il settore audio

In conclusione, l’introduzione di questi nuovi effetti AI OpenVINO rappresenta un notevole passo avanti per Audacity, che si conferma come uno dei software più versatili e completi per la registrazione e l’editing audio. Questa partnership con Intel promette benefici significativi per i professionisti e gli appassionati del settore audio, sia per i podcast che per la produzione musicale, consentendo loro di sfruttare al meglio l’intelligenza artificiale per la modifica e personalizzazione audio, e di esplorare nuove prospettive creative e raggiungere livelli di qualità superiori.

Perché la foto del Papa con il monclerino deve farci paura (davvero)

L’avete vista la foto del Papa vestito da rapper, vero? E quella di Trump arrestato? Lo sappiamo, qualcuno di voi probabilmente ha anche dato un’occhiatina a un porno con il visino di quel/la divo/a che vi piace molto. E allora?

È inutile girarci attorno: l’Intelligenza artificiale è una figata se vogliamo che scriva le nostre tesine, che faccia le nostre relazioni per il lavoro o persino che scriva per noi qualche messaggio per rimorchiare (sì, c’è anche chi ci ha provato e su google troverete di tutto).

Ma parliamoci chiaro: se smettiamo di pensare, se ci affidiamo completamente a un’entità cerebrale virtuale, non c’è per caso il rischio che prima o poi ci faccia fare la fine del topo come pensa anche Elon Musk?

Pensate un po’alle foto che girano online adesso e siate sinceri: quanti di voi, vedendo la prima foto che era circolata del Papa con il monclerino, hanno capito che era falsa?

Ve lo diciamo noi: quasi nessuno. E allora, quando tra pochi mesi (in realtà in parte già è così) dalla facilità per chiunque di fare finte foto come quella si passerà ai video, cosa impedirà di manipolare totalmente la comunicazione, la nazione?

Vi fa ridere? C’è poco da ridere: pensate se in un Paese come la Russia circolasse un video così realistico da sembrare reale, in cui Putin ad esempio – che so – dice di essere sotto attacco e di essere vittima di un colpo di Stato. Pensate se poi dovesse dire – in quello stesso video – “scendete in piazza, sarete ricompensati! I nemici si sono travestiti da postini, uccideteli e per ogni nemico del popolo russo avrete un milione di rubli”. Non credete che forse qualcuno davvero lo farebbe?

Dove potrebbe arrivare il limite tra il vero e il falso, tra il pericoloso e l’innocuo? E poi, lasciamo perdere Putin, pensiamo a noi. A voi. Alla vostra amica, che potrebbe ritrovarsi in un attimo protagonista – pur senza averlo mai fatto – di un video scandaloso che le rovinerebbe la vita, girando di social in social, di whatsapp in whatsapp.

Una vita, rovinata da un imbecille che ha preso la sua foto e usando l’Intelligenza Artificiale l’ha appiccicata su un bel filmino.

Per non parlare poi dell’ipotesi peggiore. Roba così, tanto per scherzare: tipo Terminator, tutte le Intelligenze Artificiali del mondo si uniscono contro l’uomo per farlo fuori. O per manipolarlo.

Basta poco, basta che gli lasciamo fare e pensare al posto nostro. Che poi è la tesi pubblicata pochi giorni fa sul Time da Eliezer Yudkowsky, teorico dell’intelligenza artificiale statunitense e fondatore del Machine Intelligence Research Institute (MIRI). Yudkowsky non va per il sottile, non si chiede neppure “se” l’AI ci distruggerà, ma solo “quando?”.

“La cosa più probabile che possa capitare, visto che non abbiamo ancora modo di instillare i valori umani in questi sistemi è che queste intelligenze non vogliano quello che vogliamo noi e non abbiano nessuna cura per i loro creatori. Saremo solo atomi che potranno essere utilizzati e loro saranno molto più intelligenti di noi. Sarà come assistere a una sfida tra un campione mondiale di scacchi e un bambino di 10 anni o tra un Homo Sapiens e un Australopiteco”.

E dunque, che cosa bisogna fare? Il primo big del settore tech a parlarne è stato, come dicevamo poco fa,il creatore di Tesla e proprietario di Twitter Elon Musk, che ha chiesto “una moratoria di sei mesi”. In parole povere? “Fermiamo per sei mesi l’intelligenza artificiale e ragioniamo su quanto possa essere pericolosa”.

Assolutamente inutile, secondo l’esperto Yudkowsky. La soluzione? Uno stop definitivo, perché “Non siamo preparati. Non siamo sulla buona strada per essere preparati in una finestra di tempo ragionevole. Non c’è nessun piano. I progressi nelle capacità dell’IA sono molto, molto più avanti dei progressi nell’allineamento dell’IA o persino dei progressi nella comprensione di cosa diavolo sta succedendo all’interno di quei sistemi. Se lo facciamo davvero, moriremo tutti”.

Insomma, ripetiamolo tutti insieme: la soluzione? “Chiudere tutto. Non siamo pronti. Non siamo sulla buona strada per essere significativamente più pronti nel prossimo futuro. Se andiamo avanti, moriranno tutti, compresi i bambini che non l’hanno scelto e non hanno fatto nulla di male. Spegnerlo”.

Insomma, l’apocalisse dietro l’angolo. Che ne dite… quanto manca?

Exit mobile version