Archivi tag: google

AI Overviews di Google: Rivoluzione digitale o apocalisse per i creatori di contenuti?

C’è una nuova battaglia che sta scuotendo il multiverso digitale, e questa volta il campo di scontro non è né un pianeta alieno né una landa fantasy, ma l’Europa. Una battaglia dove non si combatte con spade laser o incantesimi, ma con algoritmi, dati e reclami antitrust. Il nemico? Google e le sue tanto discusse Panoramiche AI, quelle risposte sintetiche e precise generate dall’intelligenza artificiale che ora dominano le vette delle SERP, i risultati di ricerca.

Dopo le prime schermaglie negli Stati Uniti, anche nel Vecchio Continente gli editori indipendenti si sono uniti sotto una bandiera comune, quella dell’Independent Publisher Alliance, per denunciare quello che considerano un abuso di potere senza precedenti. Il reclamo ufficiale è già sul tavolo della Commissione Europea, depositato il 30 giugno. Ma attenzione: questa non è solo una questione per addetti ai lavori o smanettoni SEO. No, cari lettori nerd, questa è una storia che ci riguarda tutti, perché mette in discussione il modo stesso in cui ci informiamo, esploriamo e viviamo il web.

L’illusione della scoperta: cosa sono davvero le AI Overviews

Le Panoramiche AI di Google, o AI Overviews, sono una nuova funzione integrata nel motore di ricerca che sfrutta l’intelligenza artificiale generativa per rispondere direttamente alle domande degli utenti. Funziona così: tu scrivi una query, tipo “differenza tra un elfo e un mezzelfo in Dungeons & Dragons”, e anziché trovarti davanti una lista di link da esplorare, ti ritrovi una risposta ben confezionata, sintetica, chiara e persino ben scritta, creata al volo dall’AI.

In apparenza, sembra una magia degna di Gandalf: risposte pronte, zero sforzo, massimo risultato. Ma dietro quella comodità si nasconde un dilemma etico e strutturale che sta scuotendo le fondamenta dell’intero ecosistema dell’informazione online. Perché quelle risposte non nascono dal nulla: sono frutto di una rielaborazione di contenuti scritti da altri. Da siti, blog, portali di notizie, forum, enciclopedie online… in pratica, da tutti noi che popoliamo la rete con articoli, guide, recensioni e analisi.

Gli editori: “Ci state rubando il pane e la visibilità!”

La posizione degli editori è semplice, diretta e disperata: le Panoramiche AI stanno cannibalizzando il traffico. Quando Google risponde direttamente nella sua pagina, senza invogliare l’utente a cliccare su un link, i siti da cui quelle informazioni sono state prese perdono visitatori. E, senza lettori, crolla tutto: meno pubblicità, meno entrate, meno fondi per scrivere nuovi contenuti. Un circolo vizioso che rischia di ridurre al silenzio proprio quelle voci indipendenti che rendono il web così ricco e variegato.

La cosa ancora più preoccupante è che, secondo la denuncia, non esiste nemmeno una vera possibilità di opposizione. Se un sito decide di bloccare l’accesso all’AI di Google – magari attraverso i classici file robots.txt – rischia di sparire anche dai normali risultati di ricerca. È come dire: “o collabori, o vieni esiliato”. Una situazione che molti hanno definito un ricatto digitale bello e buono, con tanto di monopolio mascherato da innovazione.

Google: “Stiamo creando nuove opportunità!” (ma per chi?)

Ovviamente, Big G non sta con le mani in mano. Secondo il colosso di Mountain View, le AI Overviews aumentano il traffico, aiutano gli utenti a scoprire nuovi contenuti e offrono più visibilità a chi produce informazione. Peccato che, secondo uno studio di Ahrefs, l’introduzione di queste risposte abbia ridotto del 34% i clic verso il primo link organico di una SERP. Un colpo durissimo, soprattutto per i piccoli editori che basano la loro sopravvivenza proprio su quella visibilità.

In sostanza, l’argomentazione di Google suona un po’ come: “è il mercato, bellezza!”. Ma il mercato non è mai stato così opaco. Perché se è l’intelligenza artificiale a decidere cosa mostrare, in che ordine, con quali parole… allora chi ha davvero il controllo?

Dalla SEO alla GEO: benvenuti nell’era della Generative Engine Optimization

Nel frattempo, mentre il mondo dell’editoria lotta per non essere oscurato, un nuovo acronimo si affaccia all’orizzonte: GEO, Generative Engine Optimization. È l’evoluzione della classica SEO, l’ottimizzazione per i motori di ricerca. Ma se la SEO serviva a scalare le classifiche dei link blu, la GEO mira a entrare direttamente nelle risposte generate dalle AI.

Avete presente quando chiedete a ChatGPT dove andare a mangiare a Firenze e vi risponde con nome del locale, specialità del giorno e magari anche il prezzo medio? Ecco, il gioco ora è riuscire a far citare il proprio sito, prodotto o contenuto direttamente dentro quella risposta. Niente più link da cliccare, solo menzioni integrate. È una nuova forma di visibilità, più difficile da ottenere, ma potenzialmente devastante in termini di reach.

E no, non basta ripetere parole chiave come un vecchio stregone SEO. Serve autorevolezza, chiarezza, contenuti ben scritti, markup semantici (tipo schema.org), FAQ ben strutturate… Insomma, bisogna parlare fluentemente il linguaggio delle AI. E magari pensare a creare un file llms.txt, una sorta di biglietto da visita per far capire ai modelli linguistici cosa c’è di interessante nel nostro sito. Fantascienza? No, solo un nuovo standard che sta già circolando nei corridoi digitali.

L’intelligenza artificiale come gatekeeper: minaccia o opportunità?

Quello che stiamo vivendo è molto più di un semplice aggiornamento tecnologico. È un cambio di paradigma. Non siamo più noi utenti a esplorare il web: è l’AI che ci serve su un piatto d’argento la sua versione della realtà. E sì, è veloce, comoda, personalizzata… ma anche potenzialmente pericolosa. Perché quando una sintesi AI diventa la norma, chi decide cosa è vero, cosa è rilevante, cosa merita di essere letto?

Sappiamo che l’AI può sbagliare. Può “allucinare” risposte, confondere dati, inventare fatti. E quando lo fa, lo fa con una sicurezza disarmante. Il rischio è che ci si affidi ciecamente a questi riassunti preconfezionati, dimenticando il valore della fonte, della pluralità di voci, del contesto. In pratica, stiamo passando dal web come biblioteca infinita al web come riassunto da quarta di copertina. E noi nerd, che amiamo immergerci nei dettagli, scavare tra le righe, cercare la lore nascosta… siamo pronti a rinunciare a tutto questo?

Il futuro della cultura geek online

Per chi scrive, racconta, recensisce, analizza e condivide la cultura nerd – che sia un articolo su un manga, una guida a un videogioco, un’analisi del multiverso Marvel o una teoria su Evangelion – il pericolo è reale. Se le AI diventano il nuovo strato tra il lettore e il contenuto, allora rischiamo di diventare invisibili. E quando anche le emozioni, le opinioni, le esperienze vengono ridotte a una stringa testuale generata in tempo reale, cosa resta della bellezza del racconto umano?

Eppure, non tutto è perduto. Come ogni buona saga, anche questa crisi può portare a una rinascita. Potremmo assistere a una nuova epoca d’oro del contenuto di qualità. Quello autentico, personale, profondo. Quello che non si può riassumere in un paragrafo. Dovremo reinventarci, imparare le regole del gioco della GEO, ma senza perdere la nostra voce.

Perché alla fine, l’unica vera arma contro un algoritmo è la passione. E noi nerd, quella, non ce la facciamo mancare mai.


E tu, cosa ne pensi di questa rivoluzione digitale? Hai già notato le Panoramiche AI di Google nelle tue ricerche? Ti fanno risparmiare tempo o ti mancano i vecchi link blu? Parliamone nei commenti o condividi l’articolo sui tuoi social con gli amici geek: il futuro dell’informazione ha bisogno anche della tua voce

Veo 3: il Futuro del Video è Qui! Come l’IA di Google Sta Rivoluzionando il Cinema in 8 Secondi

Chi l’avrebbe mai detto che un giorno ci saremmo ritrovati qui, davanti a uno schermo, a osservare la nascita di un mini-film generato da poche, semplici parole scritte da noi? Non è magia, non è fantascienza da romanzo cyberpunk, e non è nemmeno una di quelle promesse da startup che poi evaporano nel nulla: è Veo 3, l’ultima, impressionante creatura di Google nel campo della generazione video tramite intelligenza artificiale. E la notizia che ci fa sobbalzare sulla sedia come un nerd davanti alla limited edition di Detective Conan è che da luglio 2025 questo strumento potentissimo è finalmente sbarcato in Italia, disponibile nell’app Gemini per tutti gli abbonati al piano Google AI Pro.

Parliamoci chiaro: siamo davanti a un salto quantico, non solo per content creator, videomaker o sviluppatori, ma per chiunque abbia anche solo una scintilla di creatività e curiosità digitale. Veo 3 non è il solito gadget tech destinato a finire nel dimenticatoio tra i filtri di Instagram o le app di editing. È, a tutti gli effetti, una cinepresa virtuale, un piccolo studio cinematografico racchiuso in un algoritmo, capace di trasformare un prompt testuale in un cortometraggio di otto secondi in HD, con tanto di audio, atmosfera, movimento di camera e uno storytelling che fa quasi paura per quanto è credibile. Si scrive la scena, si preme invio… e voilà: il cinema prende vita davanti ai tuoi occhi, pronto per essere scaricato e condiviso ovunque, dai social ai messaggi privati.

Facciamo un esempio nerd come piace a noi: immaginiamo di voler ricreare quella scena epica di un drone che sorvola una foresta al tramonto, con le luci calde e poetiche alla Terrence Malick e il sottofondo sonoro di uccellini lontani e foglie mosse dal vento. Con Veo 3 basta aprire Gemini, selezionare la modalità Video, scrivere la descrizione, premere invio e aspettare pochi istanti. E come per magia (ma è solo codice, lo giuro!), il sistema ti restituisce un video sorprendentemente realistico, con effetti audio coerenti e una composizione visiva degna di un regista indie con l’ossessione per i dettagli.

Il punto è che Veo 3 non si limita a “muovere delle immagini”. Crea delle scene. Scene vere, credibili, con transizioni fluide, movimenti di camera personalizzabili, dialoghi sincronizzati, effetti sonori accurati e stili visivi specifici che puoi scegliere con poche parole: “effetto pellicola 35mm”, “atmosfera cyberpunk”, “slow motion”, “luce calda”… Letteralmente un giocattolo da sogno per chiunque abbia anche solo fantasticato di girare un video, senza passare per set, attori, luci, attrezzatura e post-produzione.

Ma non possiamo parlare di Veo 3 senza affrontare anche il suo lato più inquietante. Perché, diciamolo, quando arrivi a un punto in cui non riesci più a distinguere un video creato da un’intelligenza artificiale da uno girato nella realtà, si aprono scenari tanto affascinanti quanto spinosi. C’è, da un lato, la possibilità di sfornare contenuti creativi, meme animati, scene fantasy, prototipi di design, piccole opere di visual storytelling. Dall’altro, però, si spalanca il rischio della disinformazione, della manipolazione visiva, della creazione di contenuti ingannevoli capaci di minare la fiducia nei materiali digitali.

Google, per fortuna, non è rimasta a guardare. Ogni video prodotto da Veo 3 include un watermark visibile in basso a destra e viene marchiato con metadati SynthID, invisibili ma rilevabili, che certificano in modo inequivocabile la natura artificiale del contenuto. Una scelta fondamentale per mantenere un minimo di trasparenza in un mondo sempre più difficile da decifrare. Ma sarà sufficiente? Nei prossimi mesi lo vedremo, perché la velocità con cui l’AI generativa sta correndo rischia di mettere in crisi anche i sistemi di tracciamento più raffinati.

Passiamo ora alla parte pratica, quella che fa venire l’acquolina in bocca ai geek e ai creator curiosi: come si usa Veo 3 in Italia? Per prima cosa serve un abbonamento a Google AI Pro, incluso nel piano Google One AI Premium, che costa 21,99 euro al mese. La buona notizia è che Google offre una prova gratuita di 30 giorni per chi non l’ha mai attivata, ed è quindi l’occasione perfetta per smanettare senza tirare fuori un euro. Non serve installare nulla: si apre Gemini dal browser, si fa login col proprio account Google, si attiva il piano Premium e si accede alla funzione Video. A quel punto si scrive la descrizione del video, si lancia la generazione e si aspetta qualche minuto. Il risultato? Se il prompt è ben costruito, l’effetto wow è praticamente garantito.

Se preferisci lavorare in mobilità, nessun problema: l’app Gemini è disponibile anche su Android e iOS, con un’interfaccia quasi identica a quella desktop. Basta aprirla, selezionare “Video” dal menu, scrivere il prompt e lanciare il comando. In pochi secondi, il tuo mini-film è pronto per essere scaricato, condiviso su Instagram, TikTok o WhatsApp, o semplicemente conservato nella galleria del telefono come piccolo orgoglio creativo.

E attenzione: Google ha introdotto anche Veo 3 Fast, una modalità ancora più rapida e performante per generare video dinamici a partire da testo e immagini, con audio personalizzato. È una manna per chi lavora in product design, storytelling visivo, prototipazione o per chi, più semplicemente, vuole superare il blocco creativo e vedere le proprie idee prendere forma davanti agli occhi. Il limite attuale? Tre video generabili al giorno, ciascuno della durata massima di otto secondi. Un compromesso che ci sta, considerando la complessità computazionale e la qualità sorprendente dei risultati.

In sintesi, Veo 3 non è solo un nuovo tool tecnologico: è un vero e proprio cambio di paradigma nel modo in cui pensiamo, immaginiamo e condividiamo storie. Non servono più telecamere, attori, set, luci o software di montaggio: serve solo un’idea, e la capacità di trasformarla in parole. Al resto ci pensa l’intelligenza artificiale. Certo, qualche imperfezione c’è ancora – nei miei test, ad esempio, alcuni video sono stati generati senza audio nonostante il prompt lo richiedesse – ma il potenziale di questa tecnologia è talmente enorme che è impossibile non restarne affascinati.

Per chi vive nel mondo del cosplay, del cinema indipendente, dell’animazione nerd, del game design o dei video virali da social, siamo davanti a un tesoro ancora tutto da esplorare. Non è più questione di capire se diventerà uno standard creativo: è questione di quanto velocemente cambierà le regole del gioco.

E ora la palla passa a te: hai già messo le mani su Veo 3? Hai qualche prompt assurdo, poetico, divertente o visionario che vorresti trasformare in un micro-film per stupire i tuoi amici? Raccontacelo nei commenti qui sotto o taggaci sui social con i tuoi esperimenti. Il futuro del video è già qui, è nelle tue mani… e in qualche linea di testo.

Se ti è piaciuto questo articolo, condividilo su Facebook, X o Instagram e fai conoscere anche ai tuoi amici questa nuova, incredibile meraviglia digitale firmata Google!

YouTube diventa (ancora più) intelligente: AI Overview arriva sulla piattaforma di video più famosa del pianeta

Google n rilancia la sua visione algoritmica del futuro digitale portando AI Overview, la sua potente sintesi automatica anche su YouTube. Sì, proprio lì, nel nostro tempio nerd dei trailer, dei gameplay, dei video saghe e delle recensioni più pazze dell’universo. La nuova funzione, per ora attiva solo negli Stati Uniti e riservata agli utenti Premium, mostra in cima ai risultati un carosello di contenuti suggeriti con spiegazione AI incorporata. In pratica: cerchi “le migliori spiagge delle Hawaii”? L’AI ti dà subito il verdetto, i video da guardare e magari anche qualche consiglio su dove prenotare. E tutto questo prima ancora di farti interagire con i contenuti reali.

Sembra fantascienza? Lo è. Ma è anche una realtà che ricorda da vicino quello che sta già succedendo con AI Overview su Google Search, dove l’intelligenza artificiale di Gemini risponde prima ancora che tu possa cliccare su un link blu. Una comodità per l’utente? Forse. Un colpo al cuore per chi crea contenuti? Sicuramente.

Chi si guadagna da vivere scrivendo articoli, girando video o costruendo siti web, già conosce bene la sensazione: il proprio lavoro viene analizzato, sintetizzato e restituito in una versione “facile” che fa sembrare l’originale superfluo. Su Google Search, i click organici sono crollati: il primo risultato, che prima raccoglieva il 7,3% dei click, ora ne prende solo il 2,6%. E su YouTube? Beh, il rischio è lo stesso. Se l’utente ottiene subito tutte le info da un riassunto AI, perché dovrebbe guardare un video intero?

La logica di Google è chiara: l’AI deve semplificare, accelerare, anticipare. Ma dietro questa promessa di efficienza si nasconde una realtà inquietante: i contenuti umani vengono cannibalizzati. Sono la materia prima, ma raramente ricevono credito o visibilità. È un po’ come essere gli stuntman invisibili di un film: senza di te lo show non esisterebbe, ma nessuno ti applaude ai titoli di coda.

Ed ecco che anche su YouTube, i creator iniziano a tremare. Non solo dovranno combattere l’algoritmo per comparire tra i suggeriti, ma ora dovranno anche superare l’intelligenza artificiale che potrebbe già aver dato all’utente tutto quello che cercava. Meno click, meno tempo di visione, meno engagement. E quindi, meno guadagni.

Il paradosso è servito: senza i contenuti dei creator, YouTube non esisterebbe. Ma ora è proprio l’AI – che si nutre di quei contenuti – a minacciarne la sopravvivenza. L’ultimo a lanciare l’allarme è stato Matthew Prince di Cloudflare, ma il malcontento serpeggia ovunque. Dai piccoli canali indipendenti alle grandi produzioni, nessuno è immune al rischio che il proprio lavoro venga “riassunto e dimenticato” in un battito di transistor.

E mentre Google continua a distribuire poteri sempre maggiori ai suoi strumenti AI (come Conversational AI, già attivo da anni per i Premium), sembra inevitabile che l’Overview su YouTube venga esteso a tutti gli utenti, ovunque. Con buona pace di chi sperava in una pausa di riflessione sull’impatto che questi strumenti hanno sull’ecosistema digitale.

Certo, l’AI sa essere utile. È rapida, sintetica, sorprendentemente efficace. Ma anche fallibile: le famose allucinazioni dell’AI — ovvero le informazioni sbagliate o inventate che vengono presentate come vere — sono ancora una minaccia reale. E se l’unica fonte che consultiamo è quella generata dall’algoritmo, chi controllerà la veridicità?

In questo scenario, il web rischia di diventare un museo dove i contenuti non si esplorano più, ma si consumano passivamente in forma di sintesi. Una macchina ci racconta ciò che “serve sapere”, mentre la ricchezza dell’approfondimento, della creatività e della voce umana viene silenziata.

È il futuro? Forse sì. Ma possiamo ancora scegliere che tipo di utenti vogliamo essere. Vogliamo davvero delegare ogni curiosità all’AI, o preferiamo ancora perderci nei meandri di YouTube per scoprire una perla nascosta, un creator geniale o un punto di vista inaspettato?

La discussione è apertissima, e proprio in stile CorriereNerd.it vi chiediamo: voi da che parte state? Siete affascinati dall’idea di un YouTube “assistito”, o vi manca già quel momento magico in cui un video vi sorprendeva davvero? Ditecelo nei commenti e condividete questo articolo con chi non ha ancora capito che il futuro non è scritto… ma probabilmente verrà riassunto da un’AI.

Google I/O 2025: Gemini è ovunque e rivoluziona il tech!

Dimenticatevi il vecchio Google: al Google I/O 2025, l’azienda di Mountain View ha presentato una valanga di novità che mettono l’IA al centro di tutto. Un chatbot integrato nella Ricerca, assistenti virtuali che prenotano per voi, una revisione completa di tutte le app AI… insomma, l’AI è il nuovo pane quotidiano di Google. E il mattatore indiscusso? Gemini, il modello di intelligenza artificiale che ormai è integrato in quasi ogni angolo dell’ecosistema Google.

La Ricerca si trasforma: benvenuta AI Mode!

Una delle bombe sganciate al Google I/O è la AI Mode nella Ricerca Google. Non parliamo di un semplice aggiornamento, ma di una vera e propria rivoluzione che trasforma il motore di ricerca in un chatbot conversazionale. Potrete fare domande super complesse, tipo “Qual è il miglior smartphone per giocare e dove lo trovo in offerta?”, e ricevere risposte dettagliate, con grafici, tabelle e spiegazioni cucite su misura. E non solo: Gemini potrà persino aiutarvi a completare gli acquisti se userete Google Pay. Preparatevi a un’esperienza di ricerca mai vista prima!

Gemini 2.5 e Deep Think: l’intelligenza che impara a ragionare (davvero!)

Alla base di tutte queste meraviglie c’è Gemini 2.5, il nuovo modello linguistico di Google. Ne esistono due versioni: Flash, super veloce ed efficiente, e Deep Think, una potenza capace di risolvere problemi complessi in matematica, codice e ragionamento multimodale. Quest’ultima, per ora, sarà un’esclusiva per gli abbonati al nuovo piano Ultra (ma ne parliamo tra poco!).

E non è finita qui: dopo aver conquistato i nostri smartphone, Gemini sbarca anche su Chrome per desktop, sia su Mac che su Windows. All’inizio vi darà risposte contestuali alle pagine che visitate, ma presto potrà navigare da solo tra i siti per trovare ciò che vi serve. Che figata, no?

Google AI diventa un servizio in abbonamento: Pro e Ultra per tutti i gusti

Google ha anche dato una rinfrescata alla sua offerta AI. Il vecchio piano AI Premium cambia nome in Google AI Pro e costa sempre 19,99 dollari al mese, offrendo accesso a funzionalità avanzate. Ma la vera novità è Google AI Ultra: un piano da 249,99 dollari al mese pensato per chi vuole il massimo, prima di tutti.

Con Ultra avrete accesso a strumenti sperimentali come Deep Think, Project Mariner e funzionalità di Deep Research illimitate. E non solo AI: nel pacchetto ci sono anche 30 TB di spazio e l’abbonamento a YouTube Premium. Un pacchetto completo per i veri power user!

Project Astra e gli agenti intelligenti: l’assistente definitivo

Se AI Mode trasforma la ricerca, Project Astra punta a ridefinire il concetto di assistente. Nelle demo, Astra ha mostrato di saper fare cose incredibili: muoversi tra le app Android, consultare email, cercare ricambi per la bici o chiamare un negozio per verificare la disponibilità di un prodotto.

Questa super intelligenza confluirà presto nella Agent Mode dell’app Gemini, potenziata da Project Mariner. In pratica, potrete dare un compito a Gemini e lasciare che faccia tutto da solo: cercare informazioni, compilare moduli, acquistare biglietti, prenotare appuntamenti. Il vostro assistente personale del futuro è qui!

Gmail, Meet, Docs, Vids e Veo: le app Google sempre più smart!

Anche le app di produttività di Google si stanno rifacendo il look, diventando sempre più intelligenti:

  • Gmail diventerà un vero e proprio “smart” assistant: vi suggerirà risposte in linea con il vostro stile, pulirà automaticamente la casella di posta e vi aiuterà a fissare appuntamenti.
  • Google Meet avrà una funzione di traduzione simultanea con intonazione naturale, già disponibile per gli utenti Pro e Ultra. Addio barriere linguistiche!
  • Docs integrerà Gemini, con risposte basate direttamente sul contenuto del documento.
  • Google Vids vi permetterà di trasformare una presentazione in un video, usando avatar AI e controlli automatici su audio e trascrizione.
  • Gemini Canvas vi darà la possibilità di creare infografiche, quiz interattivi, sintesi audio o pagine web partendo da un semplice testo.

E per gli amanti dei video e delle immagini:

  • Veo 3, il nuovo modello video AI di Google, è il primo capace di generare video con audio nativo. E lavorerà in sinergia con Flow, l’app AI per il filmmaking basata su Veo, Imagen e Gemini.
  • Imagen 4 migliora la resa visiva, i dettagli e la capacità di generare testi leggibili, ed è già integrato in Docs e Slides.
  • Annunciato anche SynthID Detector: un portale dove potrete caricare un file (immagine, audio, testo, video) per verificare la presenza di watermark digitali invisibili. Addio dubbi sulle creazioni AI!

Android XR e Google Beam: il futuro tra realtà aumentata e 3D

Google rilancia alla grande anche sulla realtà virtuale e aumentata. Il secondo dispositivo ufficiale per Android XR sarà Project Aura, un paio di occhiali smart creati da Xreal. E intanto prosegue lo sviluppo del visore in collaborazione con Samsung, previsto entro fine anno. Tra le funzioni demo: traduzione live attraverso gli occhiali. Immaginatevi viaggiare o lavorare in contesti multilingua senza problemi!

E infine, il progetto Starline cambia nome e diventa Google Beam: un sistema di videocomunicazione 3D ad alta fedeltà pensato per le aziende, in arrivo in collaborazione con HP. Le videochiamate non saranno più le stesse!

Spazio anche per sviluppatori e Google Play

Anche gli sviluppatori hanno avuto le loro belle novità. Jules è il nuovo agente AI capace di leggere codice, scrivere test, correggere bug e aggiornare dipendenze. È già in beta pubblica, senza lista d’attesa. E Android Studio integra ora Gemini 2.5 Pro, accessibile anche nel canale stabile grazie a Studio Labs.

Anche il Play Store si aggiorna: gli sviluppatori possono ora bloccare il rollout di aggiornamenti problematici, mentre chi scarica app avrà un’interfaccia con suggerimenti personalizzati, contenuti tematici e collezioni, curate per interessi e stagionalità. Un Play Store più smart e su misura!

Insomma, il Google I/O 2025 ci ha mostrato un futuro in cui l’IA è non solo onnipresente, ma anche incredibilmente utile. Siete pronti a questa rivoluzione? Fateci sapere cosa ne pensate nei commenti!

Addio Prompt Engineer: l’IA è cambiata, le aziende anche

C’è stato un momento, non molto tempo fa, in cui il termine Prompt Engineer echeggiava nei corridoi delle startup più visionarie e dei colossi tecnologici come un’eco futuristica, carica di fascino. Sembrava il lavoro perfetto: un incrocio tra arte e tecnica, tra poesia e programmazione. Era il mestiere di chi sapeva parlare con le macchine, trovare la giusta formula per accendere la scintilla nell’intelligenza artificiale. Ma come spesso accade nelle rivoluzioni tecnologiche, ciò che all’inizio è raro e magico finisce per diventare comune, integrato, quasi invisibile. E oggi, nel 2025, quella figura mitica sta lasciando il posto a una nuova generazione di competenze, più profonde, più strategiche. E sì, più umane.

Il tramonto del Prompt Engineer come professione autonoma

Nel 2023, il Prompt Engineer era sulla cresta dell’onda. Con l’esplosione di modelli come GPT-3 e poi GPT-4, saper scrivere un prompt efficace significava, di fatto, saper dominare la conversazione con l’intelligenza artificiale. Le aziende erano affamate di questi sussurratori dell’algoritmo, capaci di ottenere da una semplice frase intere strategie di marketing, righe di codice pulite o analisi complesse. I corsi si moltiplicavano, le community fiorivano, e gli stipendi – inutile dirlo – erano da capogiro.

Ma poi è successo qualcosa. I modelli sono migliorati. Sono diventati più intelligenti, più “umani”, più capaci di comprendere input vaghi, ambigui, imperfetti. Prompt “sbagliati” hanno iniziato a generare comunque risultati di valore. In parallelo, le aziende hanno iniziato a diffondere internamente una cultura dell’interazione con l’IA, integrando le competenze necessarie nei team esistenti. Il Prompt Engineering si è smaterializzato, è diventato una soft skill, una parte del bagaglio comune di chi lavora nel digitale, non più un mestiere a sé.

L’intelligenza artificiale che non ha più bisogno di essere guidata (troppo)

Oggi, modelli come GPT-4 o Minerva 7B – l’ambizioso progetto tutto italiano – sono in grado di gestire multimodalità, contesto, sfumature linguistiche. Possono interpretare immagini, codici, documenti complessi. Sanno anticipare l’intento dell’utente, riducendo l’attrito nella conversazione. È come se fossero passati dall’essere strumenti, a diventare veri compagni di lavoro. Non serve più uno specialista per ogni interazione: ne basta uno per disegnare l’ecosistema, addestrare correttamente il modello, garantire sicurezza e integrità.

Dalla specializzazione all’integrazione: il nuovo mondo del lavoro AI-driven

Ecco allora che il Prompt Engineer lascia la scena. Ma non è un addio drammatico. È piuttosto una metamorfosi. Perché le aziende non hanno smesso di cercare figure esperte di IA – tutt’altro. Solo che oggi le cercano con un orizzonte più ampio. Vogliono AI Trainer, che sappiano plasmare il modo in cui l’IA apprende. Vogliono AI Data Specialist, custodi della qualità e dell’etica dei dati. Vogliono AI Security Specialist, guardiani di sistemi sempre più autonomi ma anche vulnerabili. Figure che sappiano muoversi lungo tutto il ciclo di vita dell’intelligenza artificiale, dal dataset alla produzione.

Ed è proprio in questo scenario che isek.AI Lab si colloca con una proposta diversa. Non una semplice formazione su come “scrivere prompt”, ma un laboratorio evoluto in cui si progettano architetture AI-oriented, si sperimentano soluzioni etiche e si promuove un’interazione tra uomo e macchina basata su senso, contesto e strategia.

Isek.AI Lab: l’ecosistema oltre il prompt

Isek.AI Lab non si limita a formare prompt engineer, li supera. Costruisce profili AI-ready, professionisti capaci di affrontare sfide reali, in contesti complessi, con modelli sempre più avanzati. Non si tratta di imparare una tecnica, ma di acquisire una visione. È un approccio sistemico, che unisce linguaggi naturali, intelligenza collettiva, sostenibilità e governance dei dati. È un hub dove si sperimenta l’IA non solo come tecnologia, ma come cultura, come linguaggio evolutivo.

Ecco perché oggi, nel pieno dell’era post-prompt, Isek.AI Lab offre un vantaggio competitivo concreto: non insegnare cosa scrivere all’IA, ma come co-creare con essa. Una differenza sostanziale, soprattutto in un mercato del lavoro che si muove sempre più verso modelli ibridi, in cui umani e agenti intelligenti collaborano quotidianamente.

Il futuro è nelle competenze ibride

Nel report “Work Trend Index 2025” di Microsoft, emerge chiaramente come le Frontier Firms – quelle aziende che abbracciano l’IA in profondità – stiano assumendo meno prompt engineer e più figure ibride. Non è più il tempo della verticalità estrema, ma dell’integrazione trasversale. Chi sa comunicare con l’IA è utile. Chi sa addestrarla, migliorarla, proteggerla… è essenziale.

Ed è su questo punto che isek.AI Lab fa la differenza. Formazione esperienziale, casi d’uso concreti, strumenti di ultima generazione, e soprattutto una visione chiara: l’intelligenza artificiale è un’estensione delle nostre capacità, non un enigma da decifrare. Il prompt non è il fine, ma il mezzo. E oggi, più che mai, serve chi sappia costruire sistemi, non solo interazioni.

Da pionieri a protagonisti: il passaggio di testimone

I Prompt Engineer sono stati i pionieri. Hanno aperto la via, hanno costruito ponti tra linguaggi e modelli. Ma ora che i modelli sanno camminare da soli, serve una nuova generazione di professionisti. Visionari, sì. Ma anche architetti, facilitatori, strateghi. Servono alleati, non domatori.

isek.AI Lab è nato proprio per questo: accompagnare aziende e talenti in questa nuova fase, dove il valore non è più nell’artificio del prompt, ma nella coerenza dell’interazione. In un mondo dove l’IA è dappertutto, chi la sa usare non basta più. Serve chi la sa integrare.

Perché il futuro non sarà scritto da chi sa dare istruzioni all’IA. Ma da chi sa costruire insieme a lei.

Xiaomi MiMo: il Rocky cinese dell’intelligenza artificiale che sta prendendo a pugni i giganti del tech

Quando Xiaomi ha annunciato MiMo, il suo nuovo modello di intelligenza artificiale open-source, non ho potuto fare a meno di sobbalzare sulla sedia. Da appassionata di AI (e fan sfegatata delle piccole rivoluzioni tecnologiche made in Asia), sapevo che qualcosa di grosso stava arrivando. Ma non mi aspettavo che “qualcosa di grosso” avesse solo 7 miliardi di parametri e riuscisse comunque a suonarle di santa ragione a modelli con dimensioni cinque volte superiori. MiMo è piccolo solo sulla carta. Nei fatti, boxa nella categoria dei pesi massimi.

Svelato ufficialmente il 30 aprile 2025 a Pechino, durante uno di quei keynote in stile vecchia scuola – quelli che ti fanno venire nostalgia dei primi eventi Apple e Microsoft – MiMo è stato presentato dal Big Model Core Team di Xiaomi come una rivoluzione nel ragionamento logico e matematico. E lo è davvero: questo “bambino prodigio” ha battuto modelli ben più blasonati come l’o1-mini di OpenAI e il Qwen-32B-Preview di Alibaba in benchmark pubblici di rilievo come AIME24-25 e LiveCodeBench v5. Non male per un “peso piuma”.

La vera sorpresa, però, sta sotto la superficie. Perché MiMo non è solo compatto, è dannatamente intelligente. Il suo segreto? Un addestramento meticoloso da fare invidia ai Rocky Balboa digitali: parliamo di 200 miliardi di token specificamente focalizzati su matematica e logica, su un totale di 25 trilioni. A rendere il tutto ancora più potente c’è la tecnica di Multiple-Token Prediction, che gli consente di affrontare più passaggi logici contemporaneamente. Risultato? Nei test MATH-500 sfiora il 96% di accuratezza, mentre su AIME 2024 arriva al 68,2%. Un risultato che lascia a bocca aperta anche chi, come me, pensa di averne viste tante nel mondo AI.

Ma non è solo una questione di performance. Xiaomi ha fatto una scelta strategica tanto coraggiosa quanto affascinante: rendere MiMo open-source. Questo significa che non stiamo parlando dell’ennesimo modello chiuso che gira solo su cloud proprietari. MiMo sarà ovunque: sugli smartphone Xiaomi, nei frigoriferi, nelle automobili, nei wearable e persino nei tablet. L’obiettivo è chiaro e spiazzante: decentralizzare l’AI. Renderla parte integrante dei dispositivi stessi, eliminando la dipendenza costante dal cloud. Un cambio di paradigma totale. Altro che datacenter grandi come stadi: qui si parla di AI che vive nei nostri device e lavora con noi, offline e on-device.

È una dichiarazione di guerra? Forse sì. A chi? Ai colossi americani, in primis OpenAI e Google, che da anni puntano tutto sulla potenza bruta e sulla centralizzazione. Xiaomi invece punta sulla leggerezza, sull’efficienza, sulla distribuzione. E a quanto pare, funziona. MiMo riesce a fare più (molto di più) con meno. E questo manda in crisi l’intero modello economico su cui si basa oggi l’AI occidentale.

Naturalmente Xiaomi non è sola. Anche Samsung ha la sua AI, Gauss. Apple spinge su un’intelligenza generativa profondamente integrata in iOS. Google investe su Gemini. E gli altri grandi nomi del tech asiatico – OPPO, Vivo, Honor, OnePlus – stanno tutti cercando di costruire modelli propri. È come essere tornati agli albori di Android, quando ogni brand aveva la sua versione personalizzata. Ma con una differenza fondamentale: stavolta non stiamo parlando solo di interfacce, ma del cuore stesso dell’interazione uomo-macchina.

Ecco perché questa frammentazione, apparentemente caotica, è in realtà carica di potenziale. Ogni modello AI potrà essere ottimizzato per l’hardware di riferimento, migliorando prestazioni e autonomia. I dati potranno restare localmente sui dispositivi, migliorando la privacy. E ognuno di noi potrà avere un assistente intelligente che impara, cresce e si adatta al nostro modo di vivere. Certo, ci saranno sfide – dalla compatibilità delle app all’interoperabilità tra dispositivi – ma la prospettiva è entusiasmante.

Ci sono tre scenari possibili. Il primo è quello di un mondo frammentato ma stabile, in cui ogni produttore ha la sua AI specializzata. Il secondo, più utopico, vede l’emergere di uno standard open-source condiviso: magari proprio MiMo, che già è disponibile per chiunque voglia metterci le mani sopra. Il terzo è quello che temo di più: il ritorno al cloud, con i soliti big che si riprendono tutto il mercato, lasciando agli altri solo le briciole.

La verità? Nessuno sa come andrà. Ma una cosa è certa: MiMo è un game changer. È l’inizio di qualcosa di nuovo. Xiaomi ha mostrato che David può davvero battere Golia, se ha l’allenamento giusto, le idee chiare e – perché no – il coraggio di condividere il proprio lavoro con il mondo. Se siete appassionati di AI, come la sottoscritta, tenete d’occhio questo nome. MiMo è qui per restare. E, spoiler: non sarà l’ultimo colpo che Xiaomi metterà a segno.

Android XR: Il Futuro della Realtà Estesa è Arrivato

Il mondo della tecnologia è sempre in fermento, ma ci sono pochi sviluppi che riescono a suscitare tanto entusiasmo quanto la recente presentazione di Android XR da parte di Google. Durante la conferenza TED2025, Shahram Izadi, una delle figure di punta dietro questo progetto, ha svelato uno spunto di quello che potrebbe essere il futuro degli occhiali smart. E se pensavate che gli occhiali intelligenti fossero ancora un concetto da film di fantascienza, preparatevi a cambiare idea.

Android XR è destinato a diventare un punto di riferimento nel panorama della realtà estesa, che abbraccia sia la realtà aumentata (AR) che la realtà virtuale (VR). Questo sistema operativo, sviluppato da Google in collaborazione con colossi come Samsung e Qualcomm, è molto più di una semplice evoluzione di Android: è una vera e propria rivoluzione destinata a trasformare il nostro rapporto con il mondo digitale. Immaginate di indossare un paio di occhiali smart e, senza interruzioni, passare dalla realtà fisica alla realtà digitale, come se vivessimo in un mondo dove la linea tra il virtuale e il tangibile fosse ormai sfumata.

La parte più affascinante di Android XR è senza dubbio l’integrazione con Gemini AI, l’intelligenza artificiale avanzata sviluppata da Google. Mentre i tentativi passati, come i famigerati Google Glass, erano destinati a restare nella memoria collettiva come promesse non mantenute, Android XR fa un passo decisivo verso il futuro, introducendo un assistente digitale che è in grado di interagire con l’ambiente fisico circostante. Questo significa che, se indossiamo gli occhiali, possiamo visualizzare contenuti digitali che interagiscono con il mondo intorno a noi in modo completamente nuovo. È come avere una finestra sul futuro, dove ogni oggetto, ogni spazio, diventa un’opportunità per esplorare e scoprire.

In un esempio pratico, durante la dimostrazione di Android XR, è stato chiesto a Gemini di comporre un haiku, evidenziando le capacità creative e linguistiche dell’intelligenza artificiale. Ma la vera magia è avvenuta quando Gemini ha iniziato a “vedere” l’ambiente circostante attraverso la fotocamera degli occhiali, rispondendo in tempo reale a domande specifiche sul mondo che si trovava davanti. Questo tipo di interazione tra visione artificiale e linguaggio naturale potrebbe sembrare un concetto da film di fantascienza, ma Google sta rendendo questa visione una realtà.

Gli occhiali smart che sono stati mostrati durante la presentazione non sono solo un gioiello tecnologico, ma anche un prodotto pensato per adattarsi alla vita di tutti i giorni. Grazie alla compatibilità con Android, questi occhiali permetteranno di eseguire funzioni come traduzioni in tempo reale, navigazione e persino l’interazione con le app del nostro smartphone senza bisogno di estrarre il telefono dalla tasca. È come avere un assistente personale sempre a portata di mano, pronto a rispondere a ogni esigenza, che sia tradurre una lingua straniera o suggerire la strada migliore per arrivare a destinazione.

A livello tecnico, Android XR è progettato per essere una piattaforma aperta, che permette a un’ampia gamma di dispositivi di sfruttarne le potenzialità. Da visori e occhiali smart a dispositivi mobili, l’idea è quella di creare un ecosistema in cui ogni gadget possa essere parte di una rete interconnessa, rendendo la tecnologia più accessibile e versatile. Con Samsung come uno dei partner principali, si prevede che i primi dispositivi compatibili con Android XR arriveranno già nel prossimo anno, con il visore in codice “Project Moohan” che rappresenterà l’ingresso di Google nel mercato degli occhiali smart e visori avanzati.

E non è finita qui. Il futuro di Android XR si preannuncia ancora più affascinante, con la promessa di esperienze immersive che spaziano dall’intrattenimento alla produttività. Immaginate di guardare un film non su uno schermo, ma in un gigantesco display virtuale che si materializza davanti ai vostri occhi, o di navigare tra le strade di una città tridimensionale tramite Google Maps. Ma la vera novità arriva con “Circle to Search”, una funzione che consente agli utenti di ottenere informazioni su qualsiasi oggetto semplicemente inquadrandolo con gli occhiali. In pratica, ogni oggetto diventa una fonte di conoscenza immediata, trasformando la realtà stessa in un campo di scoperte infinite.

La visione che Google ha per il futuro è chiara: abbattere le barriere tra il mondo fisico e quello digitale, facendo della realtà aumentata una parte integrante della vita quotidiana. Se in passato l’idea di interagire con la realtà attraverso occhiali intelligenti sembrava un concetto troppo lontano, ora con Android XR questo sogno sta per diventare una realtà tangibile. Grazie alla sinergia tra Google, Samsung, Qualcomm e altre grandi aziende come Lynx e Sony, il futuro degli occhiali smart e dei visori AR/VR non è mai stato così promettente.

 Android XR non è solo un sistema operativo per visori e occhiali smart: è una visione di come la tecnologia possa plasmare il nostro rapporto con il mondo. È un’opportunità per esplorare e vivere esperienze digitali in modo che fino a poco tempo fa sembravano solo utopie. E se Google ha davvero intenzione di portare questa piattaforma nella nostra quotidianità, possiamo tranquillamente dire che stiamo entrando in una nuova era della tecnologia, quella in cui la realtà aumentata non è più una possibilità, ma una parte fondamentale della nostra esperienza di vita.

Claude si integra con Google Workspace: Gmail, Calendar e Docs a portata di AI!

All’inizio di quest’anno, Anthropic ha presentato Claude, un’intelligenza artificiale pensata per essere un vero e proprio partner collaborativo. L’obiettivo? Aiutarti a sbrigare in pochi minuti compiti che altrimenti ti ruberebbero ore di lavoro prezioso. E per rendere Claude ancora più utile, il team di sviluppo ha lavorato sodo per connetterlo a un mondo di informazioni ancora più vasto, così da darti risposte sempre più complete e supportarti al meglio sia nella vita privata che in quella professionale.

Le ultime novità introdotte in Claude sono davvero interessanti: preparati all’arrivo della nuova modalità Ricerca e all’integrazione con Google Workspace! Vediamo cosa significano in pratica.

Claude esplora il web: la funzione Ricerca per decisioni più rapide 🔎

La nuova modalità Ricerca permette a Claude di andare oltre i documenti e le informazioni che gli fornisci direttamente. Immagina che possa esplorare l’intero universo di dati presenti sul web! Questa funzione è stata pensata apposta per rendere le tue decisioni più veloci ed efficaci, semplificando la raccolta di tutte le informazioni di cui hai bisogno.

Come un vero detective digitale, Claude esegue una serie di ricerche collegate tra loro, capendo quali aspetti approfondire per darti la risposta migliore. Analizza diverse prospettive su una domanda e lavora in modo preciso per fornirti risposte dettagliate, sempre supportate da fonti verificabili. Secondo gli sviluppatori di Anthropic, questa combinazione di velocità e accuratezza rende la funzione Ricerca super utile per rispondere alle mille domande che ti saltano in mente durante una giornata lavorativa intensa.

Ma le sorprese non finiscono qui! Claude ora si integra perfettamente con Google Workspace, aprendo un mondo di nuove possibilità. Collegandosi a strumenti che usi tutti i giorni come Gmail, Calendar e Google Docs, Claude acquisisce una visione completa del tuo contesto lavorativo in modo sicuro.

Cosa significa questo per te? Ad esempio, potrai chiedere a Claude di cercare informazioni tra le tue email, analizzare documenti importanti o consultare il tuo calendario, tutto senza dover caricare manualmente file o ripetere le stesse informazioni. Immagina di poter raccogliere automaticamente gli appunti di una riunione, individuare le azioni da fare partendo dalle email di follow-up o trovare documenti rilevanti per approfondire un certo argomento. E la cosa più comoda è che i risultati che ti fornirà saranno sempre corredati da fonti facilmente verificabili, così sei sicuro della loro attendibilità.

Funzionalità extra per le aziende: ricerca ancora più precisa con l’Enterprise! 🏢

E per le aziende che utilizzano la versione Enterprise di Claude, c’è un’altra novità interessante. È stata attivata una funzione di catalogazione che utilizza un indice specializzato dei documenti aziendali. Questo significa che le ricerche saranno ancora più precise, anche se le informazioni sono sparse in tanti documenti diversi o in file molto lunghi. Un bel vantaggio per trovare subito quello che ti serve!

Insomma, l’integrazione di Claude con Google Workspace è un passo avanti importante per rendere l’intelligenza artificiale uno strumento sempre più utile e integrato nella nostra vita lavorativa. Sei pronto a scoprire come Claude può semplificare la tua giornata?

Copilot Podcasts: Come l’Intelligenza Artificiale di Microsoft Rivoluziona l’Ascolto Personalizzato

Microsoft, in occasione del suo cinquantesimo anniversario, ha compiuto un passo significativo nel mondo dell’intelligenza artificiale con il lancio di nuove funzionalità per il suo assistente Copilot. Tra queste, spicca “Copilot Podcasts”, una novità progettata per offrire un’esperienza di ascolto personalizzata, sfidando direttamente servizi simili come Google NotebookLM. Ma come funziona esattamente e cosa significa per noi utenti?

Copilot Podcasts: Il Tuo Notiziario Audio Fatto Su Misura

L’idea alla base di Copilot Podcasts è quella di sfruttare la potenza dell’intelligenza artificiale generativa per trasformare contenuti testuali, video o link web in podcast personalizzati. Immaginate di poter “ascoltare” un riassunto degli ultimi articoli sui fumetti Marvel, un’analisi comparativa delle recensioni dell’ultimo film di animazione giapponese, o persino una guida audio su come assemblare il vostro nuovo PC da gaming. Con Copilot Podcasts, tutto questo diventa possibile.

La vera innovazione risiede nella personalizzazione. Gli utenti potranno indicare i propri interessi specifici e Copilot creerà podcast su misura, selezionando e sintetizzando informazioni rilevanti da diverse fonti. Microsoft ha evidenziato come questa funzione possa essere particolarmente utile in diverse situazioni pratiche. Ad esempio, se state pianificando un viaggio, potreste chiedere a Copilot di generare un podcast che confronti diverse destinazioni, analizzando costi, recensioni e attrazioni principali. Oppure, se siete indecisi sull’acquisto di una nuova console, potreste ottenere un podcast che metta a confronto le specifiche tecniche, i giochi disponibili e le opinioni degli esperti.

Durante l’ascolto di questi podcast generati dall’AI, gli utenti avranno anche la possibilità di interagire vocalmente con Copilot. Questo significa che potrete porre domande, chiedere approfondimenti o richiedere ulteriori dettagli sull’argomento trattato, trasformando l’esperienza di ascolto in un vero e proprio dialogo interattivo e dinamico.

Deep Research: L’AI che Scava a Fondo nel Web per Te

Oltre alla rivoluzione dell’audio personalizzato, Microsoft ha introdotto in Copilot la funzione “Deep Research”. Questa capacità rappresenta un’evoluzione delle tradizionali ricerche online, consentendo all’intelligenza artificiale di condurre indagini più complesse e articolate. Similmente a quanto già offerto da ChatGPT di OpenAI e Gemini di Google, Deep Research permette a Copilot di effettuare ricerche su più passaggi, analizzando diverse fonti di informazione per poi restituire all’utente un report completo e facilmente comprensibile.

Immaginate di dover approfondire un argomento specifico per un progetto o semplicemente per vostra curiosità. Invece di dover navigare tra decine di pagine web e confrontare diverse fonti, potrete semplicemente chiedere a Copilot di effettuare una “Deep Research”. L’AI si occuperà di raccogliere le informazioni rilevanti, analizzarle e presentarle in un formato chiaro e conciso, risparmiandovi tempo e fatica. Questa funzione si rivela particolarmente utile per accedere a informazioni dettagliate e ben strutturate su argomenti complessi, facilitando la comprensione e l’apprendimento.

Microsoft Sfida i Giganti dell’AI: Cosa Significa per il Futuro?

Con l’introduzione di Copilot Podcasts e Deep Research, Microsoft si posiziona come un concorrente agguerrito nel panorama degli assistenti AI. La strategia sembra puntare su una forte personalizzazione e sulla capacità di integrare diverse modalità di interazione, dall’audio al testo. Resta da vedere come il mercato accoglierà queste nuove funzionalità e se Microsoft riuscirà a conquistare una fetta significativa di utenti attualmente fedeli ad altre piattaforme.

Quello che è certo è che l’intelligenza artificiale sta diventando sempre più parte integrante della nostra vita quotidiana, offrendo nuove modalità di accedere all’informazione e di interagire con la tecnologia. Le innovazioni introdotte da Microsoft con Copilot rappresentano un ulteriore passo avanti in questa direzione, aprendo nuove prospettive per il futuro dell’assistenza virtuale e dell’apprendimento personalizzato.

Gemini per Bambini: Google sta per dare un AI super smart (e sicura?) ai più piccoli!

Avete capito bene: Google starebbe lavorando a una versione di Gemini – la loro ultima e potentissima IA – dedicata ai bambini. L’obiettivo? Un’esperienza di assistenza AI sicura e controllata, pensata su misura per le esigenze dei più giovani.

A quanto pare, gli 007 del codice hanno scovato delle chicche niente male nell’ultima versione dell’app Google per Android (la 16.12.39 per i più curiosi). Tra le righe di codice spunta una modalità “kid users” con funzioni che fanno già sognare i genitori (e forse anche qualche prof in panico!): creare storie, fare domande di ogni tipo, ricevere un aiuto concreto per i compiti e chi più ne ha più ne metta. Insomma, un vero e proprio Google AI per bambini pronto a sbarcare nelle nostre case.

Come funzionerà Gemini per i mini-nerd? Integrazione con Family Link in arrivo!

La logica ci dice che questa nuova modalità di Gemini per bambini sarà probabilmente integrata in automatico negli account Google Family Link o nei profili utente identificati come appartenenti a minori. Perfetto per tenere tutto sotto controllo e garantire un ambiente digitale più sicuro.

L’idea è quella di offrire una versione “light” e super filtrata dell’assistente, un vero e proprio assistente AI sicuro per i minori, capace di supportarli nello studio e di stimolare la loro creatività, il tutto senza il rischio di imbattersi in contenuti non adatti alla loro età. Un bel passo avanti per la sicurezza bambini online, no?

Gemini alleato dei compiti: la fine delle notti insonni per i genitori? 📚✏️

Una delle feature che più ci ha fatto drizzare le antenne è l’annunciato aiuto nello svolgimento dei compiti. Immaginate la scena: vostro figlio/a bloccato su un problema di matematica o una noiosa ricerca di scienze? Gemini AI potrebbe spiegare concetti complessi in modo semplice e coinvolgente, aiutandoli non solo a trovare la risposta giusta, ma soprattutto a capire il ragionamento che ci sta dietro.

E non finisce qui! Pare che ci sarà anche un modello dedicato chiamato “Deep Research” in grado di fornire risposte documentate e approfondite, perfette per affrontare anche i temi scolastici più tosti. Addio “mamma/papà, mi aiuti?” (forse…).

Gemini per bambini sarà davvero sicuro? Google promette filtri super potenti! 🛡️

La domanda che tutti ci stiamo ponendo è: ma quanto sarà sicuro questo Gemini per bambini? Google sembra aver preso la cosa molto sul serio, promettendo l’integrazione di filtri di sicurezza su Gemini per i minori con meccanismi avanzati di censura e moderazione dei contenuti.

L’obiettivo dichiarato è quello di evitare che i più piccoli accedano a informazioni inappropriate per la loro età, mantenendo un ambiente online protetto e con una forte vocazione didattica. Speriamo che questi filtri siano davvero all’altezza!

Addio Google Assistant, benvenuto Gemini: cosa cambia per i nostri figli? 👋➡️🤖

Mentre il buon vecchio Google Assistant si prepara ad andare in pensione entro la fine dell’anno, Gemini Google Assistant si presenta come la sua evoluzione naturale, un vero e proprio salto nel futuro grazie all’intelligenza artificiale generativa.

Rispetto al suo predecessore, Gemini è più potente, versatile e in grado di interagire in modo molto più naturale e “umano”. Per i bambini che utilizzano account Family Link, il passaggio a Gemini per account Family Link sarà una transizione graduale e controllata, con un’attenzione ancora maggiore all’educazione e alla sicurezza.

Quando potremo mettere le mani su Gemini per bambini? 👀

Secondo le indiscrezioni, il rilascio di Gemini per bambini potrebbe avvenire anche prima della dismissione definitiva di Google Assistant. Sembra che Google voglia davvero sostituire Assistant con Gemini su tutti i dispositivi, e l’arrivo di una versione pensata per i più piccoli potrebbe essere un tassello fondamentale di questa transizione. Teniamo le dita incrociate!

L’AI diventa educativa per i più giovani: una nuova era è alle porte! 🚀

L’arrivo di un assistente AI per bambini segna un momento importante nell’adozione dell’intelligenza artificiale a fini educativi. Con la giusta supervisione da parte dei genitori e gli strumenti adeguati, Gemini potrebbe davvero diventare un prezioso alleato nello sviluppo cognitivo dei più piccoli, offrendo risposte immediate, stimoli creativi e un supporto costante nello studio di tutti i giorni.

Certo, la questione solleva anche qualche interrogativo sull’impatto dell’AI sullo sviluppo dei bambini, ma le potenzialità di questa AI educativa per ragazzi sono davvero enormi. Voi cosa ne pensate? Siete pronti ad affidare i compiti dei vostri figli a un’intelligenza artificiale? Ditecelo nei commenti! 👇

Gemini 2.5 Pro: Google Rinnova l’IA con Capacità di Ragionamento Avanzato e Multimodalità

Google ha ufficialmente lanciato Gemini 2.5 Pro, segnando un nuovo capitolo nell’evoluzione dell’intelligenza artificiale. Con questo aggiornamento, l’azienda di Mountain View introduce un modello ancora più avanzato e sofisticato, capace di affrontare problemi complessi con un livello di ragionamento senza precedenti. Secondo quanto dichiarato da Google, Gemini 2.5 Pro supera i suoi principali rivali, tra cui OpenAI, Anthropic, xAI e DeepSeek, nei test di benchmarking relativi a matematica, coding, comprensione testuale e ragionamento multimodale.

La caratteristica distintiva di Gemini 2.5 Pro risiede nella sua architettura pensata per rafforzare le capacità di pensiero dell’IA. Google afferma che il modello è stato progettato per affrontare problemi in modo strutturato e metodico, grazie a un’integrazione più profonda delle catene di ragionamento. Questo approccio consente a Gemini 2.5 Pro di elaborare richieste in maniera più coerente e analitica, fornendo risposte più precise e contestualmente rilevanti. “Stiamo costruendo queste capacità di ragionamento direttamente in tutti i nostri modelli, così da poter affrontare problemi più complessi e supportare agenti più capaci e consapevoli del contesto”, ha scritto Google nel post ufficiale di annuncio.

Un altro aspetto rivoluzionario del nuovo modello è l’ampliamento della context window, che arriverà presto a 2 milioni di token, una soglia mai vista prima nel settore. Questa espansione permetterà al modello di processare quantità enormi di dati in un’unica sessione, rendendolo particolarmente efficace per analisi e compiti che richiedono continuità e approfondimento. Inoltre, la sua nativa multimodalità gli consente di elaborare non solo testi, ma anche immagini, audio, video e codice, consolidando la sua posizione tra le soluzioni IA più versatili attualmente disponibili.

Gemini 2.5 Pro è stato rilasciato a sorpresa ed è già disponibile per gli utenti abbonati al servizio Advanced, oltre a essere accessibile in prova su Google AI Studio, l’ambiente di sviluppo aperto a tutti. Presto sarà integrato anche su Vertex AI di Google Cloud, ampliando ulteriormente le possibilità di utilizzo per sviluppatori e aziende.

Dal punto di vista tecnico, Gemini 2.5 Pro sfrutta un sistema di catene di pensiero (Chain-of-Thought) per elaborare il prompt dell’utente in modo strutturato, organizzando meglio le informazioni e restituendo risposte più dettagliate e affidabili. Sebbene Google avesse già introdotto questa tecnologia con Gemini 2.0 Thinking, il nuovo modello rappresenta un salto di qualità: l’azienda ha infatti dichiarato che in futuro queste capacità di ragionamento saranno integrate in tutti i modelli della serie Gemini, rendendoli sempre più capaci di affrontare problemi complessi e di supportare agenti avanzati con una maggiore consapevolezza del contesto.

In termini di prestazioni, Google afferma che Gemini 2.5 Pro è attualmente all’avanguardia nei principali benchmark di riferimento per il ragionamento avanzato. Tra questi spiccano GPQA e AIME 2025, due test progettati per valutare le capacità logiche e matematiche di un modello IA. Inoltre, ha ottenuto un punteggio del 18,8% nel test Humanity’s Last Exam, un benchmark costruito sulla base della conoscenza di centinaia di esperti in diverse discipline. Per fare un confronto, il modello o3-mini-high di OpenAI ha raggiunto solo il 14% nello stesso test.

Anche nel campo della programmazione, Gemini 2.5 Pro mostra un netto miglioramento rispetto alla versione precedente. Secondo Google, il nuovo modello offre capacità di coding superiori rispetto a Gemini 2.0, eccellendo nella creazione di applicazioni web, nella trasformazione del codice e nelle operazioni di editing avanzato. Grazie alla sua natura multimodale, il modello è in grado di comprendere e gestire grandi quantità di dati provenienti da diverse fonti, tra cui testo, audio, immagini, video e persino interi repository di codice, rendendolo uno strumento estremamente potente per sviluppatori e ricercatori.

Con Gemini 2.5 Pro, Google conferma il suo impegno nel campo dell’intelligenza artificiale e riafferma la sua posizione di leadership tecnologica. Se le promesse fatte dall’azienda si tradurranno in risultati concreti, questo modello potrebbe rappresentare un passo decisivo verso un’IA sempre più sofisticata, in grado di ragionare e prendere decisioni con un livello di precisione mai visto prima.

Pixel 9a è ufficiale: il nuovo smartphone Google con AI potenziata e prezzo da gamer casual

Dopo mesi di anticipazioni, indiscrezioni e un hype degno dei titoli AAA, Google ha finalmente svelato il Pixel 9a, il nuovo smartphone della serie A che promette di ridefinire il concetto di mid-range. Alimentato dal potente Google Tensor G4, il Pixel 9a combina un design rinnovato con un’esperienza utente potenziata dall’intelligenza artificiale, il tutto a un prezzo altamente competitivo.

Un Design Raffinato e un Display Straordinario

Il Pixel 9a mantiene lo stile minimalista e raffinato di Google, ma con un tocco di freschezza. Il retro è più pulito, il modulo fotocamere è compatto ed elegante e la gamma cromatica si amplia con quattro varianti: Rosa Peonia, Viola Ametista, Nero Ossidiana e Grigio Creta.

Ma il vero punto di forza estetico è il nuovo display Actua da 6,3 pollici. Con una luminosità massima di 2700 nit (+35% rispetto al predecessore) e una frequenza di aggiornamento adattiva a 120Hz, offre un’esperienza visiva estremamente fluida e ben visibile anche sotto la luce diretta del sole.

Fotocamera Potenziata dall’AI: Scatta, Ritocca, Stupisci

Google ha sempre puntato sulla fotografia computazionale, e il Pixel 9a non fa eccezione. Il comparto fotografico include una doppia fotocamera con un sensore principale da 48MP e un’ultrawide da 13MP. Inoltre, per la prima volta su un modello della serie A, è presente la modalità Macro, perfetta per catturare i dettagli più piccoli con una nitidezza straordinaria.

Le funzionalità AI migliorano ulteriormente l’esperienza fotografica:

  • Aggiungimi: per unire più scatti e includere tutti nella foto, anche il fotografo.
  • Scatto Migliore: seleziona automaticamente le migliori espressioni facciali nei ritratti di gruppo.
  • Magic Editor: permette di modificare le foto con pochi tocchi, rimuovendo elementi indesiderati o espandendo la scena.
  • Foto notturna e Astrofotografia: per scatti dettagliati anche con poca luce.
  • Panorama con Vista Notturna: per catturare paesaggi mozzafiato al tramonto o di notte.

Potenza e Intelligenza Artificiale con Google Tensor G4

Il cuore pulsante del Pixel 9a è il Google Tensor G4, un chip progettato per massimizzare le prestazioni dell’AI. L’integrazione con Gemini, l’assistente AI avanzato di Google, garantisce un’esperienza fluida e smart, migliorando il multitasking e l’interazione con app come Maps, Calendar e YouTube.

Tra le novità più interessanti troviamo Gemini Live, che consente di avere conversazioni in tempo reale con l’AI, condividere schermate e persino usare la fotocamera per interagire con l’ambiente circostante.

Autonomia e Resistenza ai Massimi Livelli

Uno dei punti di forza del Pixel 9a è la batteria. Con un’autonomia di oltre 30 ore, che può superare le 100 ore attivando il Risparmio Energetico Estremo, il dispositivo garantisce una durata superiore rispetto ai precedenti modelli della serie A.

Inoltre, la certificazione IP68 lo rende resistente a polvere e acqua, proteggendolo da cadute accidentali e immersioni involontarie. Il Pixel 9a è progettato per durare, con sette anni di aggiornamenti software e di sicurezza, mantenendo il telefono sempre al passo con le nuove tecnologie.

Sicurezza e Funzionalità Smart

Come per i modelli superiori Pixel 9 e Pixel 9 Pro, il Pixel 9a include funzioni di sicurezza avanzate come Blocco per Furto, Rilevamento di Incidenti e VPN by Google integrata senza costi aggiuntivi. Inoltre, con Trova il Mio Dispositivo, gli utenti possono condividere la loro posizione in tempo reale con amici e familiari, garantendo maggiore sicurezza nei viaggi e negli spostamenti.

Un Perfetto Primo Smartphone per i Giovani

Google ha pensato anche ai più giovani, rendendo il Pixel 9a un’ottima scelta per chi sta acquistando il primo smartphone. Grazie all’integrazione con Google Family Link, i genitori possono gestire il tempo trascorso sullo schermo, monitorare l’uso delle app e impostare limiti personalizzati.

Prezzo e Disponibilità: Quando e Dove Acquistarlo

Il Pixel 9a sarà disponibile in Italia a partire da inizio aprile, con un prezzo consigliato di 549 euro. Potrà essere acquistato direttamente sul Google Store e presso i principali rivenditori tecnologici.

Con il suo mix perfetto di prestazioni, AI e prezzo competitivo, il Pixel 9a si candida come il miglior smartphone mid-range del 2024. Sei pronto a fare il salto nel mondo Pixel?

Sergey Brin e Larry Page. Gli uomini che hanno fondato Google

La casa editrice Gremese continua il suo viaggio nell’universo dei grandi innovatori del nostro tempo con una nuova biografia che promette di affascinare appassionati di tecnologia, imprenditori e curiosi del mondo digitale. Dopo aver esplorato le vite di pionieri come Bill Gates, Jeff Bezos ed Elon Musk, la collana “Dialoghi” si arricchisce di un volume dedicato a Sergey Brin e Larry Page, le menti geniali dietro la nascita di Google.

Il libro, scritto da Chris McNab, esperto divulgatore e autore di oltre cento saggi, ripercorre il cammino straordinario dei due fondatori, dall’incontro tra i banchi della Stanford University fino alla creazione del motore di ricerca più famoso al mondo. Un racconto che intreccia la passione per la matematica e l’informatica, l’innovazione tecnologica e una visione imprenditoriale senza precedenti.

Larry Page, nato nel 1973 nel Michigan, cresce in una famiglia di informatici, immerso fin da bambino in un ambiente stimolante che lo avvicina precocemente al mondo dei computer. Sergey Brin, suo coetaneo, ha invece un passato da rifugiato: nato in Unione Sovietica, emigra negli Stati Uniti con la famiglia in cerca di un futuro migliore. I loro destini si incrociano a Stanford, dove condividono una brillante intuizione: sviluppare un algoritmo di ranking capace di migliorare radicalmente i risultati di ricerca sul web. È così che nasce Google, inizialmente un progetto accademico, poi una startup rivoluzionaria destinata a ridefinire il panorama digitale globale.

Dalla fondazione ufficiale nel 1998, Google cresce a una velocità vertiginosa, espandendosi ben oltre il suo motore di ricerca. Nel corso degli anni, sotto la guida di Brin e Page, l’azienda dà vita a una serie di prodotti e servizi innovativi che cambiano per sempre il nostro rapporto con la tecnologia: da Google Maps a YouTube, da Android all’intelligenza artificiale, fino alle più recenti ricerche nel campo della scienza e dell’innovazione attraverso Alphabet Inc., la holding creata per gestire l’ecosistema di aziende nate sotto l’ala di Google.

Più di una semplice biografia, il libro di McNab è un’analisi dettagliata delle strategie che hanno trasformato Google in uno dei più potenti imperi tecnologici della storia. Tra scelte audaci, intuizioni geniali e una costante tensione verso il futuro, la storia di Sergey Brin e Larry Page rappresenta una lezione di innovazione e imprenditorialità per chiunque voglia comprendere i segreti del successo nell’era digitale.

Un volume imperdibile per gli appassionati di tecnologia, per i professionisti del settore e per chiunque voglia scoprire come due giovani studenti universitari siano riusciti a plasmare il mondo moderno con un’idea tanto semplice quanto rivoluzionaria. Il libro è già disponibile nelle librerie e sulle principali piattaforme digitali.

La Rivoluzione AI di Baidu: ERNIE e il Futuro dell’Intelligenza Artificiale Generativa

Negli ultimi mesi, la Cina ha compiuto passi da gigante nel settore dell’intelligenza artificiale generativa, aprendo il mercato a nuove soluzioni tecnologiche che mirano a competere direttamente con i giganti occidentali come Google e OpenAI. Tra i principali protagonisti di questa rivoluzione vi è Baidu, una delle aziende tecnologiche cinesi più influenti, che ha puntato fortemente sullo sviluppo di modelli avanzati di intelligenza artificiale.

Il 31 agosto 2024, Baidu ha reso disponibile al pubblico ERNIE Bot, un chatbot basato su intelligenza artificiale che ha subito iniziato a ricevere feedback dagli utenti. Questo lancio ha segnato un punto di svolta nella strategia dell’azienda, che ha successivamente introdotto nuovi modelli con l’obiettivo di rafforzare la propria posizione nel mercato dell’AI generativa. Tra le novità più significative, spicca Ernie X1, un modello incentrato sul ragionamento, progettato per rivaleggiare con le soluzioni offerte dalla startup DeepSeek, che ha recentemente guadagnato popolarità con il suo innovativo modello R1.

Secondo Baidu, Ernie X1 offre prestazioni comparabili a DeepSeek R1, ma a un costo significativamente inferiore. L’azienda ha dichiarato che X1 si distingue per la sua capacità di comprensione, pianificazione, riflessione ed evoluzione, grazie a un avanzato sistema di deep-thinking che gli permette di utilizzare strumenti in modo autonomo. Questa caratteristica rappresenta un significativo passo avanti rispetto ai modelli precedenti, migliorando la capacità dell’intelligenza artificiale di gestire problemi complessi e fornire risposte più pertinenti e contestualizzate.

Un’altra importante innovazione introdotta da Baidu è il modello Ernie 4.5, il più recente della famiglia ERNIE. Questo modello di base vanta un’eccellente capacità di comprensione multimodale, una sofisticata competenza linguistica e notevoli miglioramenti nelle aree della comprensione, generazione, logica e memoria. Tra le caratteristiche peculiari di Ernie 4.5 vi è anche un’alta intelligenza emotiva, che gli consente di comprendere e interpretare meme di rete e vignette satiriche, rendendolo un modello particolarmente adatto all’interazione con gli utenti in contesti informali e sociali.

Nonostante l’indubbia qualità dei suoi modelli, Baidu ha dovuto affrontare una dura competizione all’interno del mercato cinese dell’AI, in particolare nella diffusione del suo modello di linguaggio di grandi dimensioni Ernie. Sebbene l’azienda affermi che le prestazioni del suo sistema siano paragonabili a quelle di GPT-4 di OpenAI, il settore rimane estremamente competitivo e caratterizzato dalla presenza di numerosi attori emergenti. Tra questi figurano aziende come SenseTime, Baichuan Intelligence, Zhipu AI e MiniMax, che hanno ricevuto l’approvazione governativa per lo sviluppo di modelli di intelligenza artificiale generativa. Un caso particolare è quello della Chinese Academy of Sciences, che ha ottenuto il via libera per il lancio del suo modello TaiChu, sebbene non sia ancora stato rilasciato sul mercato.

Questi sviluppi si inseriscono in un contesto di progressiva apertura del governo cinese nei confronti dell’intelligenza artificiale generativa. In passato, il settore era soggetto a rigide normative che imponevano un’approvazione governativa per la distribuzione di servizi AI. Tuttavia, la recente tendenza ha visto un allentamento delle restrizioni, consentendo una maggiore libertà di innovazione alle aziende cinesi. Robin Li, co-fondatore di Baidu, ha sottolineato come la collaborazione tra la sua azienda e le autorità di regolamentazione abbia contribuito a rendere possibile questa nuova fase di crescita, garantendo al tempo stesso un utilizzo responsabile della tecnologia.

Mentre Baidu continua ad affinare i suoi modelli e a rafforzare la sua presenza nel settore, anche altri colossi tecnologici cinesi, come Tencent e Alibaba, stanno lavorando su proprie soluzioni di intelligenza artificiale generativa. ERNIE Bot, quindi, rappresenta solo il primo di una serie di chatbot destinati a diffondersi rapidamente in Cina. Resta da vedere, tuttavia, se queste tecnologie riusciranno a conquistare anche i mercati internazionali, dove la concorrenza con i colossi statunitensi rimane agguerrita.

Un importante passo nella strategia di espansione di Baidu è stata la decisione di rendere ERNIE Bot completamente gratuito a partire dal 1° aprile 2025. Questa scelta non è solo un’operazione di marketing, ma risponde a una strategia precisa: da un lato, ottimizzare i costi operativi grazie ai progressi nell’efficienza dei modelli AI; dall’altro, ampliare la base di utenti, incoraggiando una diffusione capillare delle proprie soluzioni di intelligenza artificiale. Per rafforzare il rapporto con i propri utenti, Baidu ha inoltre annunciato il rimborso per alcune categorie di abbonati premium che avevano precedentemente sottoscritto piani a pagamento, dimostrando così una particolare attenzione alla customer experience.

Oltre alla gratuità di ERNIE Bot, Baidu ha anche presentato una nuova funzione di ricerca avanzata basata sull’intelligenza artificiale. Questa innovazione si propone di rivoluzionare il modo in cui gli utenti interagiscono con il motore di ricerca dell’azienda, migliorando la precisione delle risposte e integrando capacità di analisi avanzata dei dati. Con questa nuova funzione, Baidu punta a competere con le soluzioni sviluppate da Google e OpenAI, offrendo un’esperienza utente sempre più raffinata e accessibile.

L’intelligenza artificiale generativa rappresenta uno dei settori più dinamici dell’innovazione tecnologica e la competizione tra Cina e Occidente è destinata a intensificarsi nei prossimi anni. Baidu, con la sua strategia di apertura e accessibilità, ha scelto di investire sul lungo termine, puntando a fidelizzare gli utenti e a consolidare la propria posizione nel mercato globale dell’AI. Tuttavia, il futuro rimane incerto e sarà determinato dalle prossime mosse dei principali concorrenti, in un contesto in continua evoluzione che potrebbe ridefinire l’intero settore della tecnologia avanzata.

La caduta di Humane AI Pin: un sogno infranto nella rivoluzione dell’IA

Il mondo della tecnologia assiste alla fine di un’era con la chiusura di Humane AI Pin, un dispositivo che aveva l’ambizione di rivoluzionare il nostro rapporto con l’intelligenza artificiale. La startup Humane, fondata dagli ex dipendenti Apple Bethany Bongiorno e Imran Chaudhri, ha annunciato la cessazione delle attività e la vendita delle sue risorse a HP per 116 milioni di dollari. Il 28 febbraio 2025, alle 21:00 ora italiana, i server di Humane verranno spenti definitivamente, rendendo inutilizzabili tutti i dispositivi AI Pin già venduti.

Un progetto visionario con fondamenta fragili

Fin dall’inizio, Humane AI Pin si è presentato come un prodotto ambizioso: un dispositivo indossabile basato sull’IA che avrebbe dovuto ridurre la nostra dipendenza dagli smartphone. Equipaggiato con un chip Qualcomm Snapdragon e il supporto di GPT-4 di OpenAI, l’AI Pin prometteva un’interazione innovativa grazie ai comandi vocali e a un sistema di proiezione laser che sostituiva il display fisico.

Tuttavia, sin dal lancio, il prodotto ha mostrato evidenti limiti. L’assenza di uno schermo ha sollevato interrogativi sulla praticità d’uso, e le recensioni iniziali sono state impietose, mettendo in luce prestazioni inferiori alle aspettative, un’interfaccia poco intuitiva e un prezzo elevato. Il costo iniziale di 699 dollari, poi ridotto a 499, non è bastato a renderlo appetibile per il grande pubblico. Inoltre, le carenze nell’IA – spesso lenta e imprecisa – e la compatibilità limitata con le app già esistenti hanno ulteriormente ridotto l’attrattiva del dispositivo.

Errori strategici e un mercato poco ricettivo

Uno dei principali problemi di Humane AI Pin è stata la difficoltà di convincere gli utenti ad abbandonare gli smartphone in favore di un dispositivo dal funzionamento ancora acerbo. La necessità di batterie aggiuntive, abbonamenti mensili obbligatori e la mancanza di un SDK per sviluppatori hanno reso il prodotto poco allettante anche per gli utenti più innovativi. La transizione verso CosmOS, un sistema operativo pensato per smart speaker, smart TV e sistemi in-car, sembrava offrire una speranza, ma l’assenza di una roadmap chiara ha minato ulteriormente la fiducia nel progetto.

Negli ultimi mesi, il numero di restituzioni ha superato le vendite, rendendo insostenibile la produzione. Alla fine, Humane ha dovuto ammettere la sconfitta e chiudere i battenti, segnando la fine di un esperimento che, seppur audace, ha evidenziato le sfide nel ridefinire l’interazione uomo-macchina.

L’acquisizione da parte di HP: un nuovo inizio per l’IA?

HP ha annunciato che l’acquisizione di Humane include il team di ingegneri e product manager, che verrà integrato in un nuovo reparto denominato HP IQ. Questo gruppo lavorerà su soluzioni innovative basate sull’IA, con l’obiettivo di potenziare l’ecosistema tecnologico di HP. CosmOS potrebbe trovare applicazione nei PC, nelle stampanti e nei dispositivi smart dell’azienda, offrendo nuove funzionalità AI per il futuro.

Cosa devono fare gli utenti prima dello spegnimento definitivo

Humane ha rilasciato una serie di linee guida per i possessori dell’AI Pin. Gli utenti devono trasferire i loro dati su un dispositivo esterno prima del 28 febbraio 2025, poiché dopo tale data i server verranno definitivamente spenti. Il supporto clienti cesserà lo stesso giorno.

Per chi ha acquistato il dispositivo dopo il 15 novembre 2024, è previsto un rimborso, che potrà essere richiesto entro il 27 febbraio 2025. Dopo la chiusura del servizio, l’AI Pin perderà tutte le funzionalità basate sul cloud, rendendolo inutilizzabile come dispositivo cellulare. Alcune funzioni offline minori, come il controllo del livello della batteria, potrebbero restare attive, ma l’apparecchio diventerà sostanzialmente obsoleto. Humane consiglia agli utenti di smaltire il dispositivo attraverso programmi di riciclo per i rifiuti elettronici.

Il futuro dell’intelligenza artificiale nel settore consumer

Nonostante il fallimento di Humane AI Pin, l’acquisizione da parte di HP potrebbe aprire nuove prospettive per l’integrazione dell’IA nei dispositivi di consumo. Aziende come Apple, Samsung, Xiaomi e Lenovo continuano a investire in hardware avanzato, dimostrando che il settore resta in continua evoluzione. HP potrebbe sfruttare l’esperienza di Humane per potenziare i propri dispositivi, introducendo funzionalità AI più sofisticate nei futuri PC e gadget smart.

L’AI Pin si avvia al tramonto, ma il mercato della tecnologia è tutt’altro che statico. Nuove innovazioni nel campo dell’intelligenza artificiale e delle interfacce utente stanno già plasmando il futuro, suggerendo che la prossima grande rivoluzione tecnologica potrebbe essere dietro l’angolo.