Ci siamo. Manca meno di una settimana a quel 2 agosto che potrebbe passare alla storia come la data in cui l’Europa ha deciso di prendere in mano le redini della rivoluzione tecnologica più potente del nostro tempo: l’intelligenza artificiale. Il conto alla rovescia è partito da tempo, ma ora è tangibile. Tra pochissimi giorni entreranno finalmente in vigore le disposizioni più attese dell’AI Act, il Regolamento UE 2024/1681, primo al mondo nel suo genere, pronto a dettare legge nel selvaggio e imprevedibile mondo dell’AI generativa.
In questi mesi il fermento attorno alla nuova normativa è cresciuto a dismisura. L’Europa, nel suo stile spesso definito burocratico e lento, stavolta ha giocato d’anticipo rispetto a tutto il resto del mondo. L’intento è ambizioso: non solo disciplinare l’uso dell’intelligenza artificiale, ma anche stabilire un modello etico, umano e responsabile da esportare come standard globale. A fare da motore a questa regolamentazione è un principio tanto semplice quanto rivoluzionario: il rischio. L’AI non sarà più considerata solo in base a ciò che può fare, ma a ciò che può causare. Le tecnologie verranno infatti classificate per livelli di rischio, e di conseguenza regolamentate o vietate.
Il cuore pulsante di questa svolta normativa si concentra sui cosiddetti GPAI, i modelli ad uso generale. In parole povere: le intelligenze artificiali più diffuse, versatili e potenti, quelle che possono scrivere, parlare, creare immagini, aiutare o sostituire. Quelle che, come abbiamo visto in questi mesi, possono anche destabilizzare il dibattito pubblico, alterare la percezione della realtà, spingere la produttività alle stelle o disintegrare i confini tra vero e falso. ChatGPT, Gemini, Claude, LLaMA… li conosciamo ormai bene.
Dal 2 agosto, chi sviluppa o distribuisce questi modelli in Europa dovrà rispettare obblighi severi: documentazione dettagliata, tracciamento degli incidenti, misure contro i rischi sistemici e – dettaglio non da poco – la pubblicazione dei dataset di addestramento. In sostanza: fine della scatola nera. L’intelligenza artificiale non potrà più essere un misterioso oracolo. Dovrà essere spiegabile, verificabile e soprattutto responsabilizzabile.
Le reazioni, com’era prevedibile, non si sono fatte attendere. Le Big Tech hanno reagito come chiunque venga chiamato a rendere conto. Meta si è subito tirata indietro, rifiutandosi di firmare il codice di condotta volontario proposto da Bruxelles, lamentando “incertezze legali” e possibili freni allo sviluppo. OpenAI ha chiesto una proroga di sei mesi per adeguare i propri modelli. Altre realtà, come Anthropic e Mistral AI, hanno chiesto esenzioni e deroghe per modelli non commerciali o per difficoltà nel soddisfare alcuni requisiti tecnici, come la spiegabilità o la marcatura CE. Anche le PMI europee hanno fatto sentire la loro voce, temendo che questa rivoluzione normativa possa trasformarsi in una zavorra insostenibile, soprattutto per chi lavora nel settore open source.
La Commissione Europea, però, ha tirato dritto. Il 9 luglio, attraverso il portavoce Thomas Regnier, ha ribadito che non ci sarà alcun rinvio. Le regole ci sono, sono chiare e saranno applicate. Per accompagnare questa transizione epocale, sono stati pubblicati a luglio un codice di condotta volontario e delle linee guida ufficiali per aiutare i fornitori a orientarsi tra i nuovi obblighi. Ma il punto fermo resta: la data spartiacque è fissata. E non si torna indietro.
Chi non rispetterà le regole rischia sanzioni pesantissime: fino a 35 milioni di euro o il 7% del fatturato globale. Non si tratta di simboli, ma di strumenti pensati per evitare che l’AI diventi un’arma fuori controllo nelle mani sbagliate. Basta leggere il post pubblicato da Sam Altman qualche giorno fa per capire quanto questo timore sia reale. Il CEO di OpenAI ha annunciato il lancio di ChatGPT Agent, un nuovo tipo di assistente autonomo dalle potenzialità straordinarie. Ma ha anche ammesso che, nonostante le precauzioni prese, non è possibile prevedere tutte le conseguenze. Un invito alla prudenza, certo. Ma anche una sorta di “avviso legale” ai suoi utenti: il futuro è qui, provatelo, ma a vostro rischio e pericolo.
Ecco perché l’AI Act non è solo una legge. È una presa di posizione politica, culturale, civile. È il tentativo dell’Unione Europea di dire: la tecnologia va governata, non lasciata alla sola logica del profitto. Il diritto alla sicurezza, alla trasparenza, alla tutela dei dati e della dignità umana non può essere sacrificato sull’altare dell’innovazione a ogni costo.
Dal 2 febbraio 2025, alcuni divieti fondamentali hanno già cominciato a fare effetto: riconoscimento facciale non consensuale, social scoring, manipolazione del comportamento. Ora arriva la fase due. L’Italia, nel frattempo, si è attrezzata con due presìdi fondamentali: l’AgID, che si occuperà della promozione delle procedure di conformità, e l’Agenzia per la Cybersicurezza Nazionale, incaricata di vigilare e sanzionare.
Siamo all’alba di una nuova era. Il mondo osserva con curiosità e anche con un pizzico di scetticismo. Ma l’Europa ha scelto. Ha scelto di non essere più una semplice spettatrice della rivoluzione digitale. Ha deciso di riscrivere le regole del gioco. Ora resta da capire se le regole saranno seguite, e se chi le ha scritte saprà davvero farle rispettare.
Nel frattempo, prepariamoci: l’AI non è più una promessa futuristica. È già realtà. Ma, da oggi in poi, dovrà rispondere anche alla legge. E questo, nel bene o nel male, è un momento storico.
