Il nuovo set di regole, il primo al mondo nel suo genere, è stato adottato all’unanimità, dimostrando l’unità dell’Unione Europea di fronte alle sfide poste dall’intelligenza artificiale. I ministri dei Ventisette responsabili per le telecomunicazioni hanno approvato l’AI Act, il complesso di norme che disciplina lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di IA in UE.
Un esito che per Brando Benifei, il relatore al Parlamento europeo dell’AI Act, “certifica la qualità del lavoro svolto su un tema di grande sensibilità politica e di mercato, che rende l’UE il capofila globale nella regolamentazione dell’IA“.
La nuova normativa europea sull’IA si basa su un delicato equilibrio tra promozione dell’innovazione e tutela dei diritti umani, della democrazia, dello Stato di diritto e della sostenibilità ambientale. L’approccio innovativo al rischio adottato dal legislatore europeo impone una serie di obblighi a fornitori e sviluppatori di sistemi di IA, modulati in base ai diversi livelli di rischio identificati. Quando il rischio è considerato inaccettabile, scattano i divieti. È il caso delle tecniche manipolative, delle pratiche di polizia predittiva e del riconoscimento delle emozioni vietato sul posto di lavoro e nelle scuole (il riconoscimento facciale è consentito solo alle forze dell’ordine e soggetto a condizioni rigorose).
Una delle novità principali è il capitolo dedicato all’IA generativa (ossia qualsiasi tipo di intelligenza artificiale in grado di creare, in risposta a specifiche richieste, diversi tipi di contenuti come testi, audio, immagini, video), inserito durante la stesura per rispondere alla rapida diffusione di sistemi come ChatGPT. La legge promuove l’istituzione di “regulatory sandboxes” e test nel mondo reale, gestiti dalle autorità nazionali per sviluppare e addestrare l’IA innovativa prima della sua commercializzazione.
L’AI Act entrerà ufficialmente in vigore tra pochi giorni, con la pubblicazione nella Gazzetta Ufficiale dell’UE, ma le nuove regole saranno applicabili solo tra due anni. Fanno eccezione i divieti, che scatteranno dopo sei mesi, i controlli sui sistemi di IA per finalità generali, inclusa la governance (12 mesi), e gli obblighi per i sistemi ad alto rischio (36 mesi). Conclusa la fase legislativa, si apre ora quella cruciale dell’attuazione. La vicepremier belga, Petra de Sutter, ha sottolineato che questa normativa contribuirà all’autonomia strategica dell’UE:
Avere una legislazione che è una novità mondiale come l’AI Act può essere un vantaggio competitivo ed è essenziale per la nostra sicurezza economica.
L’obiettivo è sfruttare il potenziale del mercato unico e adottare un approccio coerente e omogeneo per sostenere le società nel loro percorso di adeguamento alle regole digitali, trasformando l’AI Act in un motore di innovazione per l’Europa.