L’AI Act è la prima legge al mondo che regolamenterà l’uso dell’AI nel nostro continente. La normativa ha lo scopo di indirizzare lo sviluppo di questa tecnologia – che sembra destinata a evolversi come nessun’altra e a condizionare in modo determinante la crescita economia e sociale dell’umanità – in modo da evitarne le derive più pericolose e mitigare i suoi rischi.

Dopo un durissimo negoziato che ha visto contrapporsi i diversi organi della Comunità Europea e i singoli Paesi, si sono raggiunti degli accordi storici che pongono i primi paletti per prevenire la sorveglianza di massa, il proliferare di deep fake e tutelare il copyright.

L’uso dell’AI per scopi di polizia e la minaccia della sorveglianza di massa

Il punto più controverso e divisivo è stato quello degli utilizzi ammessi e vietati dell’Intelligenza Artificiale da parte delle forze dell’ordine. Queste, attraverso l’uso dell’AI, potrebbero usufruire del riconoscimento biometrico in tempo reale e arrivare alla polizia predittiva, ovvero usare gli algoritmi per prevedere le probabilità con cui può essere commesso un reato, da chi e dove.

L’AI Act ha quindi regolamentato il riconoscimento biometrico, inteso come riconoscimento e tracciamento delle persone in base al proprio volto, che è stato vietato, salvo in tre casi: prevista ed evidente minaccia di attacco terroristico; ricerca di vittime; persecuzione di seri crimini. È inoltre vietato l’uso dell’AI per la valutazione degli individui sulla base di dati sensibili e quindi delle caratteristiche personali, tra cui gli orientamenti politici, religiosi, sessuali, per fare alcuni esempi.

Inoltre, poiché tra gli obiettivi della legge europea c’è quello di proteggere al massimo i diritti della dignità e della libertà dei cittadini, oltre che tutelarne la privacy e prevenire sistemi di sorveglianza di massa, saranno messi al bando anche i sistemi che elaborano e riconoscono le emozioni o che sviluppano le tecniche che mirano a manipolare il comportamento umano.

Il controllo dell’AI Generativa

L’AI Act regola anche l’Intelligenza Artificiale così detta “generativa”, ovvero quella che crea contenuti testuali e visivi, in modo da mettere un argine allo sviluppo incontrollato di contenuti falsi e da dare maggiore tutela ai produttori di contenuti anche attraverso il rispetto del copyright.

Con la nuova normativa, infatti, si rende obbligatoria una filigrana digitale (watermarking), ovvero gli sviluppatori devono inserire una stringa che avverte quando i contenuti sono creati dall’AI. Mentre, per tutelare attivamente il copyright, non sarà possibile impiegare contenuti per alimentare i chatbot avanzati, come ChatGpt o Gemini, se l’autore avrà richiesto di non utilizzare i propri su cui detiene i diritti. E sempre per tutelare il diritto d’autore, sui contenuti già prelevati per allenare gli algoritmi, le società tech dovranno essere trasparenti e fornire riassunti dettagliati di quanto utilizzato.

Un nuovo organismo europeo

La svolta epocale che prevede questo nuovo strumento normativo transnazionale a tutela dei diritti delle persone, comprende anche la nascita di un AI Office, un nuovo organismo europeo che si installerà a Bruxelles e che avrà risorse economiche e tecniche autonome per verificare il rispetto del regolamento e svolgere il compito di raccordo e supervisione. Accanto a questa istituzione i diversi paesi potranno avere una propria autority indipendente nazionale, oppure potranno affidare la vigilanza sull’Intelligenza Artificiale a un’autorità già esistente.

Tempi di applicazione in 24 mesi

L’ AI Act dovrebbe diventare pienamente operativo in 24 mesi, ma già nei primi 6 gli usi più pericolosi verranno proibiti, mentre i singoli paesi potranno accelerare l’applicazione di alcuni divieti.

All’interno di questi tempi, è stata prevista una conformità volontaria, il cosiddetto AI Pact, che permetterà alle aziende di adeguarsi all’AI Act prima che diventi pienamente operativo. Un’agevolazione motivata dalla severità delle sanzioni previste in caso di violazioni e reati, che potranno essere molto elevate: fino a 35 milioni di euro o il 7% del fatturato globale per le infrazioni più gravi. Ma per favorire l’innovazione, per le piccole e medie imprese, sono previste eccezioni con la creazione di ambienti di test esenti dalle regole (i cosiddetti regulatory sandbox).

Grazie a questo nuovo approccio allo sviluppo dell’Intelligenza Artificiale, se i grandi provider come Google, Meta o Microsoft vorranno continuare a vendere i loro servizi ai cittadini e alle imprese dell’Unione Europea dovranno garantire e certificare qualità e trasparenza di algoritmi e dati, anche perché la normativa prevede il diritto dei cittadini di presentare reclami riguardo a decisioni prese da sistemi di intelligenza artificiale ad alto rischio.