Il G7 pugliese appena concluso ambisce a essere un punto di svolta nella discussione globale sull’etica nell’uso dell’Ai. L’Intelligenza Artificiale continua a essere al centro del dibattito politico internazionale, già durante il forum intergovernativo del G7 sul tema di industria e tecnologia, tenutasi a Trento nel marzo scorso, i leader avevano affrontato l’importanza di stabilire norme internazionali per regolare e promuovere un utilizzo responsabile su scala globale e promuovere l’innovazione in modo equo e sicuro.
Durante il summit di Trento le sette economie più avanzate del pianeta avevano discusso e definito i punti principali di un metodo per stabilire norme comuni che portino a un codice di condotta internazionale dell’AI e gettato le basi di un dialogo condiviso per creare una normativa europea efficace.
Intanto la Comunità Europea inizia le prime attività per la messa in opera dell’AI Act con la definizione degli organi transnazionali e nazionali che avranno il compito di vigilare sulle nuove regole, mentre con l’attuazione del Digital services act partono i primi controlli sui rischi dell’Ai generativa e sulla profilazione per la pubblicità mentre si moltiplicano le opportunità di investimento privato grazie all’azione di regolamentazione data dalla normativa.
Le novità del G7, tra Trento e Borgo Egnazia
“L’AI può giocare un ruolo cruciale nello sviluppo sociale ed economico, ma solo se essa è sicura e affidabile. Assicurata questa premessa, le applicazioni e i servizi basati sull’Intelligenza Artificiale possono favorire in generale una Trasformazione Digitale che porti i benefici più attesi limitando al massimo i rischi collegati.” Queste le prime righe del paragrafo dedicato all’Ai nel documento ufficiale “Apulia G7 Leaders’ Communiqué”, un chiaro segnale dell’importanza rivestita dal tema durante il summit internazionale.
Già durante l’incontro di Trento sotto la Presidenza Italiana, il nostro Paese si era dimostrato parte attiva della discussione prendendo l’impegno, tra gli altri, di elaborare strategie sull’impiego degli algoritmi nei servizi pubblici e di produrre un compendio sui servizi pubblici digitali.
La Presidenza italiana si impegna quindi a integrare i risultati del Processo di Hiroshima sull’intelligenza artificiale (HAIP) per sviluppare, insieme alle parti interessate, meccanismi appropriati per il monitoraggio dell’adozione volontaria del “Codice di Condotta Internazionale per le Organizzazioni che Sviluppano Sistemi di IA Avanzati.”
Come già sottolineato a Trento, anche in Puglia si è parlato della lotta a un modello di internet frammentato, visto come ostacolo alle sue funzioni globali, obiettivo da raggiungere “cooperando attivamente” con tutte le parti interessate.
Altro aspetto fondamentale è la costituzione di un gruppo di lavoro sui chip, che dovrà interessarsi degli sviluppi della ricerca e delle necessità industriali con l’obiettivo di non farsi trovare impreparati nel caso si creino eventuali colli di bottiglia nella produzione extraeuropea.
E proprio per sostenere una produzione sempre più europea dei microchip, l’Unione europea ha stanziato 43 miliardi di euro in investimenti pubblici e privati per sostenere l’industria di questa tecnologia nell’ambito del Chips Act.
Come già successo a Trento, anche il recente G7 esprime come prioritaria la necessità che l’IA venga sviluppata e utilizzata in modo etico e in linea con i principi e i valori che sono alla base delle nostre democrazie, per il bene dei cittadini e per la coesione, la resilienza, il welfare e il benessere delle società e economie.
A che punto siamo con l’AI Act
A pochi mesi dall’approvazione dell’AI Act, ovvero il regolamento comunitario sull’intelligenza artificiale, iniziano a formarsi le strutture organizzative per la sua attuazione, strutture che a regime impiegheranno circa 100 persone.
Primo elemento su cui si sta lavorando è un Consiglio dell’AI, composto da un esponente per ogni Paese e articolato in due sotto-gruppi, uno dedicato alla sorveglianza del mercato e uno alle notifiche delle autorità. Questo nuovo organismo deve assistere la Commissione nel far valere le regole e a sua volta può contare su un comitato di consulenti tecnici e su un comitato indipendente di scienziati e esperti.
Attraverso la sua attività di coordinamento, controllo del rischio, promozione dell’innovazione e della fiducia verso l’AI, il Consiglio identificherà le aree prioritarie per lo sviluppo di questa tecnologia fornendo in maniera indiretta indicazioni agli investitori privati su dove è più probabile che sorgano i rendimenti. Questo può aiutare a indirizzare gli investimenti verso progetti con il maggior potenziale di impatto e successo.
Il compito di controllare che l’AI Act sia applicato in modo uniforme da tutti gli Stati dell’Unione Europea sarà invece affidato a un AI Office che avrà l’incarico di investigare sulle violazioni, stabilire codici di condotta e classificare i modelli di intelligenza artificiale che rappresentano un rischio sistemico.
Un altro step importante riguarda la definizione delle regole delle sandbox, ovvero gli ambienti di test richiesti obbligatoriamente a ogni Stato, per la cui gestione sono previsti due milioni di euro di finanziamenti.
Le varie criticità che dovrebbe regolare l’AI Act in Italia verranno gestite da autorità differenti, per l’uso dei sistemi di riconoscimento biometrico in tempo reale il riferimento sarà il Garante nazionale dei dati personali, la Consob per la finanza e per le infrastrutture critiche il controllo sarà affidato all’Autorità per la cybersicurezza nazionale, ma tutti questi enti saranno coordinati dall’ Agenzia per l’Italia digitale.
Dal punto di vista delle imprese, l’introduzione dell’AI Act rappresenta un’opportunità unica per rinnovarsi e sbloccare nuovi livelli di crescita grazie a un ambiente normativo favorevole che incoraggi l’adozione dell’Intelligenza Artificiale.
Le aziende che saranno in grado di sfruttare al meglio questa tecnologia ne potranno beneficiare con il potenziale di creare nuovi posti di lavoro, aumentare la produttività e spingere l’Europa all’avanguardia dell’innovazione tecnologica.
Come l’Europa intende far rispettare le regole con il Digital Service Act
Il Digital services act (Dsa) è un pacchetto di regole europee sui servizi digitali diventato legge per tutti lo scorso febbraio che impone trasparenza su algoritmi e pubblicità, lotta contro la violenza online e la disinformazione, si occupa della protezione dei minori, e mette un freno alla profilazione degli utenti. Riguarda Fornitori di cloud e di hosting, motori di ricerca, e-commerce e servizi online e, in generale, tutti gli intermediari in rete che dovranno adeguarsi alle norme.
In questo ambito, la Commissione europea ha inviato richieste formali ai grandi motori di ricerca online e ai più importanti Social Media per conoscere quali siano le loro misure di mitigazione dei rischi legati all’intelligenza artificiale generativa, ovvero le informazioni inesatte, la diffusione virale dei deepfake e la manipolazione automatizzata dei servizi che possono indurre in errore chi naviga nel web con un’attenzione particolare per gli elettori durante le campagne elettorali.
Ma anche le piattaforme di e-commerce non sono immuni ai controlli perché il Digital Service Act serve anche a garantire la rimozione di prodotti illegali o pericolosi venduti nell’Ue.
Per questo la Commissione sta indagando su una di quelle tra le più importanti a livello mondiale valutandone le pratiche aziendali nei campi relativi alla gestione e mitigazione dei rischi, alla moderazione dei contenuti e al meccanismo di gestione delle lamentele interne, alla trasparenza della pubblicità e dei sistemi di raccomandazione, alla tracciabilità dei commercianti e all’accesso ai dati per i ricercatori.
L’Intelligenza artificiale e gli investimenti del governo italiano
Le autorità europee e gli stati dell’Unione sono quindi sempre più consapevoli dei rischi delle nuove tecnologie e cercano con sempre maggiore impegno di formare organi di governo e controllo che siano in grado di orientarne lo sviluppo rispondendo all’esigenza di assicurarne un utilizzo etico e responsabile e garantire trasparenza, sicurezza e rispetto dei diritti fondamentali.
E l’Italia non sta a guardare, visto che sta muovendo i primi passi verso l’adozione di un testo di legge che ne disciplini l’uso e ne promuova un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica, volto a cogliere le opportunità dell’intelligenza artificiale.
Un impegno che attribuisce allo stato un ruolo cruciale nel processo di sviluppo di questi sistemi e che prevede, all’interno della strategia per lo sviluppo dell’intelligenza artificiale, anche l’attività di venture capital del Ministero delle imprese e del Made in Italy, ossia l’acquisto di partecipazioni fino all’ammontare complessivo di un miliardo di euro, in Piccole e Medie Imprese operanti nel settore delle nuove tecnologie, del calcolo quantistico e delle telecomunicazioni ma tutte dotate di un alto potenziale di sviluppo. E sempre attraverso lo sviluppo dell’AI l’Italia può diventare la culla per la crescita di nuovi talenti imprenditoriali non solo del nostro territorio ma proveniente anche dall’estero.