L’UE ha appena approvato nuove norme estese per regolamentare l’IA

L'Unione Europea ha appena approvato nuove norme estese per regolamentare l'Intelligenza Artificiale

L’Unione Europea oggi ha concordato i dettagli dell’AI Act, un insieme di regole esteso per le persone che costruiscono e utilizzano l’intelligenza artificiale. È una legge di rilevanza storica che, si spera, creerà un modello per il resto del mondo.

Dopo mesi di dibattito su come regolamentare aziende come OpenAI, i legislatori dei tre rami del governo dell’UE – Parlamento, Consiglio e Commissione – hanno trascorso più di 36 ore nel complesso per elaborare la nuova legislazione tra mercoledì pomeriggio e venerdì sera. I legislatori erano sotto pressione per arrivare a un accordo prima dell’inizio della campagna per le elezioni al Parlamento dell’UE nel nuovo anno.

“L’AI Act dell’UE è il primo del suo genere a livello globale”, ha detto la presidente della Commissione europea Ursula von der Leyen su X. “[È] un quadro normativo unico per lo sviluppo di un’intelligenza artificiale di cui puoi fidarti. E per la sicurezza e i diritti fondamentali delle persone e delle imprese”.

La legge stessa non è la prima del suo genere nel mondo; le nuove regole della Cina per l’intelligenza artificiale generativa sono entrate in vigore ad agosto. Ma l’AI Act dell’UE è il quadro normativo più ampio del suo genere per questa tecnologia. Include il divieto dei sistemi biometrici che identificano le persone utilizzando caratteristiche sensibili come l’orientamento sessuale e la razza, e lo sfruttamento indiscriminato di volti prelevati da internet. I legislatori hanno anche concordato che le forze dell’ordine dovrebbero poter utilizzare sistemi di identificazione biometrica negli spazi pubblici per determinati reati.

Sono state anche incluse nuove disposizioni sulla trasparenza per tutti i modelli di intelligenza artificiale ad uso generale, come il GPT-4 di OpenAI, che alimenta ChatGPT, e regole più rigide per i modelli “molto potenti”. “L’AI Act stabilisce le regole per i modelli di intelligenza artificiale di grandi dimensioni e potenti, garantendo che non rappresentino rischi sistematici per l’Unione”, afferma Dragos Tudorache, membro del Parlamento europeo e uno dei due corapportatori guidano le negoziazioni.

Le aziende che non rispettano le regole possono essere multate fino al 7% del loro fatturato globale. I divieti sull’IA proibita entreranno in vigore tra sei mesi, le esigenze di trasparenza tra 12 mesi e l’intero insieme di regole tra circa due anni.

Sono state incluse anche misure volte a rendere più facile proteggere i detentori dei diritti d’autore dall’IA generativa e richiedere ai sistemi di intelligenza artificiale ad uso generale di essere più trasparenti riguardo al loro consumo energetico.

“L’Europa si è posizionata come pioniera, comprendendo l’importanza del suo ruolo come standard setter globale”, ha dichiarato il Commissario europeo Thierry Breton in una conferenza stampa venerdì sera.

Nel corso dei due anni in cui i legislatori hanno negoziato le regole concordate oggi, la tecnologia dell’intelligenza artificiale e le principali preoccupazioni ad essa legate sono drasticamente cambiate. Quando l’AI Act è stato concepito ad aprile 2021, i responsabili delle politiche erano preoccupati per gli algoritmi oscuri che decidevano chi avrebbe ottenuto un lavoro, ottenuto lo status di rifugiato o ricevuto benefici sociali. Nel 2022, sono emersi esempi in cui l’IA faceva attivamente del male alle persone. In uno scandalo olandese, le decisioni prese dagli algoritmi erano collegate alla separazione forzata delle famiglie dai loro figli, mentre gli studenti che studiavano a distanza affermavano che i sistemi di intelligenza artificiale li discriminavano sulla base del colore della loro pelle.

Poi, nel novembre 2022, OpenAI ha rilasciato ChatGPT, cambiando radicalmente il dibattito. Il balzo in avanti nella flessibilità e nella popolarità dell’IA ha suscitato allarmi in alcuni esperti di IA, che hanno tratto paragoni iperbolici tra l’IA e le armi nucleari.

Quella discussione si è manifestata durante le negoziazioni dell’AI Act a Bruxelles sotto forma di un dibattito su se i creatori dei cosiddetti modelli di base come quello dietro ChatGPT, come OpenAI e Google, dovrebbero essere considerati come la radice dei potenziali problemi e regolamentati di conseguenza – oppure se le nuove regole dovrebbero invece concentrarsi sulle aziende che utilizzano quei modelli di base per costruire nuove applicazioni alimentate dall’IA, come chatbot o generatori di immagini.

I rappresentanti dell’industria europea dell’IA generativa hanno espresso cautela riguardo alla regolamentazione dei modelli di base, sostenendo che potrebbe ostacolare l’innovazione tra le startup di IA del blocco. “Non possiamo regolamentare un motore privo di utilizzo”, ha affermato il mese scorso Arthur Mensch, CEO dell’azienda francese di IA Mistral. “Non regolamentiamo il linguaggio di programmazione C perché può essere utilizzato per sviluppare malware. Invece, vietiamo i malware”. Il modello di base 7B di Mistral sarebbe esente dalle regole concordate oggi poiché l’azienda si trova ancora nella fase di ricerca e sviluppo, ha dichiarato Carme Artigas, segretaria di Stato spagnola per la Digitalizzazione e l’Intelligenza Artificiale, nella conferenza stampa.

Il punto principale di disaccordo durante le ultime discussioni, che si sono protratte fino a tarda notte in due occasioni questa settimana, riguardava se le forze dell’ordine dovessero essere autorizzate a utilizzare il riconoscimento facciale o altri tipi di biometria per identificare le persone in tempo reale o in modo retrospettivo. “Entrambi distruggono l’anonimato negli spazi pubblici”, afferma Daniel Leufer, un analista senior delle politiche presso il gruppo dei diritti digitali Access Now. L’identificazione biometrica in tempo reale può identificare una persona che si trova in una stazione ferroviaria in questo momento utilizzando i flussi delle telecamere di sicurezza in diretta, spiega, mentre l’identificazione biometrica “post” o retrospettiva può scoprire che la stessa persona ha visitato anche ieri la stazione ferroviaria, una banca e un supermercato, utilizzando immagini o video precedentemente archiviati.

Leufer ha detto di essere deluso dalle “scappatoie” per le forze dell’ordine che sembrano essere state integrate nella versione dell’atto conclusiva oggi.

La lenta risposta dei regolatori europei all’emergere dell’era dei social media è stata un’ombra sulle discussioni. Sono trascorsi quasi 20 anni tra il lancio di Facebook e l’entrata in vigore del Digital Services Act – il libro delle regole dell’UE progettato per proteggere i diritti umani online – quest’anno. In questo periodo, il blocco è stato costretto a confrontarsi con i problemi creati dalle piattaforme statunitensi, senza poter favorire le loro sfidanti europee più piccole. “Forse avremmo potuto prevenire [i problemi] meglio con una regolamentazione anticipata”, ha detto Brando Benifei, uno dei due negoziatori principali del Parlamento europeo, ad ENBLE a luglio. La tecnologia dell’IA sta progredendo rapidamente. Ma passeranno ancora molti anni prima che sia possibile dire se l’AI Act avrà più successo nel contenere i lati negativi dell’ultima esportazione della Silicon Valley.