I nuovi principi di intelligenza artificiale del Regno Unito mirano a ottenere un vantaggio pro-innovazione rispetto all’UE

Nuovi principi IA UK per vantaggio pro-innovazione rispetto all'UE

La Gran Bretagna ha ampliato il suo approccio basato sui principi alla regolamentazione dell’IA, che mira a creare un vantaggio pro-innovazione rispetto all’UE.

In un annuncio di ieri, il governo britannico ha svelato sette nuovi principi per i cosiddetti modelli di base (FMs), che sottostanno ad applicazioni come ChatGPT, Google’s Bard e Midjourney. Allenati su immensi dataset e adattabili a varie applicazioni, questi sistemi sono all’epicentro del boom dell’IA.

La loro potenza ha anche suscitato allarme. I critici avvertono che i FMs possono amplificare le disuguaglianze, diffondere informazioni inaccurate e lasciare un’enorme impronta di carbonio. I nuovi principi sono progettati per mitigare questi rischi. Tuttavia, mirano anche a stimolare l’innovazione, la concorrenza e la crescita economica.

“C’è un vero potenziale per questa tecnologia di aumentare la produttività e rendere milioni di compiti quotidiani più facili, ma non possiamo dare per scontato un futuro positivo”, ha dichiarato Sarah Cardell, CEO dell’autorità antitrust britannica, l’Autorità per la Concorrenza e i Mercati (CMA).

Per salvaguardare quel futuro, la CMA ha stabilito i seguenti principi:

  1. Responsabilità – gli sviluppatori e i responsabili dei FM sono responsabili degli output forniti ai consumatori.
  2. Accesso – accesso continuo e senza restrizioni a input chiave.
  3. Diversità – sostenuta diversità di modelli di business, inclusi quelli aperti e chiusi.
  4. Scelta – scelta sufficiente per le imprese in modo che possano decidere come utilizzare i FM.
  5. Flessibilità – avere la flessibilità di passare e/o utilizzare più FM secondo necessità.
  6. Trattamento equo – nessuna condotta anti-competitiva, inclusa l’autopreferenza anti-competitiva, il legame o l’incartonamento.
  7. Trasparenza – ai consumatori e alle imprese vengono fornite informazioni sui rischi e sulle limitazioni dei contenuti generati dai FM in modo che possano fare scelte informate.

Ampiamente formulati, i principi riflettono i piani britannici per ottenere una posizione di rilievo a livello globale nell’IA.

Dall’altra parte della Manica, l’UE ha adottato un approccio più centralizzato alla regolamentazione, con un’attenzione più rigorosa alla sicurezza. Alla base della visione del blocco c’è il landmark AI Act, la prima legislazione completa sull’intelligenza artificiale. Il libro delle regole ha ricevuto elogi da parte degli esperti di sicurezza, ma critiche da parte delle imprese. In una recente lettera aperta, un gruppo di dirigenti di alcune delle più grandi aziende europee ha avvertito che le proposte “metterebbero a rischio la competitività e la sovranità tecnologica dell’Europa”.

È importante sottolineare che il governo britannico ha anche criticato pubblicamente la regolamentazione dell’IA dell’UE. Quando sono emersi rapporti secondo cui il settore tecnologico britannico è il più prezioso in Europa, il programma “meno centralizzato” e “pro-innovazione” del paese è stato messo in evidenza e lodato.

Alla base di questo approccio c’è un quadro basato sui principi. Piuttosto che fare affidamento su regole supervisionate da un nuovo organo, il quadro enfatizza una guida adattabile e delega la responsabilità agli enti di regolamentazione esistenti.

È un approccio che ha sollevato sospetti tra gli eticisti dell’IA, ma è stato accolto positivamente dalle imprese. Gareth Mills, socio dello studio legale Charles Russell Speechlys che rappresenta clienti nel settore tecnologico, ha descritto i nuovi principi come “necessariamente ampi”.

“I principi stessi sono chiaramente mirati a facilitare un settore dinamico con requisiti di accesso bassi che consente ai giocatori più piccoli di competere efficacemente con nomi più consolidati, mitigando al contempo il potenziale per le tecnologie dell’IA di avere conseguenze negative per i consumatori”, ha detto.

Mills ha anche elogiato la collaborazione della CMA con il settore tecnologico. Nei prossimi mesi, il regolatore si propone di consultare ulteriormente i principali sviluppatori di FM come Google, Meta, OpenAI, Microsoft, NVIDIA e Anthropic. Si recherà anche a parlare con altri enti di regolamentazione, gruppi di consumatori, società civile, esperti governativi e altri regolatori.

“La CMA ha dimostrato una lodevole volontà di impegnarsi attivamente con il settore dell’IA in rapida crescita, per garantire che le sue agende in materia di concorrenza e protezione dei consumatori siano coinvolte il prima possibile”, ha detto Mills.

Tuttavia, non tutti sono così impressionati dall’approccio. Negli ultimi anni, sono state rilasciate una serie di principi e codici etici sull’IA, ma i critici sostengono che siano “inutili”.

“I principi etici dell’IA sono inutili, non riescono a mitigare in modo significativo i danni razziali, sociali ed ambientali delle tecnologie dell’IA”, ha dichiarato Luke Munn, ricercatore presso l’Università di Sydney Occidentale, in un recente studio. “Il risultato è un divario tra principi nobili e pratica tecnologica”.