I senatori vogliono che l’IA di livello ChatGPT richieda una licenza governativa

Senators want ChatGPT-level AI to require a government license.

Il governo degli Stati Uniti dovrebbe creare un nuovo organo per regolamentare l’intelligenza artificiale e limitare il lavoro sui modelli di linguaggio come il GPT-4 di OpenAI alle aziende autorizzate a farlo. Questa è la raccomandazione di una coppia bipartisan di senatori, il democratico Richard Blumenthal e il repubblicano Josh Hawley, che hanno lanciato ieri un quadro legislativo per servire da modello per future leggi ed influenzare altri disegni di legge prima del Congresso.

Nella proposta, lo sviluppo di riconoscimento facciale e altre applicazioni ad “alto rischio” dell’IA richiederebbe anche una licenza governativa. Per ottenerla, le aziende dovrebbero testare i modelli di IA per eventuali danni prima della loro implementazione, rivelare eventuali problemi dopo il lancio e consentire audit dei modelli di IA da parte di un terzo indipendente.

Il quadro propone anche che le aziende dovrebbero divulgare pubblicamente i dettagli dei dati di allenamento utilizzati per creare un modello di IA e che le persone danneggiate dall’IA abbiano il diritto di citare in giudizio l’azienda che l’ha creata.

Le proposte dei senatori potrebbero avere un’influenza nei prossimi giorni e settimane mentre i dibattiti si intensificano a Washington, DC, su come regolamentare l’IA. All’inizio della prossima settimana, Blumenthal e Hawley presiederanno un’audizione di una sottocommissione del Senato su come responsabilizzare in modo significativo le aziende e i governi quando implementano sistemi di IA che causano danni alle persone o violano i loro diritti. Il presidente di Microsoft, Brad Smith, e il capo scienziato della casa produttrice di chip Nvidia, William Dally, sono attesi come testimoni.

Un giorno dopo, il senatore Chuck Schumer organizzerà il primo di una serie di incontri per discutere come regolamentare l’IA, una sfida a cui Schumer si è riferito come “una delle cose più difficili che abbiamo mai intrapreso”. Gli esecutivi tecnologici interessati all’IA, tra cui Mark Zuckerberg, Elon Musk e i CEO di Google, Microsoft e Nvidia, rappresentano circa la metà dei quasi due dozzine di ospiti. Altri partecipanti rappresentano coloro che potrebbero essere soggetti ad algoritmi di IA, e includono i presidenti dei sindacati di scrittori e della federazione sindacale AFL-CIO, nonché ricercatori che lavorano per impedire che l’IA calpesti i diritti umani, tra cui Deb Raji dell’UC Berkeley e l’ex responsabile etica dell’IA di Twitter, Rumman Chowdhury, CEO di Humane Intelligence.

Anna Lenhart, che in passato ha guidato un’iniziativa sull’etica dell’IA presso IBM ed è attualmente dottoranda presso l’Università del Maryland, afferma che il quadro legislativo dei senatori è una vista gradita dopo anni di esperti di IA che appaiono al Congresso per spiegare come e perché l’IA dovrebbe essere regolamentata.

“È davvero rinfrescante vederli affrontare questa questione e non aspettare una serie di forum o una commissione che impiegherà due anni e parlerà con un sacco di esperti per creare essenzialmente la stessa lista”, dice Lenhart.

Ma è incerta su come un nuovo organo di controllo dell’IA potrebbe avere la vasta gamma di conoscenze tecniche e legali necessarie per supervisionare la tecnologia utilizzata in molti settori, dalle auto a guida autonoma all’assistenza sanitaria all’edilizia. “È qui che mi blocco un po’ sull’idea del regime di licenze”, dice Lenhart.

L’idea di utilizzare le licenze per limitare chi può sviluppare potenti sistemi di IA ha guadagnato popolarità sia nell’industria che al Congresso. Il CEO di OpenAI, Sam Altman, ha suggerito l’ottenimento di licenze per gli sviluppatori di IA durante una testimonianza al Senato a maggio, una soluzione normativa che potrebbe aiutare la sua azienda a mantenere la sua posizione di leadership. Un disegno di legge proposto il mese scorso dai senatori Lindsay Graham ed Elizabeth Warren richiederebbe anche alle aziende tecnologiche di ottenere una licenza governativa per l’IA, ma coprirebbe solo le piattaforme digitali di una certa dimensione.

Lenhart non è l’unica esperta di IA o di politiche scettica sulle licenze governative per lo sviluppo dell’IA. A maggio, l’idea ha ricevuto critiche sia dal gruppo di campagna politica libertaria Americans for Prosperity, che teme che possa soffocare l’innovazione, sia dall’organizzazione non-profit per i diritti digitali Electronic Frontier Foundation, che mette in guardia dal rischio che l’industria cada nelle mani di aziende con soldi o connessioni influenti. Forse in risposta, il quadro presentato ieri raccomanda regole rigorose sul conflitto di interessi per il personale dell’organo di controllo dell’IA.

Il nuovo quadro legislativo di Blumenthal e Hawley per la regolamentazione futura dell’IA lascia alcune domande senza risposta. Non è ancora chiaro se la supervisione dell’IA verrebbe da un’agenzia federale di nuova creazione o da un gruppo all’interno di un’agenzia federale esistente. I senatori non hanno nemmeno specificato quali criteri sarebbero utilizzati per determinare se un determinato caso d’uso viene definito ad alto rischio e richiede una licenza per lo sviluppo.

Michael Khoo, direttore del programma di disinformazione climatica presso l’organizzazione non-profit ambientalista Friends of the Earth, afferma che la nuova proposta sembra essere un buon primo passo, ma che sono necessari ulteriori dettagli per valutare correttamente le sue idee. La sua organizzazione fa parte di una coalizione di organizzazioni ambientali e di responsabilità tecnologica che, tramite una lettera a Schumer e un cartellone pubblicitario mobile che girerà intorno al Congresso la prossima settimana, chiede ai legislatori di impedire che i progetti di IA ad alta intensità energetica peggiorino i cambiamenti climatici.

Khoo concorda con la richiesta del quadro legislativo di documentazione e divulgazione pubblica degli impatti negativi, ma afferma che i legislatori non dovrebbero permettere all’industria di definire cosa viene considerato dannoso. Vuole anche che i membri del Congresso esigano che le aziende divulghino quanto energia richiede addestrare e implementare sistemi di IA e che considerino il rischio di accelerare la diffusione di disinformazione quando valutano l’impatto dei modelli di IA.

Il quadro normativo mostra il Congresso che sta considerando un approccio più rigoroso alla regolamentazione dell’IA rispetto a quanto fatto finora dal governo federale, che ha lanciato un quadro di gestione del rischio volontario e una carta dei diritti sull’IA non vincolante. La Casa Bianca ha siglato un accordo volontario a luglio con otto importanti aziende di intelligenza artificiale, tra cui Google, Microsoft e OpenAI, ma ha anche promesso che arriveranno regole più severe. Durante un briefing sul patto delle aziende di intelligenza artificiale, il consulente speciale della Casa Bianca per l’IA, Ben Buchanan, ha affermato che per mantenere la società al sicuro dai danni causati dall’IA sarà necessaria una legislazione.