I giganti dell’IA si impegnano a consentire indagini esterne dei loro algoritmi, in base a un nuovo patto della Casa Bianca

IA giants commit to allow external audits of their algorithms, according to a new White House pact

La Casa Bianca ha raggiunto un accordo con i principali sviluppatori di intelligenza artificiale, tra cui Amazon, Google, Meta, Microsoft e OpenAI, che si impegnano a prendere provvedimenti per evitare che modelli di intelligenza artificiale dannosi vengano rilasciati nel mondo.

Nell’ambito dell’accordo, che la Casa Bianca definisce un “impegno volontario”, le aziende si impegnano a effettuare test interni e consentire test esterni dei nuovi modelli di intelligenza artificiale prima del loro rilascio pubblico. Il test mirerà a individuare problemi, tra cui output distorti o discriminatori, difetti di cybersecurity e rischi di danno sociale più ampio. Le startup Anthropic e Inflection, entrambe sviluppatori di rivali notevoli del ChatGPT di OpenAI, hanno anche partecipato all’accordo.

“Le aziende hanno il dovere di garantire che i loro prodotti siano sicuri prima di introdurli nel pubblico, testando la sicurezza e la capacità dei loro sistemi di intelligenza artificiale”, ha detto il consulente speciale della Casa Bianca per l’IA Ben Buchanan in una conferenza stampa ieri. I rischi che si chiedeva alle aziende di tenere d’occhio includono violazioni della privacy e persino possibili contributi alle minacce biologiche. Le aziende si sono anche impegnate a rendere pubbliche le limitazioni dei loro sistemi e i rischi per la sicurezza e la società che potrebbero rappresentare.

L’accordo prevede anche che le aziende sviluppino sistemi di watermark che facilitino l’identificazione di audio e immagini generate dall’intelligenza artificiale. OpenAI aggiunge già watermark alle immagini prodotte dal suo generatore di immagini Dall-E, e Google ha dichiarato di essere in fase di sviluppo di una tecnologia simile per immagini generate dall’intelligenza artificiale. Aiutare le persone a distinguere ciò che è reale da ciò che è falso è un problema sempre più crescente, poiché le campagne politiche sembrano rivolgersi all’IA generativa in vista delle elezioni negli Stati Uniti nel 2024.

I recenti progressi nei sistemi di intelligenza artificiale generativa in grado di creare testo o immagini hanno scatenato una rinnovata corsa agli armamenti nell’IA tra le aziende che adattano la tecnologia per compiti come la ricerca web e la scrittura di lettere di raccomandazione. Ma i nuovi algoritmi hanno anche suscitato rinnovate preoccupazioni riguardo all’IA che rafforza sistemi sociali oppressivi come sessismo o razzismo, che favorisce la disinformazione elettorale o che diventa uno strumento per la cybercriminalità. Di conseguenza, regolatori e legislatori in molte parti del mondo, compreso Washington, DC, hanno aumentato le richieste di nuove regolamentazioni, comprese le esigenze di valutazione dell’IA prima del suo impiego.

Non è chiaro quanto l’accordo cambierà il modo in cui operano le principali aziende di intelligenza artificiale. Già oggi, la crescente consapevolezza dei potenziali svantaggi della tecnologia ha portato le aziende tecnologiche a assumere persone per lavorare sulla politica e sui test dell’IA. Google ha team che testano i suoi sistemi e pubblicizza alcune informazioni, come i casi d’uso previsti e le considerazioni etiche per determinati modelli di intelligenza artificiale. Meta e OpenAI a volte invitano esperti esterni a provare a violare i loro modelli in un approccio chiamato red-teaming.

“Guidati dai principi fondamentali di sicurezza, sicurezza e fiducia, i volontari impegni affrontano i rischi presentati dai modelli avanzati di intelligenza artificiale e promuovono l’adozione di pratiche specifiche, come i test red-team e la pubblicazione di rapporti di trasparenza, che faranno progredire l’intero ecosistema”, ha dichiarato il presidente di Microsoft Brad Smith in un post sul blog.

I rischi sociali potenziali che l’accordo impegna le aziende a monitorare non includono l’impronta di carbonio dei modelli di intelligenza artificiale, una preoccupazione che ora è comunemente citata nelle ricerche sull’impatto dei sistemi di intelligenza artificiale. La creazione di un sistema come ChatGPT può richiedere migliaia di processori informatici ad alta potenza, in funzione per periodi prolungati.

Andrew Burt, socio amministratore dello studio legale BNH, specializzato in intelligenza artificiale, afferma che i rischi potenziali dei sistemi di intelligenza artificiale generativa stanno diventando chiari a tutti coloro che sono coinvolti nella tecnologia. La Federal Trade Commission ha avviato un’indagine sulle pratiche commerciali di OpenAI la scorsa settimana, accusando l’azienda di aver partecipato a “pratiche di privacy o sicurezza dei dati ingannevoli o sleali”.

La disposizione dell’accordo della Casa Bianca secondo cui le aziende dovrebbero commissionare valutazioni esterne delle loro tecnologie contribuisce a dimostrare che le verifiche esterne stanno diventando “il modo principale in cui i governi esercitano la supervisione sui sistemi di intelligenza artificiale”, afferma Burt.

La Casa Bianca ha anche promosso l’uso di verifiche nel volontario Bill of Rights sull’IA emesso lo scorso anno ed è a sostegno di un contest di hacking incentrato su modelli di intelligenza artificiale generativa alla conferenza sulla sicurezza Defcon il prossimo mese. Le verifiche sono anche un requisito dell’ampia AI Act dell’UE, attualmente in fase di finalizzazione.

Jacob Appel, chief strategist di ORCAA, un’azienda che effettua verifiche degli algoritmi per le imprese e il governo, afferma che l’accordo è benvenuto ma le valutazioni generali di grandi modelli di linguaggio come quelli alla base di ChatGPT sono insufficienti. Le valutazioni specifiche per casi d’uso ad alto rischio dell’IA, come un chatbot ottimizzato per generare consigli medici o legali, dovrebbero essere sottoposte a valutazioni specifiche, afferma. E anche i sistemi delle piccole aziende hanno bisogno di attenzione.

Il presidente Joe Biden si incontrerà oggi alla Casa Bianca con i dirigenti delle aziende che hanno aderito al nuovo accordo sull’IA, tra cui il CEO di Anthropic Dario Amodei, il presidente di Microsoft Brad Smith e il CEO di Inflection AI Mustafa Suleyman. La sua amministrazione sta inoltre sviluppando un ordine esecutivo per regolamentare l’uso dell’IA attraverso azioni delle agenzie federali, ma la Casa Bianca non ha fornito una tempistica specifica per il suo rilascio.

Aggiornato il 21 luglio 2023, alle 14:20 EDT: Questo articolo è stato aggiornato con il commento di Jacob Appel presso ORCAA.