Joe Biden vuole che gli algoritmi del governo degli Stati Uniti siano testati per verificarne il potenziale danno ai cittadini.

Joe Biden vuole che gli algoritmi utilizzati dal governo degli Stati Uniti vengano sottoposti a test per garantire che non possano arrecare danni ai cittadini.

La Casa Bianca ha emesso oggi le regole provvisorie che richiederebbero agli enti federali di valutare e monitorare costantemente gli algoritmi utilizzati nel settore sanitario, nell’applicazione della legge e nella gestione delle abitazioni per individuare eventuali discriminazioni o altri effetti dannosi sui diritti umani.

Una volta in vigore, le regole potrebbero costituire un obbligo di apportare modifiche alle attività del governo degli Stati Uniti basate sull’IA, come l’utilizzo della tecnologia di riconoscimento facciale da parte dell’FBI, che è stato criticato per non aver preso le misure richieste dal Congresso per proteggere le libertà civili. Le nuove regole richiederebbero agli enti governativi di valutare gli algoritmi esistenti entro agosto 2024 e di smettere di utilizzare quelli che non si conformano.

“Se i benefici non superano in modo significativo i rischi, le agenzie non dovrebbero utilizzare l’IA”, dice il memo. Ma il memo provvisorio prevede un’eccezione per i modelli che riguardano la sicurezza nazionale e consente alle agenzie di emettere effettivamente deroghe se l’interruzione dell’utilizzo di un modello di IA “creerebbe un ostacolo inaccettabile alle attività critiche dell’agenzia”.

Le regole provvisorie sono state rilasciate dall’Ufficio di Gestione e Bilancio della Casa Bianca due giorni dopo che il presidente Biden ha firmato un ordine esecutivo che costituisce un piano a livello governativo per aumentare simultaneamente l’uso dell’IA da parte del governo e cercare di prevenire i danni derivanti dalla tecnologia. La necessità di proteggere le persone dall’IA è stato un tema principale, con le disposizioni dell’ordine che includono requisiti di reporting per gli sviluppatori di grandi modelli di intelligenza artificiale e cluster di calcolo.

Le regole proposte dall’OMB richiederebbero la verifica e la valutazione indipendenti degli algoritmi acquistati da aziende private come requisito per i contratti federali, che l’ufficio può fare nel suo ruolo di coordinamento dei dipartimenti in base alle priorità presidenziali. Verrebbero richieste alle agenzie governative valutazioni e monitoraggio sia degli algoritmi in uso che di quelli acquisiti in futuro per gli impatti negativi sulla privacy, sulla democrazia, sulla concentrazione di mercato e sull’accesso ai servizi governativi.

Il memo provvisorio richiederebbe che la verifica e la valutazione degli algoritmi siano effettuate da persone che non sono direttamente coinvolte nello sviluppo del sistema e incoraggerebbe i test esterni dei modelli di intelligenza artificiale generativa. Inoltre, istruisce i responsabili delle agenzie federali a esplorare i modi in cui possono utilizzare l’IA generativa come ChatGPT di OpenAI “senza imposizione di rischi eccessivi”.

Il decreto sull’IA di Biden richiede all’OMB di fornire le sue linee guida alle agenzie federali nei prossimi cinque mesi. L’ufficio invita a commentare pubblicamente la bozza della politica fino al 5 dicembre.

“Il quadro consente di stabilire requisiti vincolanti per le agenzie federali al fine di mettere in atto garanzie per l’uso dell’IA, in modo che possiamo sfruttare i benefici e consentire al pubblico di fidarsi dei servizi forniti dal governo federale”, afferma Jason Miller, vicedirettore per la gestione dell’OMB.

Il memo provvisorio evidenzia determinati utilizzi dell’IA in cui la tecnologia può nuocere ai diritti o alla sicurezza, tra cui l’assistenza sanitaria, l’edilizia abitativa e l’applicazione della legge, situazioni in cui gli algoritmi in passato hanno prodotto discriminazioni o negazioni di servizi.

Esempi di potenziali rischi per la sicurezza menzionati nella bozza dell’OMB includono l’automazione di infrastrutture critiche come le dighe e i veicoli a guida autonoma come i robotaxi di Cruise che sono stati fermati la scorsa settimana in California e sono oggetto di indagini da parte delle autorità federali e statali dopo che un pedone colpito da un veicolo è stato trascinato per 20 piedi. Esempi di come l’IA potrebbe violare i diritti dei cittadini nella bozza del memo includono il controllo preventivo della criminalità, l’IA che può bloccare discorsi protetti, il software di rilevamento della plagio o delle emozioni, gli algoritmi di screening degli inquilini e i sistemi che possono influire sull’immigrazione o la custodia dei bambini.

Secondo l’OMB, le agenzie federali attualmente utilizzano più di 700 algoritmi, anche se gli inventari forniti dalle agenzie federali sono incompleti. Miller afferma che la bozza del memo prevede che le agenzie federali condividano maggiori informazioni sugli algoritmi che utilizzano. “La nostra aspettativa è che nelle settimane e nei mesi a venire miglioreremo le capacità delle agenzie di identificare e segnalare i loro casi d’uso”, afferma.

La vicepresidente Kamala Harris ha menzionato il memo dell’OMB insieme ad altre iniziative responsabili sull’IA in un discorso odierno presso l’Ambasciata degli Stati Uniti a Londra, durante un viaggio per la UK’s AI Safety Summit di questa settimana. Ha detto che mentre alcune voci nella formulazione delle politiche sull’IA si concentrano su rischi catastrofici come il ruolo che l’IA potrà svolgere in futuro negli attacchi informatici o nella creazione di armi biologiche, l’IA sta già amplificando il pregiudizio e la disinformazione e sta influenzando quotidianamente individui e comunità.

Merve Hickok, autore di un prossimo libro sulla politica di approvvigionamento di AI e ricercatore presso l’Università del Michigan, accoglie con favore il fatto che il memo dell’OMB richiederà alle agenzie di giustificare l’utilizzo dell’IA e di assegnare persone specifiche responsabili della tecnologia. Questo potrebbe essere un modo potenzialmente efficace per garantire che l’IA non venga introdotta in ogni programma governativo, afferma.

Ma la disposizione delle deroghe potrebbe compromettere questi meccanismi, teme Merve. “Sarei preoccupato se iniziamo a vedere agenzie utilizzare ampiamente questa deroga, soprattutto le forze dell’ordine, la sicurezza interna e la sorveglianza”, afferma. “Una volta ottenuta la deroga, potrebbe essere indefinita.”