La Casa Bianca annuncia nuove iniziative di intelligenza artificiale al Global Summit sulla sicurezza dell’IA

La Casa Bianca presenta nuove iniziative di intelligenza artificiale al Global Summit sulla sicurezza dell'IA

La vicepresidente Kamala Harris illustrerà oggi diverse nuove iniziative legate all’intelligenza artificiale, delineando i piani del governo degli Stati Uniti per promuovere l’uso sicuro e responsabile della tecnologia di apprendimento automatico. Già conosciamo molti di questi piani.

La Casa Bianca ha in precedenza annunciato un ordine esecutivo sulla regolamentazione dell’intelligenza artificiale questa settimana, con l’intenzione di proteggere i cittadini statunitensi dai potenziali danni che questa tecnologia può causare. Ora sta continuando a sviluppare ulteriormente questo ordine, con l’obiettivo di posizionarsi come leader mondiale nella garanzia che l’IA sia sviluppata e utilizzata nell’interesse pubblico a livello internazionale.

Attualmente a Londra per partecipare al Global Summit on AI Safety, Harris ha programmato di tenere il suo discorso trasmesso in diretta sull’approccio degli Stati Uniti all’IA alle 13:35 GMT / 9:35 ET.

“Proprio come l’IA ha il potenziale per fare del bene profondo, ha anche il potenziale per causare danni profondi, dagli attacchi informatici abilitati dall’IA su una scala mai vista prima fino a biotecnologie formulate dall’IA che potrebbero mettere a rischio la vita di milioni di persone”, ha dichiarato Harris in un estratto del suo discorso preparato. “Queste minacce sono spesso definite ‘minacce esistenziali dell’IA’, perché potrebbero mettere a rischio l’esistenza stessa dell’umanità.”

“Quindi, l’urgenza di questo momento ci deve spingere a creare una visione collettiva di quello che questo futuro deve essere. Un futuro in cui l’IA sia utilizzata per promuovere i diritti umani e la dignità umana; dove la privacy sia protetta e le persone abbiano pari accesso alle opportunità; dove rendiamo le nostre democrazie più forti e il nostro mondo più sicuro. Un futuro in cui l’IA sia utilizzata per promuovere l’interesse pubblico.”

Ecco le nuove dichiarazioni e iniziative governative che Harris svelerà.

1. Gli Stati Uniti stanno istituendo l’United States AI Safety Institute

Il governo degli Stati Uniti sta istituendo l’United States AI Safety Institute (US AISI), che farà parte dell’ Istituto Nazionale di Standard e Tecnologie (NIST). Creato attraverso il Dipartimento del Commercio, l’US AISI sarà responsabile dell’applicazione del Framework di Gestione dei Rischi dell’IA del NIST, dello sviluppo di standard, migliori pratiche e orientamenti tecnici per mitigare i rischi dell’IA. Questi saranno poi utilizzati dai regolatori nello sviluppo o nell’applicazione delle regole. L’US AISI collaborerà anche con istituzioni simili a livello internazionale.

2. La bozza iniziale delle linee guida per l’uso dell’IA da parte del governo degli Stati Uniti è resa disponibile per il commento pubblico

Il governo degli Stati Uniti sta pubblicando la bozza iniziale delle sue linee guida sulla politica relativa all’uso dell’IA, invitando il pubblico a commentare. Pubblicata attraverso l’Ufficio di Gestione e Bilancio, questa politica intende delineare passi concreti per l’uso responsabile dell’IA da parte degli Stati Uniti, ed è basata su linee guida precedenti come il Framework di Gestione dei Rischi dell’IA del NIST. La politica è pensata per essere applicata in un’ampia gamma di dipartimenti, inclusi i settori della salute, delle forze dell’ordine e dell’immigrazione, e richiede che i dipartimenti federali monitorino i rischi dell’IA, consultino il pubblico riguardo al suo utilizzo e forniscono una via d’appello per coloro che ne sono danneggiati.

Puoi leggere la bozza della politica e inviare i tuoi commenti qui.

3. 30 nazioni si sono unite alla Dichiarazione Politica sull’Uso Militare Responsabile dell’Intelligenza Artificiale e dell’Autonomia

U.S. ha emesso la sua Dichiarazione Politica sull’Uso Responsabile dell’Intelligenza Artificiale e dell’Autonomia a febbraio, stabilendo standard per l’uso e lo sviluppo legale e responsabile dell’IA militare. Ciò include il requisito che sia conforme al diritto internazionale umanitario. Un obiettivo specifico della Dichiarazione Politica è preservare il “diritto di difesa” delle nazioni, così come la loro capacità di sviluppare e utilizzare l’IA per scopi militari.

Trenta altre nazioni hanno ora sottoscritto questa Dichiarazione, nello specifico Albania, Australia, Belgio, Bulgaria, Repubblica Ceca, Danimarca, Estonia, Finlandia, Francia, Georgia, Germania, Ungheria, Islanda, Irlanda, Italia, Giappone, Kosovo, Lettonia, Liberia, Malawi, Montenegro, Marocco, Macedonia del Nord, Portogallo, Romania, Singapore, Slovenia, Spagna, Svezia e Regno Unito.

4. 10 fondazioni hanno promesso oltre 200 milioni di dollari per iniziative di intelligenza artificiale di interesse pubblico

Dieci fondazioni si impegnano collettivamente a fornire oltre 200 milioni di dollari per finanziare iniziative di intelligenza artificiale intese a promuovere il miglior interesse del pubblico globale – lavoratori, consumatori, comunità e persone storicamente emarginate. Le fondazioni stanno anche creando una rete di finanziatori che coordinerà tale donazione con lo scopo specifico di sostenere lavori di intelligenza artificiale che proteggono la democrazia e i diritti, promuovono l’innovazione nell’interesse pubblico, danno potere ai lavoratori di fronte ai cambiamenti portati dall’intelligenza artificiale, migliorano la responsabilità o sostengono le regole internazionali riguardanti l’intelligenza artificiale.

Le 10 fondazioni coinvolte sono: la Fondazione David e Lucile Packard, il Democracy Fund, la Ford Foundation, la Fondazione Heising-Simons, la Fondazione John D. e Catherine T. MacArthur, la Kapor Foundation, la Fondazione Mozilla, la Omidyar Network, le Fondazioni Open Society e il Wallace Global Fund.

5. Il governo degli Stati Uniti organizzerà un hackathon per trovare una soluzione ai falsi AI robocall

Il governo degli Stati Uniti ospiterà un hackathon virtuale con l’obiettivo di costruire modelli di intelligenza artificiale in grado di individuare e bloccare le chiamate e i messaggi di testo automatici che possono essere utilizzati per truffare le persone. L’hackathon si concentrerà in particolare sulle chiamate che utilizzano voci generate dall’intelligenza artificiale.

6. Gli Stati Uniti chiedono standard internazionali di autenticazione per i messaggi digitali governativi

Gli Stati Uniti chiedono alla comunità globale di sostenere lo sviluppo di standard internazionali per i contenuti digitali e di intelligenza artificiale prodotti dai governi. Tali standard avrebbero lo scopo di aiutare il pubblico a identificare se un’apparente messaggio governativo è autentico o meno, e potrebbero includere etichettature come firme digitali o filigrane.

7. Gli Stati Uniti svilupperanno un impegno che garantisca l’uso responsabile dell’intelligenza artificiale

Infine, il governo degli Stati Uniti lavorerà con la Freedom Online Coalition (FOC) per sviluppare un impegno che preveda che lo sviluppo e l’implementazione dell’intelligenza artificiale includano pratiche responsabili. La FOC è un gruppo di 38 paesi il cui obiettivo dichiarato è quello di promuovere la libertà su Internet e proteggere i diritti umani online in tutto il mondo.