Accordo di sicurezza AI inedito al mondo mette in luce il potere della Silicon Valley, affermano i critici.

L'innovativo accordo di sicurezza AI al mondo sottolinea il potere della Silicon Valley, secondo i critici.

Una dichiarazione mondiale su AI che è stata concordata mercoledì non avrà un impatto reale ed è stata manipolata dalle grandi aziende tecnologiche, dicono i critici.

La dichiarazione è stata firmata da 28 paesi – e l’UE – che coprono complessivamente sei continenti. Hanno presentato il loro patto al AI Safety Summit del Regno Unito a Bletchley Park, dove i decrittatori hanno rotto la macchina Enigma della Germania nazista durante la seconda guerra mondiale.

Il nuovo accordo prende il nome dal sito. Conosciuta come la “Dichiarazione di Bletchley”, il comunicato stabilisce una comprensione condivisa dei pericoli e delle opportunità dell’IA.

“Molti rischi derivanti dall’IA sono intrinsecamente internazionali e pertanto possono essere affrontati al meglio attraverso la cooperazione internazionale”, ha dichiarato la dichiarazione.

La dichiarazione chiede anche un’azione internazionale sull’AI di “frontiera”. Una parolaccia preferita al vertice, l’IA di frontiera comprende modelli avanzati a uso generale come il ChatGPT di OpenAI. Secondo il governo britannico, questi sono i sistemi che presentano i rischi più pericolosi ed urgenti.

Le parti che hanno firmato la dichiarazione hanno concordato che potrebbero sorgere “rischi sostanziali” dall’IA di frontiera. In alcuni casi, hanno avvertito, l’IA di frontiera potrebbe causare “gravi, persino catastrofici, danni, sia intenzionali che non intenzionali”. Ma i critici sostengono che tali paure siano state deliberatamente esagerate.

Lewis Liu, CEO della start-up di apprendimento automatico Eigen Technologies, è uno dei critici più accesi. L’avvertimento apocalittico, ha detto, “è eccessivamente influenzato da un’analisi profondamente difettosa e da un’agenda stabilita da quelle grandi aziende tecnologiche che cercano di dominare il processo decisionale”.

“Questo tipo di predizioni catastrofiche risuona con le parole di OpenAI e dei suoi colleghi, che sono stati tra i gruppi di pressione aziendali più influenti nel periodo che ha preceduto il vertice”, ha aggiunto.

“C’è una vera paura nella comunità delle start-up che questo sia un forum in cui le grandi aziende tecnologiche assumono il controllo del volante, cercando di regolamentare i sistemi di intelligenza artificiale open-source, dettare i termini del dibattito e, facendo ciò, escludere la concorrenza”.

La focalizzazione sull’IA di frontiera ha anche infastidito i ricercatori. Sandra Wachter, professore di tecnologia e regolamentazione presso l’Università di Oxford, sostiene che l’automazione del lavoro, la discriminazione e gli impatti ambientali siano preoccupazioni più urgenti.

“Purtroppo, ciò esula dallo scopo di questo vertice e il focus predominante è sul ‘rischio di perdere il controllo’ dell’IA, nel senso che l’IA sviluppa una ‘volontà propria’ e costituisce un rischio ‘esistenziale’ per l’umanità”, ha detto.

“Tuttavia, non esistono prove scientifiche che siamo su quel percorso, o che tale percorso esista anche solo. Ma distrae dai rischi esistenti e già presenti”.

Stile piuttosto che sostanza?

Pur fornendo avvertimenti audaci, la dichiarazione ha pochi dettagli. Ciò che è ancora più notevole è la coalizione di nazioni che ha appoggiato il patto.

I firmatari includono gli Stati Uniti e la Cina, che hanno fatto un raro accordo sulla scena mondiale.

In un ulteriore segno di unità, Gina Raimondo, segretario al commercio degli Stati Uniti, e Wu Zhaohui, vice ministro cinese per la scienza e la tecnologia, erano seduti uno accanto all’altro sul palco in una sessione, dove entrambi hanno tenuto discorsi sull’IA.

La loro collaborazione, tuttavia, sarà estremamente limitata nella pratica. La dichiarazione chiede “cooprazione internazionale” e “dialogo globale inclusivo”, ma non propone regole specifiche, una road map né principi etici.

“Questa dichiarazione non avrà un impatto reale su come l’IA viene regolamentata”, ha detto Martha Bennett, analista principale e vicepresidente presso la società di consulenza aziendale Forrester.

Bennett sottolinea che esistono già diverse politiche che contengono molto più contenuto. Tra queste ci sono l’AI Act dell’UE, l’Ordine Esecutivo dell’IA della Casa Bianca e il “Codice di Condotta Internazionale” dell’G7 per l’IA.

“Inoltre”, ha aggiunto Bennett, “i paesi e le entità rappresentate al Vertice sull’IA non avrebbero concordato il testo della Dichiarazione di Bletchley se contenesse dettagli significativi su come l’IA dovrebbe essere regolamentata”.

“`html

Nonostante i suoi dubbi sugli impatti reali nel mondo reale, Bennett crede che l’accordo possa avere uno scopo utile.

“Il Summit e la Dichiarazione di Bletchley hanno più a che fare con [l’invio] di segnali e la dimostrazione di volontà di cooperare, ed è importante”, ha detto. “Dovremo aspettare e vedere se le buone intenzioni saranno seguite da azioni significative”.

Forse non dovremo attendere a lungo. Durante l’evento di Bletchley Park, è stato annunciato che la Corea del Sud ospiterà un secondo summit tra sei mesi. Un altro si svolgerà poi in Francia. Al momento, però, sembra che la legislazione nazionale ostacolerà qualsiasi accordo internazionale significativo.

“`