USA, Regno Unito e altre 16 nazioni firmano un nuovo patto sull’Intelligenza Artificiale

USA, Regno Unito e altre 16 nazioni siglano un nuovo accordo sull'Intelligenza Artificiale

Diciotto paesi, tra cui gli Stati Uniti e il Regno Unito, hanno firmato un accordo di 20 pagine che afferma che le aziende devono sviluppare l’intelligenza artificiale (IA) che tenga le persone “sicure per progettazione”.

Il patto, rivelato domenica, è stato definito il primo accordo internazionale volto a garantire la sicurezza dell’IA contro un uso improprio. Sebbene l’accordo non sia vincolante, delineate raccomandazioni generali, come il monitoraggio dei sistemi di IA per abusi e la protezione dei dati da manomissioni. Jen Easterly, direttore della Cybersecurity and Infrastructure Security Agency (CISA) degli Stati Uniti, ha sottolineato l’importanza del sostegno collettivo dei paesi all’idea.

https://twitter.com/CISAgov/status/1728965424828883296?ref_src=twsrc%5Etfw

“Questo è il primo caso in cui vediamo una conferma che queste capacità non dovrebbero riguardare solo funzionalità interessanti e la rapidità con cui possiamo metterle sul mercato o come possiamo competere per ridurre i costi”, ha detto Easterly, aggiungendo che le linee guida rappresentano “un accordo sul fatto che la cosa più importante che deve essere fatta nella fase di progettazione è la sicurezza”.

Il Segretario della Sicurezza Interna degli Stati Uniti, Alejandro N. Mayorkas, ha detto di credere che il mondo si trovi in un “punto di svolta” in questo momento:

“Siamo in un punto di svolta nello sviluppo dell’intelligenza artificiale, che potrebbe essere la tecnologia più importante del nostro tempo. La sicurezza informatica è fondamentale per costruire sistemi di intelligenza artificiale sicuri, protetti e affidabili.”

Ha proseguito: “Le linee guida emesse congiuntamente oggi da CISA, NCSC e gli altri partner internazionali forniscono un percorso basato sul buon senso per progettare, sviluppare, distribuire e gestire l’IA con la sicurezza informatica al suo nucleo. Integrando i principi di ‘sicurezza per progettazione’, queste linee guida rappresentano un accordo storico secondo cui gli sviluppatori devono investire per proteggere i clienti in ogni fase di progettazione e sviluppo del sistema.”

I governi si affrettano a stare al passo con lo sviluppo dell’IA

L’accordo è stato firmato da agenzie che rappresentano tutti i membri dei paesi del G7, oltre ad altri come la Repubblica Ceca, Singapore, Israele, Nigeria, Singapore, Australia e Cile.

Carta e penna, l’idea è buona. L’integrazione della tecnologia dell’IA nella nostra vita sarà destabilizzante e potenzialmente pericolosa se verrà dirottata da persone con cattive intenzioni.

La carta si propone di affrontare il problema di come mantenere l’IA lontana dalle mani degli hacker e fornisce indicazioni per garantire che il nuovo software sia rigorosamente testato prima del rilascio.

Nonostante nobili obiettivi, la realtà è che gli accordi non vincolanti sono estremamente difficili da far rispettare a livello mondiale, ancora di più quando i principali attori globali come la Cina, la Russia e l’India non sono firmatari. Storicamente, i paesi concorrenti si uniscono in blocchi per importanti progetti internazionali, come i viaggi spaziali. Far collaborare nazioni esterne a un blocco con un altro non è facile.

L’IA non è un campo nuovo, ma è esplosa nella coscienza pubblica nel novembre 2022 quando ChatGPT è entrato in funzione. Il chatbot Large Language Model (LLM) di OpenAI ha innescato un’impennata nello sviluppo di prodotti di intelligenza artificiale e ha suscitato una seria preoccupazione sul fatto che la tecnologia potrebbe essere utilizzata per ridurre drasticamente i posti di lavoro umani, manipolare i processi elettorali e commettere reati.

Immagine in primo piano: Pexels