USA, Regno Unito e altre 16 nazioni firmano un nuovo patto sull’Intelligenza Artificiale
USA, Regno Unito e altre 16 nazioni siglano un nuovo accordo sull'Intelligenza Artificiale
Diciotto paesi, tra cui gli Stati Uniti e il Regno Unito, hanno firmato un accordo di 20 pagine che afferma che le aziende devono sviluppare l’intelligenza artificiale (IA) che tenga le persone “sicure per progettazione”.
Il patto, rivelato domenica, è stato definito il primo accordo internazionale volto a garantire la sicurezza dell’IA contro un uso improprio. Sebbene l’accordo non sia vincolante, delineate raccomandazioni generali, come il monitoraggio dei sistemi di IA per abusi e la protezione dei dati da manomissioni. Jen Easterly, direttore della Cybersecurity and Infrastructure Security Agency (CISA) degli Stati Uniti, ha sottolineato l’importanza del sostegno collettivo dei paesi all’idea.
https://twitter.com/CISAgov/status/1728965424828883296?ref_src=twsrc%5Etfw
“Questo è il primo caso in cui vediamo una conferma che queste capacità non dovrebbero riguardare solo funzionalità interessanti e la rapidità con cui possiamo metterle sul mercato o come possiamo competere per ridurre i costi”, ha detto Easterly, aggiungendo che le linee guida rappresentano “un accordo sul fatto che la cosa più importante che deve essere fatta nella fase di progettazione è la sicurezza”.
- L’editor video AI di Pika attira un investimento di $55 milioni
- Tumblr chiude la funzione Post+, concentrandosi nuovamente sui serv...
- Promozione festività Apple Pay offre sconti da diversi negozi
Il Segretario della Sicurezza Interna degli Stati Uniti, Alejandro N. Mayorkas, ha detto di credere che il mondo si trovi in un “punto di svolta” in questo momento:
“Siamo in un punto di svolta nello sviluppo dell’intelligenza artificiale, che potrebbe essere la tecnologia più importante del nostro tempo. La sicurezza informatica è fondamentale per costruire sistemi di intelligenza artificiale sicuri, protetti e affidabili.”
Ha proseguito: “Le linee guida emesse congiuntamente oggi da CISA, NCSC e gli altri partner internazionali forniscono un percorso basato sul buon senso per progettare, sviluppare, distribuire e gestire l’IA con la sicurezza informatica al suo nucleo. Integrando i principi di ‘sicurezza per progettazione’, queste linee guida rappresentano un accordo storico secondo cui gli sviluppatori devono investire per proteggere i clienti in ogni fase di progettazione e sviluppo del sistema.”
I governi si affrettano a stare al passo con lo sviluppo dell’IA
L’accordo è stato firmato da agenzie che rappresentano tutti i membri dei paesi del G7, oltre ad altri come la Repubblica Ceca, Singapore, Israele, Nigeria, Singapore, Australia e Cile.
Carta e penna, l’idea è buona. L’integrazione della tecnologia dell’IA nella nostra vita sarà destabilizzante e potenzialmente pericolosa se verrà dirottata da persone con cattive intenzioni.
La carta si propone di affrontare il problema di come mantenere l’IA lontana dalle mani degli hacker e fornisce indicazioni per garantire che il nuovo software sia rigorosamente testato prima del rilascio.
Nonostante nobili obiettivi, la realtà è che gli accordi non vincolanti sono estremamente difficili da far rispettare a livello mondiale, ancora di più quando i principali attori globali come la Cina, la Russia e l’India non sono firmatari. Storicamente, i paesi concorrenti si uniscono in blocchi per importanti progetti internazionali, come i viaggi spaziali. Far collaborare nazioni esterne a un blocco con un altro non è facile.
L’IA non è un campo nuovo, ma è esplosa nella coscienza pubblica nel novembre 2022 quando ChatGPT è entrato in funzione. Il chatbot Large Language Model (LLM) di OpenAI ha innescato un’impennata nello sviluppo di prodotti di intelligenza artificiale e ha suscitato una seria preoccupazione sul fatto che la tecnologia potrebbe essere utilizzata per ridurre drasticamente i posti di lavoro umani, manipolare i processi elettorali e commettere reati.
Immagine in primo piano: Pexels