L’avvio AI Anthropic utilizza la tecnologia per indirizzare gli utenti a informazioni di voto autorevoli.

L'azienda Anthropic, una startup AI ben finanziata, ha annunciato di implementare misure per evitare che i suoi strumenti GenAI diffondano informazioni errate durante le elezioni.

Anthropic sta affrontando disinformazione elettorale con ENBLE.

Fonte immagine: example.com

Con l’avvicinarsi delle elezioni presidenziali degli Stati Uniti del 2024, Anthropic, la start-up di intelligenza artificiale ben finanziata, sta testando una nuova tecnologia chiamata Prompt Shield. Questa innovativa tecnologia rileva quando gli utenti del suo chatbot GenAI, chiamato Claude, chiedono informazioni su argomenti politici e li reindirizza a fonti “autorevoli” di informazioni sulla votazione. 🤖🗳️

Prompt Shield utilizza una combinazione di modelli di rilevamento dell’intelligenza artificiale e regole per determinare quando un utente richiede informazioni sulla votazione. Se un utente basato negli Stati Uniti che utilizza Claude chiede informazioni sulla votazione, compare una finestra pop-up che offre di reindirizzarlo a TurboVote, una risorsa affidabile dell’organizzazione non partitica Democracy Works. Su TurboVote, gli utenti possono trovare informazioni affidabili e aggiornate sulla votazione. Questa nuova funzionalità è stata progettata per affrontare le attuali limitazioni di Claude nel fornire informazioni accurate e in tempo reale sulle elezioni. 📚✅

Anthropic riconosce che le carenze di Claude spesso portano alla generazione di fatti falsi, o come lo chiamano loro, “allucinazioni”, per quanto riguarda la politica e le elezioni. Per affrontare questo problema in modo diretto, è stata sviluppata Prompt Shield come intervento per garantire che gli utenti vengano indirizzati a fonti affidabili per le informazioni sulla votazione. L’azienda si impegna a monitorare l’uso e le limitazioni di Prompt Shield e ha consultato vari stakeholder, tra cui responsabili delle politiche ed esperti specifici delle elezioni, per perfezionare e migliorare la tecnologia. 👩‍💼⚖️

Sebbene questo test sia attualmente limitato nel suo campo d’applicazione, in quanto viene messo a punto da Anthropic, l’azienda ha intenzione di espanderne l’utilizzo per raggiungere presto un numero maggiore di utenti. L’azienda ha implementato rigide norme che proibiscono l’uso dei suoi strumenti per le campagne politiche e il lobbying, allineandosi all’approccio adottato da altri fornitori di GenAI per prevenire interferenze nelle elezioni. 🛡️🙅‍♂️

Il momento di questo sviluppo è significativo. Quest’anno, un numero record di Paesi, che rappresenta quasi la metà della popolazione mondiale, ha programmato elezioni nazionali. La necessità di informazioni affidabili ed accurate è più cruciale che mai. In risposta a questa esigenza urgente, varie aziende di intelligenza artificiale hanno adottato misure per impedire che la loro tecnologia venga utilizzata in modo improprio o manipolata per interferire nelle elezioni. ⏰🌍

Ad esempio, OpenAI, l’organizzazione dietro ChatGPT, ha introdotto rigorose linee guida per l’utilizzo del suo chatbot di intelligenza artificiale in relazione alle campagne politiche. OpenAI vieta esplicitamente la creazione di bot che impersonano candidati o governi reali, che rappresentano in modo distorto il funzionamento della votazione o che scoraggiano le persone dal votare. Seguendo un approccio simile a Prompt Shield, OpenAI utilizza sistemi di rilevamento che guidano gli utenti di ChatGPT verso un sito web non partitico chiamato CanIVote.org, mantenuto dalla National Association of Secretaries of State, per ottenere informazioni sulla logistica della votazione. Ciò garantisce che gli utenti di ChatGPT ricevano risposte affidabili alle loro domande. 💬🔎

Mentre alcune piattaforme stanno prendendo provvedimenti per prevenire l’utilizzo improprio o manipolativo della tecnologia di intelligenza artificiale per fuorviare o manipolare gli elettori, il Congresso degli Stati Uniti deve ancora approvare una normativa concernente il ruolo dell’intelligenza artificiale nella politica. Nonostante vi sia un sostegno bipartisan, la legislazione federale ha subito ritardi. Tuttavia, a livello statale, oltre un terzo degli stati americani ha introdotto o approvato leggi mirate ai deepfake nelle campagne politiche. L’assenza di una legislazione completa ha spinto aziende come Anthropic e OpenAI a implementare le proprie misure per tutelare l’integrità delle elezioni. 📜🛡️

Anche giganti della tecnologia come Google e Meta (ex Facebook) si sono uniti alla lotta contro l’abuso dell’intelligenza artificiale in politica. Google ora richiede dichiarazioni evidenti per gli annunci politici che utilizzano GenAI sulle sue piattaforme, tra cui YouTube e Google Search, in particolare se gli annunci presentano immagini o suoni alterati sinteticamente. Meta, d’altra parte, ha vietato alle campagne politiche di utilizzare strumenti di GenAI per la pubblicità su tutte le sue proprietà. Queste misure mirano a promuovere la trasparenza e prevenire la diffusione di contenuti manipolati durante le campagne elettorali. 👀🚫

In conclusione, lo sviluppo e l’implementazione di tecnologie come Prompt Shield da parte di aziende come Anthropic sono passi cruciali nella lotta alle interferenze nelle elezioni e alla diffusione di disinformazione. Forniscono agli utenti fonti autorevoli di informazioni, garantendo loro una guida accurata sui processi di voto e sui candidati. Sebbene sia ancora necessaria una legislazione completa, sia a livello nazionale che internazionale, gli sforzi delle aziende di intelligenza artificiale per l’autoregolamentazione e la protezione delle elezioni sono lodevoli. Priorizzando l’integrità dei processi democratici, queste aziende stanno apportando contributi preziosi che hanno un impatto duraturo sulla nostra società. 🌟🗽

🔎 Domande e Risposte: Approfondimento su Argomenti di Interesse 🔍

Domanda: Prompt Shield può rilevare la disinformazione e le fake news legate alle elezioni?
R: La funzione principale di Prompt Shield è quella di indirizzare gli utenti verso fonti autorevoli di informazioni sulla votazione. Sebbene aiuti gli utenti ad accedere a risorse accurate e affidabili, il suo ruolo nel rilevare la disinformazione nelle risposte del chatbot è limitato. Gli utenti dovrebbero utilizzare il pensiero critico e verificare i fatti per valutare le informazioni ricevute da qualsiasi fonte.

Domanda: Prompt Shield è disponibile solo per gli utenti negli Stati Uniti?
R: Attualmente, Prompt Shield è specificamente progettato per gli utenti basati negli Stati Uniti del chatbot GenAI, Claude. Tuttavia, mentre Anthropic continua a perfezionare la tecnologia, è probabile che ne espanderà la disponibilità ad utenti di altri paesi, a seconda della domanda di informazioni relative alle elezioni.

Domanda: Quali potrebbero essere le implicazioni a lungo termine di Prompt Shield e tecnologie simili sulle elezioni in tutto il mondo?
R: Prompt Shield e tecnologie simili evidenziano la crescente preoccupazione per l’interferenza nelle elezioni e la diffusione di disinformazioni. Indirizzando gli utenti verso fonti autorevoli, queste tecnologie permettono alle persone di prendere decisioni informate. Nel lungo termine, potrebbero contribuire a processi elettorali più trasparenti e affidabili a livello globale.

Riferimenti

  1. Anthropic: La startup di AI ben finanziata
  2. Allucinazione e AI: La sfida e le soluzioni
  3. OpenAI vieta l’abuso di ChatGPT per le campagne politiche
  4. Legislazione sul deepfake negli Stati Uniti
  5. Misure di Google contro l’abuso di AI negli annunci politici

🌐✨ Hai mai incontrato chatbot di intelligenza artificiale che hanno fornito informazioni fuorvianti sulla politica o sulle elezioni? Condividi la tua esperienza nei commenti qui sotto! E non dimenticare di condividere questo articolo sul tuo social media preferito! 🚀📣