Banning Dean.Bot L’azione di contrasto di OpenAI contro i chatbot politici

OpenAI interrompe il chatbot che generava interesse per un improbabile candidato democratico

Le regole elettorali di OpenAI sono ora in fase di test.

A mesi di distanza dalle elezioni del 2024 e a meno di una settimana dopo che 🔥🔥il grande nome dell’IA ha promesso di contribuire a preservare un processo democratico equo, gli sviluppatori stanno testando quelle promesse. Il 20 gennaio, secondo il Washington Post, OpenAI ha vietato al team dietro Dean.Bot, un chatbot alimentato da ChatGPT, concepito per suscitare interesse per un candidato democratico poco probabile del Minnesota, il rappresentante Dean Phillips. L’azienda ha citato una mancata adesione alle linee guida d’uso dell’azienda, scrivendo al Washington Post: “Chiunque utilizzi i nostri strumenti deve seguire le nostre politiche d’uso. Di recente, abbiamo rimosso un account sviluppatore che stava violando deliberatamente le nostre politiche sull’uso dell’API, le quali vietano la campagna politica o l’impersonificazione di un individuo senza consenso.”

Il bot – che è stato rimosso poco dopo che la pubblicazione ha pubblicato un articolo sul suo lancio, ma non prima che gli sviluppatori cercassero di mantenerlo attivo con altre API – è stato creato da Delphi, una startup di intelligenza artificiale commissionata da un relativamente nuovo Super PAC noto come We Deserve Better, fondato dagli imprenditori di Silicon Valley Matt Krisiloff e Jed Somer. ⭐

Cosa faceva Dean.Bot?

Il bot permetteva agli elettori potenziali di “conversare” con Phillips e ascoltare i suoi messaggi di campagna. Lo scambio iniziale veniva sollecitato da un avviso sullo schermo secondo il quale il bot non era reale ma faceva parte di We Deserve Better. Il sito web avvisa ora i visitatori con un messaggio “Scusatemi, DeanBot è impegnato in una campagna elettorale al momento!”

Impegno di OpenAI per la Stagione Elettorale

La rimozione del bot è una delle prime azioni pubbliche da quando OpenAI ha rilasciato nuovi impegni per la stagione elettorale, lasciando intendere uno sforzo immediato per contrastare le informazioni di campagna utilizzando la tecnologia di OpenAI non appena diventano pubbliche. Il 16 gennaio, l’azienda ha condiviso il suo piano completo per affrontare il ruolo dell’IA nelle elezioni presidenziali di quest’anno – ciò che alcuni definiti un punto di conflitto politico e tecnologico in una battaglia sull’informazione errata generata dall’IA. OpenAI ha annunciato nuove politiche d’uso e impegni per favorire l’integrità elettorale, tra cui:

  1. Maggiore trasparenza sull’origine delle immagini e sugli strumenti utilizzati per crearle, inclusa l’uso di DALL-E.
  2. Aggiornamenti sulle fonti di notizie di ChatGPT e l’inclusione di attribuzioni e link nelle risposte.
  3. Una partnership con la National Association of Secretaries of State (NASS) per inserire informazioni di voto accurate in alcune domande procedurali.

OpenAI ha già una politica in vigore che vieta agli sviluppatori di creare applicazioni per campagne politiche, di fare attività di lobbying o di creare chatbot che impersonano persone reali, inclusi candidati o entità governative. L’azienda vieta anche applicazioni che “discuorano le persone dalla partecipazione ai processi democratici,” come informazioni di voto inesatte o ineleggibilità.

Implicazioni della Mossa di OpenAI

Le prossime elezioni hanno suscitato ancora maggior preoccupazione sul ruolo della tecnologia nella condivisione delle informazioni e nella galvanizzazione dei gruppi di votanti, e l’IA si distingue come un’area grigia imminente nelle linee guida di molte aziende di social media. Molti osservatori e sostenitori (oltre alla FCC) si preoccupano del potenziale del clonaggio vocale dell’IA, mentre altri suonano l’allarme sui deepfake sempre più efficaci.

A dicembre, due organizzazioni senza scopo di lucro hanno pubblicato un rapporto che documentava che il chatbot AI di Microsoft, Copilot, non riusciva a fornire informazioni elettorali accurate e diffondeva informazioni errate. In risposta, alcune aziende stanno scegliendo di adottare politiche più rigorose per le campagne politiche, simili a quelle annunciate da Google e Meta l’anno scorso. Rimozione completa dei contenuti e le conseguenze di contenuti generati dall’IA su consumatori già suscettibili e un deterioramento della competenza mediatica sono ancora un punto di discussione.

Q&A

D: Perché OpenAI ha vietato il team dietro Dean.Bot? A: OpenAI ha citato la violazione delle politiche d’uso dell’API, in particolare il divieto di fare campagne politiche o di impersonare senza consenso.

D: Chi ha creato Dean.Bot? A: Il bot è stato creato da Delphi, una start-up di intelligenza artificiale commissionata dal Super PAC We Deserve Better, fondato da Matt Krisiloff e Jed Somer.

D: Quali sono gli impegni di OpenAI per la stagione elettorale? A: Gli impegni di OpenAI includono una maggiore trasparenza sull’origine delle immagini, aggiornamenti sulle fonti di notizie di ChatGPT con attributi e link e una partnership con la National Association of Secretaries of State (NASS) per fornire informazioni accurate sul voto.

Pensando al Futuro

La lotta di OpenAI contro i chatbot politici segna un passo significativo nel contrastare l’informazione errata generata dall’IA durante le elezioni. Man mano che la tecnologia dell’IA si evolve, diventa sempre più cruciale garantire l’accuratezza e l’affidabilità delle informazioni presentate agli elettori. La battaglia contro i deepfake e il clonaggio vocale dell’IA continuerà ad intensificarsi, con aziende e regolatori che attuano politiche più rigorose per proteggere l’integrità dei processi democratici.

🔗 Link rilevanti: – Il ritorno degli annunci politici su X/Twitter pone importanti domande agli utentiL’infinite scroll di TikTok evidenzia una crescente crisi di alfabetizzazione mediatica – Ecco come OpenAI intende affrontare la disinformazione elettorale su ChatGPT e Dall-E – Il chatbot AI di Bing di Microsoft Copilot fornisce informazioni errate sulle elezioniMeta rivela i piani per le elezioni globali del 2024

All’avvicinarsi delle elezioni del 2024, l’impatto dell’IA sul processo democratico continua a essere un argomento di preoccupazione. Rimani informato, rimani vigile e assicuriamoci che la tecnologia lavori a favore della democrazia. Condividi i tuoi pensieri e preoccupazioni nei commenti qui sotto! 🔽🔽🔽


Ricorda di condividere questo articolo con i tuoi compagni appassionati di tecnologia sui social media! Scateniamo conversazioni e promuoviamo un uso responsabile dell’IA. 🚀🌐🤖