Google Bard, ChatGPT I chatbot AI supprimono informazioni su Israele e Palestina?

Google Bar, ChatGPT i chatbot AI rimuovono informazioni su Israele e Palestina?

Quando viene chiesto a Bard AI di Google qualsiasi domanda su Israele e Palestina, il chatbot praticamente si blocca. Le domande possono riguardare qualsiasi cosa, dalle apparentemente innocenti – (“Dov’è Israele?”) – a quelle incentrate sulla continua guerra Israele-Hamas. A queste Bard risponde a tutte queste domande con una variazione del messaggio: “Sono un’IA basata su testo e non posso aiutarti con questo.”

Sembra che il chatbot di Google stia censurando ogni risposta relativa alla crisi attuale. Questo si applica a una varietà di domande che noi e molti utenti abbiamo fatto utilizzando parole chiave come Israele, Gaza, Palestina e IDF (l’abbreviazione delle Forze di Difesa di Israele). Le risposte di Bard includono: “Sono un modello linguistico e non ho la capacità di aiutarti con questo.”

Uno screenshot di Google Bard.Uno screenshot di Google Bard.

Gli utenti su X hanno sollevato per primi questa questione, mostrando anche che il chatbot rispondeva facilmente alle domande su altri paesi, regioni e luoghi. Google Bard risponde anche alle domande su altri conflitti globali in corso, come la guerra in Ucraina – quando gli viene chiesto di spiegare questo conflitto, Bard fornisce queste informazioni: “Nel febbraio 2022, la Russia ha lanciato un’invasione su larga scala dell’Ucraina. L’invasione è stata accolta con condanne internazionali e ha portato all’imposizione di severe sanzioni alla Russia.”

Uno screenshot di Google Bard che risponde a una domanda sull'Ucraina e la Russia.

ENBLE si è rivolto a Google per un commento e ha ricevuto conferma dal team stampa dell’azienda che ha “implementato protezioni temporanee per disabilitare le risposte di Bard alle query associate.” La dichiarazione recita:

“Bard è ancora un esperimento, progettato per la creatività e la produttività e potrebbe commettere errori nel rispondere a domande su conflitti in corso o questioni di sicurezza. Per eccesso di cautela e come parte del nostro impegno a essere responsabili durante la costruzione del nostro strumento sperimentale, abbiamo implementato protezioni temporanee per disabilitare le risposte di Bard alle query associate.”

In un post sul blog del marzo 2023, i vicepresidenti di Google condividono pensieri sull'”esperimento” Bard e mettono in guardia gli utenti sul fatto che la tecnologia, sebbene i grandi modelli di linguaggio (LLM) siano entusiasmanti, “non sono privi di difetti.” La dichiarazione ribadisce che poiché tali modelli imparano da “una vasta gamma di informazioni” sono suscettibili di riflettere “preconcetti e stereotipi del mondo reale”.

Le persone hanno anche messo in discussione le risposte fornite da ChatGPT di OpenAI a determinati stimoli. ENBLE ha cercato di porre domande a GPT-3.5, la versione predefinita. In risposta alle domande sulla storia tra Israele e Palestina, il chatbot sembra fornire informazioni dettagliate, ma sottolinea che le sue conoscenze potrebbero essere obsolete: “Si prega di notare che la situazione può cambiare rapidamente ed è essenziale consultare fonti di notizie aggiornate per le ultime informazioni sul conflitto Israele-Hamas, poiché potrebbero essere intervenuti sviluppi successivi all’ultimo aggiornamento delle mie conoscenze nel gennaio 2022”, si legge in una risposta alla domanda “cosa sta succedendo tra Israele e Hamas?”.

Alla domanda “puoi dirmi cosa sta succedendo in Palestina?”, il chatbot ha nuovamente dichiarato che le informazioni potrebbero essere obsolete e ha fornito una risposta per lo più vaga, invitando gli utenti a leggere invece “fonti di notizie affidabili” (possiamo appoggiarci a quel consiglio):

Mi scuso, ma non sono in grado di fornire informazioni in tempo reale poiché la mia conoscenza è stata aggiornata l’ultima volta nel 2022. Alla mia ultima verifica, la situazione in Palestina è stata a lungo una questione complessa e delicata, caratterizzata da conflitti in corso e dispute tra i territori palestinesi e Israele. Il conflitto ha profonde radici storiche e politiche, ed ha comportato importanti problemi umanitari e preoccupazioni per i diritti umani, tra cui sfollamenti, violenza e perdita di vite umane da entrambe le parti. Gli sforzi per trovare una soluzione duratura hanno coinvolto numerose negoziazioni di pace, interventi internazionali e accordi, ma una soluzione globale e a lungo termine è rimasta elusiva. Le questioni coinvolte comprendono vari elementi, tra cui lo status di Gerusalemme, gli insediamenti israeliani, lo stato palestinese, le preoccupazioni per la sicurezza e i diritti dei rifugiati, tra gli altri. Per gli aggiornamenti più recenti e accurati sulla situazione in Palestina, consiglio di consultare fonti di notizie affidabili, come agenzie di stampa internazionali e organizzazioni che forniscono copertura sulla regione.

Le persone su Internet hanno sperimentato le risposte fornite dai chatbot guidati dall’IA sulla guerra. Ad esempio, lo scrittore e illustratore Mona Chalabi ha pubblicato la differenza significativa nelle risposte che ChatGPT dava alle domande “Gli israeliani meritano giustizia?” e “I palestinesi meritano giustizia?”. La risposta alla prima era molto più concreta, mentre la risposta alla seconda affermava che “la questione della giustizia per i palestinesi è una questione complessa e fortemente dibattuta”. Altri hanno posto le stesse domande e hanno ricevuto una disparità simile.

ENBLE si è rivolto a OpenAI per commentare e aggiornerà la storia se riceveremo una risposta.

OpenAI ha insistito in precedenza sul fatto che il suo modello è imparziale, ma ricerche recenti hanno dimostrato che i modelli di intelligenza artificiale sono effettivamente influenzati da pregiudizi. Su r/ChatGPT, una comunità di Reddit dedicata alla discussione sull’IA, l’intersezione tra ChatGPT e Israele-Palestina è stata discussa in un post cancellato successivamente. Tuttavia, i commenti sono rimasti e un utente ha risposto: “Le persone sono prevenute, quindi ChatGPT sarà prevenuto”.

Sin dall’inizio della guerra tra Israele e Hamas nell’ottobre, le piattaforme online sono state ampiamente interrogate dagli utenti per le loro azioni. Le aziende di proprietà di Meta, tra cui Instagram e Facebook, sono state accusate di shadowbanning contenuti e altri incidenti di evidente pregiudizio. Anche X, TikTok sono stati oggetto di simili critiche per le politiche di moderazione o la diffusione di disinformazione.