Allucinazioni dell’IA rappresentano una ‘minaccia diretta’ per la scienza, avverte uno studio di Oxford

Le allucinazioni artificiali rappresentano una minaccia diretta per la scienza, avverte un recente studio dell'Università di Oxford

Large Language Models (LLMs) — come quelli utilizzati nei chatbot — hanno una preoccupante tendenza all’allucinazione. Cioè, a generare contenuti falsi che presentano come accurati. Queste allucinazioni AI costituiscono, tra gli altri rischi, una minaccia diretta per la scienza e la verità scientifica, avvertono i ricercatori dell’Oxford Internet Institute.

Secondo il loro articolo, pubblicato in Nature Human Behaviour, “LLM sono progettati per produrre risposte utili e convincenti senza garanzie esplicite riguardo alla loro accuratezza o allineamento con i fatti.”

Attualmente, LLM sono considerati fonti di conoscenza e generano informazioni in risposta a domande o sollecitazioni. Ma i dati su cui vengono addestrati non sono necessariamente corretti dal punto di vista dei fatti. Una delle ragioni di ciò è che questi modelli spesso utilizzano fonti online, che possono contenere affermazioni false, opinione e informazioni inaccurate.

“Le persone che utilizzano LLM spesso antropomorfizzano la tecnologia, in cui la considerano come una fonte di informazioni simile a quella di una persona,” ha spiegato il professore Brent Mittelstadt, co-autore dell’articolo.

“Ciò è in parte dovuto alla progettazione dei LLM come agenti utili che parlano come esseri umani e dialogano con gli utenti e che sembrano in grado di rispondere a qualsiasi domanda con testo confidente e ben scritto. Il risultato di ciò è che gli utenti possono facilmente essere convinti che le risposte siano accurate anche quando non hanno basi nei fatti o presentano versioni parziali o tendenziose della verità.”

Quando si tratta di scienza e istruzione, l’accuratezza delle informazioni è di vitale importanza e i ricercatori esortano la comunità scientifica a utilizzare LLM come “traduttori zero-shot”. Ciò significa che gli utenti dovrebbero fornire al modello i dati appropriati e chiedere di trasformarli in una conclusione o codice, ad esempio — invece di fare affidamento sul modello stesso come fonte di conoscenza.

In questo modo diventa più facile verificare che l’output sia corretto dal punto di vista dei fatti e in linea con l’input fornito.

Secondo i professori di Oxford, LLM “senza dubbio” aiuterà nelle attività scientifiche. Ma è fondamentale che la comunità li utilizzi in modo responsabile e mantenga chiare aspettative su come possono effettivamente contribuire.