Facebook potrebbe ottenere chatbot – e questo potrebbe essere un problema | ENBLE

Facebook potrebbe avere chatbot problematici | ENBLE

Il proprietario di Facebook, Meta, sta pianificando di introdurre chatbot con personalità distinte nella sua app di social media. Il lancio potrebbe avvenire già a settembre e rappresenterebbe una sfida per rivali come ChatGPT, ma ci sono preoccupazioni riguardo alle possibili implicazioni per la privacy degli utenti.

L’idea proviene dal Financial Times, che riporta che questa mossa è un tentativo di aumentare l’interazione con gli utenti di Facebook. Il nuovo strumento potrebbe farlo fornendo nuove capacità di ricerca o raccomandando contenuti, tutto attraverso discussioni simili a quelle umane.

Brett Johnson / Unsplash

Secondo fonti citate dal Financial Times, i chatbot assumeranno diverse personalità, tra cui “una che emula Abraham Lincoln e un’altra che consiglia opzioni di viaggio nello stile di un surfista”.

Questa non sarebbe la prima volta che vediamo chatbot assumere personalità proprie o conversare nello stile di persone famose. Ad esempio, il chatbot Character.ai può adottare decine di personalità diverse, tra cui quelle di celebrità e personaggi storici.

Preoccupazioni sulla privacy

Josh Edelson/Getty Images / Meta

Nonostante le promesse che potrebbero essere mostrate dai chatbot di Meta, sono state sollevate anche preoccupazioni riguardo alla quantità di dati che probabilmente raccoglieranno – soprattutto considerando che Facebook ha un pessimo record nella protezione della privacy degli utenti.

Ravit Dotan, una consulente di etica dell’IA e ricercatrice, è stata citata dal Financial Times dicendo: “Una volta che gli utenti interagiscono con un chatbot, si espone davvero molto più dei loro dati all’azienda, in modo che l’azienda possa fare ciò che vuole con quei dati”.

Ciò non solo solleva la prospettiva di violazioni della privacy a vasto raggio, ma consente anche la possibilità di “manipolazione e spinta” degli utenti, ha aggiunto Dotan.

Un grande rischio

Meta

Altri chatbot come ChatGPT e Bing Chat hanno avuto una storia di “allucinazioni”, o momenti in cui condividono informazioni errate o addirittura disinformazione. I danni potenziali causati dalla disinformazione e dai pregiudizi potrebbero essere molto più elevati su Facebook, che conta quasi quattro miliardi di utenti, rispetto ai chatbot concorrenti.

I precedenti tentativi di Meta di creare chatbot non sono andati bene, con il BlenderBot 2 e il BlenderBot 3 dell’azienda che si sono rapidamente trasformati in contenuti fuorvianti e discorsi di odio infiammatori. Questo potrebbe non dare molta speranza agli utenti per l’ultimo sforzo di Meta.

Con settembre che si avvicina rapidamente, potremmo non avere molto tempo per vedere se Facebook sarà in grado di superare queste difficoltà o se avremo un altro lancio pieno di allucinazioni simili a quelli subiti altrove nell’industria. Qualunque cosa accada, sarà interessante da osservare.