L’intelligenza artificiale viene addestrata per mostrare empatia

Man mano che gli esseri umani diventano sempre più oberati e impegnati, ci stiamo rivolgendo all’intelligenza artificiale (IA) per esprimere empatia al nostro posto.

Secondo un rapporto del Wall Street Journal del 7 ottobre, i modelli di IA addestrati su enormi quantità di dati conversazionali sono ora sufficientemente avanzati da rilevare le emozioni e rispondere con empatia. Aziende come Teleperformance stanno utilizzando bot di IA per analizzare le conversazioni dei loro operatori del servizio clienti durante le chiamate.

I bot utilizzano l’elaborazione del linguaggio naturale per rilevare segnali emotivi basati sulla scelta delle parole, il tono della voce e la cadenza. Successivamente, assegnano un punteggio a ciascun operatore su metriche quali l’empatia.

Medici e terapisti farebbero uso di strumenti di IA simili per suggerire risposte empatiche ai pazienti bisognosi di cure o supporto emotivo. L’IA analizza le conversazioni con i pazienti e propone risposte ponderate e premurose per le quali il professionista può scegliere.

Anche la voce rassicurante dall’altra parte della chiamata della tua banca potrebbe in realtà essere un chatbot di IA progettato per sembrare premuroso e riflessivo utilizzando sofisticate capacità di rilevamento ed elaborazione emotiva. I sostenitori sostengono che l’empatia dell’IA potrebbe migliorare notevolmente le interazioni in settori come il servizio clienti, l’assistenza sanitaria e le risorse umane.

Ad esempio, si sostiene che un bot di vendita empatico potrebbe aumentare la soddisfazione del cliente e le vendite rilevando quando un cliente è frustrato o confuso e rispondendo in modo appropriato. I sostenitori sostengono anche che i bot terapeutici potrebbero aiutare ad affrontare gravi carenze nell’accesso all’assistenza sanitaria mentale, utilizzando sistemi di conversazione automatizzati per fornire supporto emotivo essenziale e tecniche terapeutiche a coloro che non possono accedere a operatori umani.

Tuttavia, alcuni esperti mettono in guardia dicendo che l’IA manca di vere esperienze emotive e, pertanto, non può veramente provare empatia, ma emula solo esempi di ciò che viene considerata una risposta emotiva appropriata. La bioeticista Jodi Halpern osserva che la “empatia cognitiva”, in cui un’IA riconosce le emozioni in base a modelli di dati, non è la stessa cosa dell'”empatia emotiva”, che implica una vera preoccupazione derivante da esperienze emotive condivise. Altri avvertono che delegare l’empatia all’IA rischia di atrofizzare le competenze umane se viene utilizzata come sostituto anziché come integrazione dell’impegno emotivo umano-umano.

Man mano che le applicazioni per l’empatia artificiale si espandono, sarà necessario stabilire linee guida e trasparenza per integrare la tecnologia in modo etico. Sebbene l’IA possa un giorno riprodurre perfettamente l’intelligenza emotiva umana, al momento manca delle esperienze condivise che creano una vera comprensione empatica. La vigilanza e un’implementazione oculata sono fondamentali per garantire che l’empatia artificiale sostenga, senza sostituire, la compassione autentica umana.

Immagine in primo piano: Alex Green; Pexels; Grazie!