AI e Tu I Chatbot Si Parlano tra Loro, l’AI Aiuta i Chirurghi a Localizzare i Tumori Cerebrali

Gli Chatbot e l'Intelligenza Artificiale Conversano tra Loro, Supportando i Chirurghi nella Localizzazione dei Tumori Cerebrali

Dopo aver preso una pausa, sono tornato questa settimana per trovare la mia casella di posta piena di notizie sugli strumenti, problemi, passi falsi e avventure dell’intelligenza artificiale. E la cosa che mi ha colpito è quanto sia grande l’investimento nel far sembrare che gli AI chatbot siano qualcun altro.

Nel caso di Meta, il CEO Mark Zuckerberg ha ampliato il cast di personaggi AI con cui più di 3 miliardi di utenti del colosso tecnologico possono interagire su popolari piattaforme come Facebook, Instagram, Messenger e WhatsApp. Questi personaggi si basano su celebrità, atleti e artisti reali, tra cui il musicista Snoop Dogg, la famosa Kylie Jenner, l’ex quarterback Tom Brady, la stella del tennis Naomi Osaka, l’altra celebrità Paris Hilton e la celebre scrittrice inglese Jane Austen. 

“I personaggi sono un modo per divertirsi, imparare cose, parlare di ricette o semplicemente passare il tempo, il tutto nel contesto di connettersi con amici e familiari”, hanno detto gli esecutivi dell’azienda al New York Times riguardo a tutti questi amici finti con cui ora puoi conversare. 

Ha detto Zuckerberg: “Le persone non vorranno interagire con un singolo AI super intelligente: le persone vorranno interagire con un gruppo di personaggi diversi.”

Ma non fingiamo che gli amici finti siano solo utili per connetterti con la famiglia e gli amici. Come sappiamo, è tutto una questione di soldi, e al momento le aziende tecnologiche sono coinvolte in una battaglia che vede Meta contrapposta ad altri giganti dell’intelligenza artificiale, tra cui ChatGPT di OpenAI, Bing di Microsoft e Bard di Google. È un punto che il Times ha notato bene: “Per Meta, l’accettazione diffusa dei suoi nuovi prodotti di intelligenza artificiale potrebbe aumentare significativamente l’engagement su molte delle sue app, la maggior parte delle quali si basano sulla pubblicità per fare soldi. Più tempo trascorso nelle app di Meta significa più annunci mostrati agli utenti.”

Per essere certi, Meta non è stata la prima a pensare all’idea di creare personalità o personaggi per dare un volto umano ai chatbot di intelligenza artificiale nelle conversazioni (vedi ELIZA, nata alla fine degli anni ’60). Ed è un approccio che sembra dare risultati.

Character.ai, che ha due anni, permette di interagire con chatbot basati su persone famose come Taylor Swift e Albert Einstein e personaggi di finzione come Super Mario di Nintendo, ed è uno dei siti di intelligenza artificiale più visitati secondo quanto riportato da Bloomberg; si dice che l’azienda stia cercando finanziamenti che valuterebbero la startup tra 5 e 6 miliardi di dollari. Questa settimana, Character.ai, che consente anche di creare i tuoi chatbot basati sulla personalità, ha introdotto una nuova funzione per i sottoscrittori, chiamata Character Group Chat, che permette a te e ai tuoi amici di chattare contemporaneamente con più personaggi di intelligenza artificiale. (Ora hai la possibilità di aggiungere Swift e Mario alle tue chat di gruppo.)

Tuttavia, usare personaggi famosi per vendere AI è divertente solo se queste persone ne sono consapevoli e vengono pagate per i loro avatar AI. All’inizio di questo mese, l’attore Tom Hanks ha avvertito le persone di uno spot dentale che usava la sua immagine senza il suo consenso. “State attenti!!” ha detto Hanks ai suoi 9,5 milioni di follower di Instagram. “C’è un video là fuori che promuove un piano dentale con una versione AI di me. Non c’entro nulla.”

Hanks in un podcast di aprile ha previsto i pericoli posti dall’intelligenza artificiale. “In questo momento, se volessi, potrei creare una serie di sette film in cui sarei l’attore protagonista e avrei 32 anni dall’infinito. Ora chiunque può ricrearsi con qualsiasi età tramite l’intelligenza artificiale o la tecnologia deepfake… Posso dirti che si stanno svolgendo discussioni in tutte le associazioni, agenzie e studi legali sulle implicazioni legali del mio volto, della mia voce e di quelle di tutti gli altri come proprietà intellettuale.”

Certo, aveva ragione su tutte quelle discussioni. La Writers Guild of America ha appena concluso lo sciopero degli sceneggiatori con Hollywood, dopo aver raggiunto un accordo sul ​​uso dell’AI nel cinema e nella televisione. Ma attori, rappresentati da SAG-AFTRA, stanno ancora combattendo, e uno dei punti cruciali è l’uso delle “repliche digitali”.

Ecco le altre novità nel campo dell’AI che meritano la vostra attenzione.

ChatGPT ora può udire e parlare – a un prezzo

OpenAI sta implementando nuove funzionalità vocali e di immagine in ChatGPT che vi permettono di “avere una conversazione vocale o mostrare aChatGPT di cosa state parlando”. Le nuove funzionalità sono disponibili per coloro che pagano per utilizzare il chatbot (ChatGPT Plus costa $20 al mese.)

Afferma l’azienda: “Scatta una foto di un punto di riferimento durante un viaggio e fai una conversazione in diretta su cosa c’è di interessante. Quando sei a casa, scatta foto del tuo frigo e dispensa per capire cosa fare per cena (e fai domande per seguire una ricetta passo passo). Dopo cena, aiuta tuo figlio con un problema di matematica facendo una foto, cerchiando il problema e facendogli avere suggerimenti ad entrambi”.

Allora, com’è parlare con ChatGPT? La recensione del Wall Street Journal di Joanna Stern lo descrive come simile al film Her, in cui Joaquin Phoenix si innamora di un sistema operativo di intelligenza artificiale di nome Samantha, con la voce di Scarlett Johansson.

“La voce naturale, il tono conversazionale e le risposte eloquenti sono quasi indistinguibili da un essere umano a volte,” scrive Stern. “Ma stai sicuramente ancora parlando con una macchina. Il tempo di risposta… può essere estremamente lento e la connessione può fallire – riavviare l’app aiuta. Alcune volte la conversazione viene bruscamente interrotta (pensavo che solo gli esseri umani maleducati facessero questo!)”

Un’AI maleducata? Forse i chatbot stanno diventando sempre più umani, dopo tutto.

Addio, gruppi di discussione umani; ciao, esseri umani sintetici?

Parlando di AI più umanistiche, un’azienda chiamata Fantasy sta creando “esseri umani sintetici” per clienti come Ford, Google, LG e Spotify per aiutarli a “conoscere il loro pubblico, elaborare concetti di prodotto e persino generare nuove idee,” riferisce ENBLE.

“Fantasy utilizza la stessa tecnologia di apprendimento automatico che alimenta chatbot come ChatGPT di OpenAI e Bard di Google per creare i suoi esseri umani sintetici,” afferma ENBLE. “L’azienda assegna a ogni agente decine di caratteristiche tratte da ricerche etnografiche su persone reali, inserendole in modelli di linguaggio di grandi dimensioni commerciali come GPT di OpenAI e Claude di Anthropic. I suoi agenti possono anche essere configurati per essere a conoscenza di linee di prodotto o attività commerciali esistenti, in modo da poter conversare riguardo alle offerte di un cliente”.

Gli esseri umani non sono completamente esclusi dal processo. Fantasy ha detto a ENBLE che per l’azienda petrolifera e del gas BP, ha creato gruppi di discussione costituiti sia da persone reali che da esseri umani sintetici, chiedendo loro di discutere un argomento o un’idea di prodotto. Il risultato? “Mentre un essere umano potrebbe stancarsi di rispondere alle domande o non voler rispondere in molti modi, un essere umano sintetico può continuare,” ha dichiarato Roger Rohatgi, capo del design globale di BP, alla pubblicazione.

Quindi, l’obiettivo finale potrebbe essere far parlare i bot tra di loro. Ma c’è un’insidia: addestrare personaggi AI non è affatto facile. ENBLE ha parlato con Michael Bernstein, professore associato presso l’Università di Stanford, che ha contribuito a creare una comunità di chatbot chiamata Smallville, e lo ha parafrasato così:

“Coloro che sperano di utilizzare l’AI per modellare esseri umani reali, Bernstein dice, dovrebbero ricordarsi di dubitare se i modelli di linguaggio riflettano davvero il comportamento reale. I personaggi generati in questo modo non sono complessi o intelligenti quanto le persone reali e potrebbero tendere ad essere più stereotipati e meno variati rispetto alle informazioni campionate dalle popolazioni reali. Come rendere i modelli più fedeli alla realtà è ‘ancora una domanda aperta di ricerca,’ dice lui”.

Perché l’etica e la fiducia contano

Deloitte ha aggiornato il suo rapporto sullo “Stato dell’Etica e della Fiducia nella Tecnologia” per il 2023, e puoi scaricare il rapporto di 53 pagine qui. Vale la pena leggerlo, anche solo come promemoria che il modo in cui gli strumenti e i sistemi di intelligenza artificiale vengono sviluppati, implementati e utilizzati è interamente nelle nostre mani umane.

TL;DR di Deloitte? Le organizzazioni dovrebbero “sviluppare principi affidabili ed etici per le tecnologie emergenti” e lavorare in collaborazione con “altre aziende, agenzie governative e leader del settore per creare regolamenti uniformi ed eticamente robusti per le tecnologie emergenti”.

E se non lo fanno? Deloitte elenca i danni causati da errori etici, tra cui danni alla reputazione, danni umani e sanzioni regolamentari. Il ricercatore ha anche scoperto che i danni finanziari e la insoddisfazione dei dipendenti vanno di pari passo. “Comportamenti non etici o mancanza di attenzione visibile all’etica possono diminuire la capacità di un’azienda di attrarre e trattenere talenti. Uno studio ha scoperto che i dipendenti di aziende coinvolte in violazioni etiche hanno perso in media il 50% delle loro entrate cumulative nel corso del decennio successivo rispetto ai lavoratori di altre aziende.”

Il ricercatore ha inoltre scoperto che il 56% dei professionisti non è sicuro se le loro aziende abbiano linee guida etiche per l’uso dell’IA, secondo un riassunto dei risultati sul sito ENBLE della sorella ENBLE.

Lavorando sui margini per la chirurgia del cervello

Una delle sfide nel rimuovere i tumori cerebrali è per i chirurghi determinare quanto intorno ai margini del tumore devono rimuovere per assicurarsi di aver estratto tutte le cose negative. È una faccenda complicata, per dir poco, perché devono trovare un “delicato equilibrio tra massimizzare la resezione e minimizzare il rischio di danni neurologici”, secondo un nuovo studio.

Quel rapporto, pubblicato questa settimana su Nature, offre notizie su un affascinante progresso nella rivelazione dei tumori, grazie a una rete neurale di intelligenza artificiale. Gli scienziati dei Paesi Bassi hanno sviluppato un sistema di apprendimento approfondito chiamato Sturgeon che mira ad aiutare i chirurghi a trovare quel delicato equilibrio aiutando a ottenere un profilo dettagliato del tumore durante l’intervento chirurgico.

Puoi leggere il rapporto di Nature, ma condividerò il riassunto in inglese dell’autore scientifico del New York Times, Benjamin Mueller: “Il metodo prevede la scansione computerizzata di segmenti del DNA di un tumore e la scoperta di determinate modifiche chimiche che possono fornire una diagnosi dettagliata del tipo e persino del sottotipo del tumore cerebrale. Quella diagnosi, generata durante le prime fasi di un’operazione che dura ore, può aiutare i chirurghi a decidere quanto aggressivamente operare”.

In test su campioni di tumori congelati da precedenti interventi per il cancro al cervello, Sturgeon ha diagnosticato correttamente 45 dei 50 casi entro 40 minuti dall’inizio della sequenza del DNA, ha detto il Times. Ed è stato poi testato durante 25 interventi chirurgici in diretta al cervello, la maggior parte dei quali su bambini, fornendo 18 diagnosi corrette.

Il Times ha notato che alcuni tumori cerebrali sono difficili da diagnosticare e che non tutti i cancri possono essere diagnosticati tramite le modifiche chimiche che il nuovo metodo di intelligenza artificiale analizza. Tuttavia, è incoraggiante vedere cosa potrebbe essere possibile con le nuove tecnologie di intelligenza artificiale man mano che la ricerca continua.

Parola della settimana sull’IA: IA

Dato tutto il discorso precedente su come l’IA venga utilizzata per creare versioni fittizie di persone reali (escluso Super Mario), la parola che sceglierei per questa settimana sarebbe “antropomorfismo”, che consiste nell’attribuire qualità simili a quelle umane a cose non umane. Ma ne ho parlato nell’edizione dell’IA e tu del 19 agosto.

Quindi, invece, vi offro la definizione del Consiglio d’Europa di “intelligenza artificiale”:

Un insieme di scienze, teorie e tecniche il cui scopo è riprodurre tramite una macchina le capacità cognitive di un essere umano. Gli sviluppi attuali mirano a poter affidare a una macchina compiti complessi precedentemente delegati a un essere umano.

Tuttavia, il termine intelligenza artificiale è criticato dagli esperti che distinguono tra IA “forte” (in grado di contestualizzare problemi specializzati molto diversi in modo completamente indipendente) e IA “debole” o “moderata” (che si comportano estremamente bene nel loro campo di addestramento). Secondo alcuni esperti, l’IA “forte” richiederebbe progressi nella ricerca di base per poter modellare l’intero mondo e non solo miglioramenti delle prestazioni dei sistemi esistenti.

A titolo di paragone, ecco la citazione del Dipartimento di Stato degli Stati Uniti che fa riferimento al National Artificial Intelligence Act del 2020:

Il termine “intelligenza artificiale” si riferisce a un sistema basato su macchine che può, per un determinato insieme di obiettivi definiti dagli esseri umani, fare previsioni, fornire raccomandazioni o prendere decisioni che influenzano ambienti reali o virtuali.

Nota degli editori: ENBLE sta utilizzando un motore di intelligenza artificiale per aiutare a creare alcune storie. Per saperne di più, consulta questo articolo.