Assistenti AI più intelligenti potrebbero rendere più difficile rimanere umani

AI assistants becoming smarter may make it harder to stay human.

I ricercatori e i futuristi parlano da decenni del giorno in cui gli agenti software intelligenti agiranno come assistenti personali, tutor e consulenti. Apple ha prodotto il famoso video Knowledge Navigator nel 1987. Mi sembra di ricordare di aver partecipato a un evento del MIT Media Lab negli anni ’90 sugli agenti software, dove il moderatore appariva come un maggiordomo, con un cilindro in testa. Con l’avvento dell’IA generativa, quella visione nebulosa del software come aiutante di campo è improvvisamente diventata chiara. Will Knight di ENBLE ha fornito una panoramica questa settimana su ciò che è disponibile ora e su ciò che è imminente.

Testo normale

Sono preoccupato su come questo ci cambierà, e sulle nostre relazioni con gli altri, nel lungo termine. Molte delle nostre interazioni con gli altri saranno mediate da bot che agiscono al nostro posto. Gli assistenti robotici sono diversi dagli aiutanti umani: non fanno pause, possono accedere istantaneamente a tutte le conoscenze del mondo e non richiedono un salario. Più li usiamo, più sarà tentante affidare loro compiti che un tempo riservavamo a noi stessi. Al momento gli assistenti AI offerti sono ancora poco raffinati. Non siamo ancora al punto in cui i bot autonomi prenderanno regolarmente il controllo delle attività in cui non si possono tollerare errori, come prenotare voli, fissare appuntamenti medici e gestire portafogli finanziari. Ma questo cambierà, perché può. Sembriamo destinati a vivere la nostra vita come piloti di linea a lungo raggio: dopo aver impostato una rotta, possiamo rilassarci nella cabina di pilotaggio mentre l’IA pilota l’aereo, passando alla modalità manuale quando necessario. Il timore è che, alla fine, siano gli agenti a decidere dove l’aereo sta andando in primo luogo.

Senza considerare i pessimisti, tutti noi dovremo fare i conti con agenti super intelligenti e possibilmente manipolatori di qualcun altro. Affideremo il controllo delle nostre attività quotidiane e delle scelte di tutti i giorni, dalle liste della spesa ai calendari degli appuntamenti, ai nostri assistenti AI, che interagiranno anche con gli agenti della nostra famiglia, amici e nemici. Man mano che acquisiscono indipendenza, i nostri aiutanti automatizzati potrebbero finire per prendere decisioni o fare accordi a nostro nome che non sono affatto vantaggiosi.

Per una visione ottimistica di questo futuro, consulto Mustafa Suleyman. Uno dei fondatori della startup di intelligenza artificiale DeepMind, ora il cuore dello sviluppo di intelligenza artificiale di Google, è ora CEO di Inflection.ai, un’azienda che sviluppa chatbot. Suleyman ha recentemente raggiunto la lista dei bestseller del New York Times con il suo libro The Coming Wave, che suggerisce come gli esseri umani possono affrontare i pericoli esistenziali dell’IA. Nel complesso, è un ottimista e naturalmente ha un’opinione positiva sugli agenti software. Descrive il bot che la sua azienda crea, Pi, come un “capo di stato maggiore” personale che fornisce non solo saggezza, ma anche incoraggiamento empatico e gentilezza.

“Oggi Pi non è in grado di prenotare ristoranti o organizzare un’auto o, sai, comprare cose per te”, dice Suleyman. “Ma in futuro, avrà il tuo rappresentante contrattuale e legale, il che significa che hai concesso autorizzazioni per stipulare contratti per tuo conto, e spendere soldi veri e vincolarti a accordi materiali nel mondo reale”. Inoltre, nel programma ci sono anche chiamate telefoniche fatte per conto del proprietario di Pi e la negoziazione con gli operatori del servizio clienti.

Sembra giusto, perché al momento, troppi di quegli operatori di servizio sono già bot e – forse per scelta? – non sono aperti a argomentazioni ragionevoli che dimostrino come le loro aziende trattino male i propri clienti. Inevitabilmente, lanceremo le nostre AI nelle negoziazioni con altre AI in tutti gli ambiti della vita. Suleyman riconosce che non vogliamo che quei bot diventino troppo amichevoli tra loro o interagiscano in modi non aperti all’ispezione umana. “In realtà vogliamo che la comunicazione AI-IA sia limitata all’inglese semplice”, dice Suleyman. “In questo modo possiamo controllarla”.

È una preoccupazione ben intenzionata, ma probabilmente costringerebbe gli agenti a lavorare più lentamente e potrebbe persino impedire alcune delle soluzioni più innovative che i nostri assistenti super intelligenti potrebbero trovare. Sospetto che la tentazione di rendere la comunicazione AI-IA efficiente ed efficace supererà quel bel sentimento.

Un altro potenziale incubo: bot finanziati da annunci che indirizzano i proprietari a prodotti e servizi sponsorizzati. Suleyman non ama l’idea, ma sembra non escluderla. Dice che i suoi bot, che offrono un valore enorme, non saranno economici. “Regolarmente paghi un avvocato centinaia di dollari all’ora. Ma per qualche motivo, siamo diventati allergici a pagare più di 10 dollari al mese per qualsiasi servizio online. Questo dovrà cambiare”. Quindi, a coloro che non possono permettersi la tariffa verranno offerte versioni supportate da annunci? Ammette che non tutti vorranno pagare per accedere alla tecnologia. In ogni caso, Suleyman afferma che la fiducia e la responsabilità sono essenziali. “Ci vorranno molti anni prima che ci sentiamo a nostro agio con l’AI che compie azioni autonome”, dice. “Non penso che dovremmo farlo presto”.

La tecnologia renderà le persone singole più potenti – la mia unica preoccupazione è: cosa faranno le persone con quel potere?

Per me, questa è la preoccupazione: una volta che ci sentiamo a nostro agio, siamo finiti. Quando ho cercato conferma in uno studio di ricerche, il mio interesse è stato catturato dal titolo “Il potere di nuocere: gli assistenti AI aprono la strada a comportamenti non etici”. Coautori degli scienziati dell’Università della California del Sud Jonathan Gratch e Nathanael Fast, ipotizzano che gli agenti intelligenti possano democratizzare un’abitudine poco salutare delle persone ricche, che esternalizzano i loro comportamenti scorretti attraverso avvocati, portavoce e sottoposti violenti. “Esaminiamo una serie di studi che illustrano come, in una vasta gamma di compiti sociali, le persone possano comportarsi in modo meno etico e essere più inclini a ingannare quando agiscono attraverso agenti AI”, scrivono.

Ho raggiunto Gratch, che mi ha parlato da una conferenza a Würzburg, in Germania. “Ogni uomo o donna può farsi fare le cose dal proprio assistente personale”, dice. “Le nostre ricerche suggeriscono che le persone potrebbero essere disposte a dire ai loro assistenti di fare cose che sono più eticamente discutibili di quanto loro stessi sarebbero disposti a fare”.

Gratch sta studiando da anni l’impatto possibile degli agenti intelligenti. Nell’ultimo anno il campo ha subito una trasformazione simile a un fulmine che colpisce un inetto che improvvisamente acquisisce superpoteri. “Una volta, spendevi un’intera tesi di dottorato cercando di costruire un maledetto agente che volevi testare”, dice. “E ora, con due giorni a giocare con GPT o qualcosa del genere, puoi ottenere qualcosa che interagisce con le persone e sembra abbastanza buono”. Gratch dice che il suo campo è ora pervaso da una miscela di eccitazione e angoscia.

“La tecnologia renderà le persone singole più potenti, liberando tempo libero”, dice. “La mia unica preoccupazione è: cosa faranno le persone con quel potere?” Ad esempio, se avessi incaricato un agente di chiamarlo per mio conto, dice, si sarebbe persa una potenziale connessione umana. “Queste connessioni personali sono ciò che ci rende gentili e promuovono l’empatia”, dice Gratch. “Quando l’IA lo rende più incentrato sugli algoritmi, le leggi e le transazioni, ci diminuisce come persone”.

Il campo di Gratch, una volta incentrato su ipotetici, può ora sembrare una guida a ciò che i servizi commerciali di AI stanno per arrivare. Considerate alcune delle presentazioni alla conferenza di Würzburg: “Effetti dell’incarnazione dell’agente nelle negoziazioni tra umani e agenti”, “Accogliere l’espressività dell’utente mantenendo la sicurezza per un consulente virtuale per l’abuso di alcol”, “L’effetto del rapporto sulla delega agli agenti virtuali”. (Rassicurantemente, altri articoli riguardavano il mantenimento dell’etica in un mondo pieno di agenti). Gratch ha visto lavori simili a una conferenza a cui ha recentemente partecipato al MIT. Anche tutte le principali aziende tecnologiche erano presenti, dice, e si aspetta che assumano molti dei suoi studenti.

Gratch descrive una sessione di conferenza di questa settimana in cui i ricercatori hanno esplorato come il software di intelligenza artificiale potrebbe manipolare le persone attraverso l’emozione, il comportamento non verbale o i gesti, e trovare le tecniche più efficaci. “Puoi tarare ChatGPT per fare tutto questo e venderti una televisione più costosa”, dice. Ti senti potenziato?

Nel dicembre 2010, ENBLE si è precipitato un po’ dichiarando: “La rivoluzione dell’IA è iniziata”. Nel mio saggio, ho parlato della difficoltà di capire cosa stanno facendo i prodotti dell’IA, anche se alla fine fanno del bene.

Siamo impegnati in una danza permanente con le macchine, bloccati in un abbraccio sempre più dipendente. Eppure, poiché il comportamento dei bot non si basa sui processi di pensiero umani, spesso siamo impotenti nel spiegare le loro azioni. Wolfram Alpha, il sito web creato dallo scienziato Stephen Wolfram, può risolvere molti problemi matematici. Sembra anche mostrare come vengono derivate quelle risposte. Ma i passaggi logici che gli umani vedono sono completamente diversi dai calcoli effettivi del sito web. “Non fa alcun ragionamento di quel tipo”, dice Wolfram. “Quei passaggi sono pura finzione. Abbiamo pensato, come possiamo spiegarlo a uno di quegli umani lì fuori?”

La lezione è che i nostri computer a volte devono prendere in giro noi, o ci spaventeranno. Eric Horvitz, ora un importante ricercatore di Microsoft e un ex presidente dell’Associazione per l’Avanzamento dell’Intelligenza Artificiale, ha aiutato a costruire un sistema di IA negli anni ’80 per aiutare i patologi nei loro studi, analizzando ogni risultato e suggerendo il prossimo test da eseguire. C’era solo un problema: forniva le risposte troppo velocemente. “Abbiamo scoperto che la gente si fidava di più se aggiungevamo un ciclo di ritardo con una luce lampeggiante, come se stesse soffiando e sbuffando per trovare una risposta”, dice Horvitz.

Ma dobbiamo imparare ad adattarci. L’IA è così cruciale per alcuni sistemi, come l’infrastruttura finanziaria, che sbarazzarsene sarebbe molto più difficile che semplicemente disconnettere i moduli di HAL 9000. “In un certo senso, si può argomentare che lo scenario della fantascienza sta già iniziando ad accadere”, dice Hillis di Thinking Machines. “I computer sono al controllo, e noi viviamo semplicemente nel loro mondo.” Wolfram sostiene che questo dilemma si intensificherà man mano che l’IA assuma nuovi compiti, sfuggendo sempre di più alla comprensione umana. “Regolamentare un algoritmo sottostante?” chiede. “È folle, perché nella maggior parte dei casi non puoi prevedere le conseguenze di quell’algoritmo.”

Shanti chiede: “Ci sarà mai un successore dell’email? Cosa ci vorrebbe per superare questo mezzo predefinito dell’internet sociale?”

Grazie per la domanda inviata via email, Shanti. L’email non ha più il potere che un tempo aveva. Molte comunicazioni che un tempo finivano nelle caselle di posta ora raggiungono le persone tramite messaggi di testo, messaggi diretti sui social network o Slack. Sospetto che altri servizi emergeranno che eroderanno ulteriormente l’una volta onnipotente egemonia dell’email. Tuttavia, come suggerisci, per molte cose l’email è ancora il metodo predefinito, anche se le caselle di posta sono costantemente fuori controllo. Ricordo che una volta BIll Gates mi ha visitato nel mio ufficio di Newsweek per dirmi che lo spam sarebbe stato eradicato entro un anno. Tra qualche mese festeggerò il ventesimo anniversario di quella visita, e ricevo dozzine di messaggi indesiderati ogni giorno, con una percentuale fastidiosa che evade il filtro antispam.

A parte lo spam, non vorrei liberarmi dell’email. È difficile immaginare un modo più semplice per presentarsi a qualcuno, inviare o ricevere file o mantenere un archivio delle interazioni. Quest’ultima funzione è preziosa. Posso cercare istantaneamente decenni di messaggi. Ogni volta che compare un nome familiare, posso rapidamente ritrovare uno scambio precedente di cui mi ero completamente dimenticato.

D’altra parte, se qualcuno dovesse suggerire pene minime obbligatorie per coloro che unilateralmente mi inseriscono in liste di invio, specialmente commerciali, non mi opporrei.

Puoi inviare domande a mail@ENBLE.com. Scrivi ASK LEVY nella riga dell’oggetto.

Finalmente la classifica che tutti stavamo aspettando: le migliori città per sopravvivere a un’apocalisse zombie. NYC è al secondo posto!

Oltre a dare consigli e discutere con agenti del servizio clienti, i bot possono scrivere. Ma quanto bene?

Dall-E 3 rende ancora più facile mettere fuori dal lavoro gli illustratori.

Inventare Crispr non è sufficiente per la vincitrice del Nobel Jennifer Doudna. Ora sta pianificando di modificare il biome.

All’interno di Neuralink di Elon Musk, dove gli affari dei primati includono anche primati morti.

Se acquisti qualcosa utilizzando i link nelle nostre storie, potremmo guadagnare una commissione. Ciò contribuisce a sostenere il nostro giornalismo. Scopri di più. Considera anche l’opzione di abbonarti a ENBLE