Gli assistenti AI devono conoscere molto di te per funzionare al meglio. Va bene?

Gli assistenti AI devono avere molte informazioni su di te per svolgere al meglio il loro compito. Va bene?

Gli assistenti digitali esistono da anni; dopotutto, Siri è stato introdotto sull’iPhone 4S nel 2011. Ma i primi aiutanti vocali erano inizialmente limitati nella loro funzionalità, a volte faticando a fornire risposte utili anche nelle circostanze ottimali. La nuova ondata di agenti digitali che ha cominciato a comparire alla fine del 2022 e nel 2023, però, può facilmente fare di tutto, dalla creazione di ricette al riassunto delle tue email fino alla scrittura di didascalie per i tuoi post sui social media.

Gli assistenti virtuali hanno fatto un salto in avanti quest’anno grazie all’avvento dell’AI generativa, o AI in grado di creare contenuti basandosi su prompt dopo essere stata addestrata su dati. Un anno fa, OpenAI ha stupito il mondo con ChatGPT, e giganti tecnologici come Microsoft, Google, Amazon e Meta hanno abilmente incorporato l’AI generativa nei loro chatbot, motori di ricerca e assistenti digitali nel corso del 2023.

Ma la nuova generazione di assistenti digitali ad alta tecnologia richiede anche fiducia nelle grandi aziende tecnologiche, una richiesta considerevole dopo violazioni dei dati, controversie come lo scandalo di Cambridge Analytica nel 2018 e indagini sulle pratiche di privacy che hanno scosso la nostra fiducia nelle aziende tecnologiche. Gli ultimi 10 anni hanno sollevato grandi interrogativi da parte dei regolatori e del pubblico in generale su come le aziende utilizzano i flussi di dati che forniamo loro. Raccogliere i benefici della nuova AI potrebbe significare diventare ancora più personali con i servizi tecnologici che utilizziamo ogni giorno.

In alcuni modi, i chatbot come ChatGPT di OpenAI, Copilot di Microsoft e Bard di Google sono semplicemente evoluzioni di come i servizi digitali operano già. Aziende come Alphabet (la casa madre di Google), Meta e Amazon già analizzano i nostri dati di navigazione su Internet per fornire contenuti personalizzati, annunci e raccomandazioni. Nuovi strumenti di AI potrebbero non richiedere più dati personali, ma è il modo in cui questi strumenti collegano i punti tra diversi tipi di dati personali, come le nostre email e i nostri messaggi di testo, che solleva nuovi timori per la privacy.

“Ora possiamo vedere come i pezzi vengono messi insieme con questi strumenti”, ha detto Matthew Butkovic, direttore tecnico della divisione di sicurezza informatica CERT presso la Carnegie Mellon University. “Sapevamo che i dati erano là fuori, ma ora stiamo vedendo come vengono utilizzati in combinazione”.

L’avvento dei nuovi assistenti AI

Microsoft Copilot sul desktop di Windows 11.

Microsoft

Nel corso del 2023, è diventato chiaro che gli assistenti virtuali stanno subendo un importante rinnovamento. Mentre i motori di ricerca, i chatbot e i generatori di immagini sono stati i primi strumenti online a ricevere un’AI “upgrade”, aziende come Microsoft e Google stanno ora incorporando la tecnologia in assistenti digitali completi.

Microsoft Copilot, che l’azienda ha presentato nel suo evento del 21 settembre, è più sofisticato di Cortana, l’ex assistente personale del gigante dei PC ora chiuso.

Copilot non si limita a rispondere a domande e comandi come “Com’è il tempo in Spagna la prossima settimana?” o “A che ora è la mia prossima riunione?”. Recupera informazioni dalle tue applicazioni, dal web e dai tuoi dispositivi per fornire risposte più specifiche e personalizzate.

Durante il discorso del 21 settembre, Carmen Zlateff, vicepresidente di Windows, ha mostrato un esempio di come Copilot sul tuo PC Windows sarà in grado di rispondere a domande basate sulle informazioni trovate nei messaggi di testo del tuo telefono, come dettagli su un volo imminente. Questo esempio sottolinea come Copilot faccia molto di più che recuperare risposte basate sul web o sui dati memorizzati nel tuo account Microsoft.

Assistente con Bard

Screenshot/CNET

Non è passato molto tempo prima che Google mostrasse il ruolo che l’intelligenza artificiale generativa avrà nel suo assistente, il Google Assistant. Durante un evento il 4 ottobre, Google ha presentato Assistant con Bard, una nuova versione del suo compagno virtuale supportato dalla tecnologia del suo chatbot conversazionale Bard.

Sissie Hsiao, vicepresidente e direttore generale di Google Assistant e Bard, lo ha dimostrato durante l’evento mostrando come si potrà recitare un comando come “Aggiornami su qualsiasi email importante che ho perso questa settimana.” È bastato questo per far sì che il Google Assistant creasse un elenco puntato che riassumeva email come un invito a una festa di compleanno per bambini e una notifica su una fiera di carriera universitaria, riducendole a solo un paio di frasi.

“Sebbene Assistant sia bravo a gestire rapidamente compiti come impostare timer, fornire aggiornamenti sul meteo e fare chiamate veloci, c’è molto di più che abbiamo sempre immaginato che un assistente personale altamente capace dovrebbe essere in grado di fare”, ha detto durante la presentazione. “Ma la tecnologia per realizzarlo non esisteva fino ad ora.”

ChatGPT visualizzato su uno smartphone con il logo di OpenAI sullo sfondo.

Jonathan Raa/NurPhoto via Getty Images

L’IA generativa sta influenzando quasi ogni aspetto del nostro modo di interagire con internet, dal recuperare risultati di ricerca alla modifica di immagini. Ma gli annunci di Microsoft e Google rappresentano un cambiamento radicale nel modo in cui queste aziende stanno pensando agli assistenti AI. Si va oltre a rendere questi assistenti virtuali migliori ascoltatori e conversatori, come ha fatto Amazon con l’aggiornato Alexa presentato a settembre.

Microsoft e Google possono essere i maggiori sostenitori dell’uso dell’IA generativa per creare assistenti più intelligenti, ma non sono gli unici. OpenAI, che ha dato il via alla moda dell’IA generativa con ChatGPT l’anno scorso, ha recentemente annunciato che gli utenti saranno in grado di creare versioni personalizzate di ChatGPT per compiti specifici, come spiegare le regole di un gioco da tavolo e dare consigli tecnici. Questo apre potenzialmente l’opportunità per chiunque di creare il proprio assistente digitale specializzato, che OpenAI chiama GPTs. Tutto ciò che devi fare è fornire istruzioni, decidere cosa vuoi che il tuo GPT faccia e, naturalmente, alimentarlo con alcuni dati.

Affidare all’IA l’uso corretto dei nostri dati

Un corridoio futuristico con i loghi di Bard di Google, ChatGPT e Bing in mezzo a una feroce competizione di chatbot AI.

James Martin/CNET

L’IA generativa potrebbe rappresentare un punto di svolta per gli assistenti virtuali, fornendo loro la consapevolezza contestuale e la comprensione conversazionale che hanno sempre mancato.

Tuttavia, farlo significa anche dare a questi assistenti digitali una finestra più grande sulla nostra vita personale e professionale. Richiede fiducia in questi sistemi IA per combinare e analizzare le nostre email, file, app e messaggi in modo che sia utile anziché disturbante o inquietante.

Marco Butkovic di Carnegie Mellon fornisce un esempio ipotetico di come lavorare con un assistente IA generativo potrebbe potenzialmente andare storto. Supponiamo che chiedi a un assistente AI di compilare un rapporto su un argomento specifico legato al lavoro. Un assistente AI potrebbe accidentalmente includere dati sensibili dei clienti nel rapporto se tali dati non sono correttamente classificati.

“Potremmo vedere potenzialmente una nuova fonte di rischio nei casi di combinazioni di informazioni che non abbiamo previsto”, ha detto. “Perché non avevamo gli strumenti prima e non abbiamo messo in atto delle salvaguardie per prevenirlo.”

Non si tratta solo di dati sensibili. Ci sono momenti della nostra vita di cui potremmo non voler essere ricordati quando chiediamo a un assistente digitale di redigere un rapporto o scrivere una email. Come possiamo fidarci che questo non succeda?

Jen King, ricercatrice di privacy e dati presso l’Istituto Stanford per l’Intelligenza Artificiale Orientata all’Uomo, cita un altro esempio ipotetico. Se hai lunghe conversazioni via email con membri della famiglia che si trovano nella tua casella di posta elettronica e discutono organizzazioni per un caro defunto, probabilmente non vorresti che queste comunicazioni vengano inserite in determinate risposte o rapporti.

L’app Google Foto

Sarah Tew/CNET

C’è già un precedente per questo che avviene nei social media e nelle app di gallerie fotografiche. Dopo aver ricevuto feedback, Facebook ha aggiunto più controlli nel 2019 per rendere più facile per chi assume il controllo di un account di un caro defunto. L’azienda utilizza l’IA per evitare che i profili di amici o familiari defunti vengano visualizzati nelle notifiche di compleanno e nelle raccomandazioni di inviti a eventi, ma ha riconosciuto che c’era spazio per miglioramenti.

“Stiamo lavorando per migliorare e velocizzare questo”, si legge nel post.

Google ha anche aggiunto più controlli per gestire quali ricordi curati appaiono nella sua app Foto dopo che ENBLE ha evidenziato quanto possa essere doloroso guardare indietro certe foto conservate sui nostri telefoni e la mancanza di strumenti per gestirle al momento.

“Più dati posso fornire [ad esso] su di te, più sarò in grado di riempire le lacune”, ha detto King. “E se stai guardando attraverso diverse sfaccettature della vita di qualcuno, quella è una strategia davvero rischiosa, perché gran parte delle nostre vite non è statica”.

Questo si aggiunge alle sfide esistenti che le app basate su AI generative e i chatbot già affrontano, come l’accuratezza delle informazioni che forniscono e la potenzialità per i pirati informatici di ingannare questi sistemi. Le aziende tecnologiche sono consapevoli di queste sfide e stanno cercando di affrontarle.

Google ti spinge a verificare le risposte di Bard e dice che lo strumento potrebbe fornire informazioni errate, ad esempio. Inoltre, si nota che Bard può accedere solo ai dati personali di Workspace, la suite di software di produttività di Google che include Gmail, con il permesso dell’utente. Inoltre, non utilizza quel contenuto per mostrare annunci o migliorare Bard. Il post sul blog di Google sull’Assistant con Bard menziona anche che gli utenti potranno personalizzare le impostazioni sulla privacy.

ChatGPT incoraggia in modo simile gli utenti a verificare le risposte e rivela che le risposte potrebbero non essere sempre accurate. Avverte inoltre gli utenti di non inserire informazioni sensibili nello strumento.

La pagina delle domande frequenti per Microsoft Copilot sottolinea che le risposte non sono garantite essere corrette e afferma che Copilot eredita gli stessi standard di sicurezza di prodotti aziendali, come Microsoft 365. Specifica inoltre che i dati dei clienti non vengono utilizzati per addestrare i suoi ampi modelli di linguaggio.

Tuttavia, Irina Raicu, direttrice del programma di etica di Internet presso il Markkula Center for Applied Ethics dell’Università di Santa Clara, è preoccupata per le nuove vulnerabilità della privacy specifiche delle AI generative che non sono ancora state risolte. Un tale esempio è l’iniezione di prompt, una vulnerabilità che consente agli aggressori di sfruttare i grandi modelli di apprendimento del linguaggio nascondendo istruzioni maligne.

Alcuni esperti della privacy sostengono che la diffusione di AI generative potrebbe comportare nuovi tipi di minacce. 

Angela Lang/CNET

In un post del blog di agosto, il National Cyber Security Centre del Regno Unito ha descritto un esempio di come potrebbe apparire un potenziale attacco di iniezione di prompt. Un hacker potrebbe teoricamente nascondere del codice dannoso in una richiesta di transazione inviata a un utente tramite un’app bancaria. Se la persona chiede al chatbot della banca le sue abitudini di spesa per il mese, il grande modello di linguaggio potrebbe finire per analizzare quel codice proveniente dall’attaccante mentre guarda le transazioni della persona per rispondere alla domanda. Questo, a sua volta, potrebbe innescare l’invio di denaro sul conto dell’attaccante.

Raicu è preoccupata del fatto che la sicurezza informatica non stia mantenendo il passo con queste nuove minacce. Fa riferimento alla crescita degli attacchi ransomware negli ultimi anni come esempio di ciò che può accadere quando le soluzioni di sicurezza informatica non si evolvono abbastanza rapidamente.

“Immagina tutto ciò, ma con un nuovo livello di sfide che non capiamo ancora”, ha detto.

Tuttavia, ci sono alcuni motivi per essere ottimisti sul fatto che il boom dell’IA non porterà agli errori sulla privacy che hanno seguito la proliferazione delle nuove piattaforme tecnologiche in passato. C’è già una spinta per la regolamentazione dell’IA in Casa Bianca e in UE, ad esempio. In generale, le aziende tecnologiche sono sotto maggiore controllo quando si tratta di privacy, sicurezza, dimensioni e influenza rispetto a quando sono emerse piattaforme come Facebook, Instagram e Google Search.

Ma alla fine, dovremo comunque affrontare i potenziali rischi e compromessi che derivano dai benefici delle nuove tecnologie.

“Non ci saranno assoluti in questo,” ha detto Butkovic. “Vivremo in questo spazio grigio in cui dovrai prendere decisioni personali sulla tua comfort con questi tipi di sistemi che scansionano gli artefatti della tua vita digitale.”

Note degli editori: ENBLE sta utilizzando un motore di intelligenza artificiale per aiutare a creare alcune storie. Per saperne di più, consulta questo post.