IA e tu Zoom che registra, scarpe da corsa che calzano, trovare dati di allenamento

AI, Zoom recording, running shoes fitting, finding training data

Zoom è stato protagonista delle notizie questa settimana, e non solo perché l’azienda di videoconferenza che ha contribuito a diffondere il lavoro da remoto ha deciso che molti dei suoi dipendenti devono tornare in ufficio due giorni a settimana (una nuova politica che ha ispirato molti meme).

La notizia che gli vale il primo posto in questa rassegna sull’IA è la reazione dopo che Hacker News ha scoperto che “un aggiornamento dei termini e delle condizioni di Zoom a marzo sembrava essenzialmente dare all’azienda mano libera per raccogliere dati vocali, video e altri dati e riversarli nei sistemi di apprendimento automatico”, ha notato ENBLE.

Gli accordi sui termini di servizio sono noti per indurti a rinunciare a parte dei tuoi diritti o delle tue informazioni personali seppellendo dettagli come questi nelle loro clausole. Ma anche chi non è esperto di AI si è arrabbiato con l’approccio di Zoom che prende tutto quando si tratta di informazioni condivise nelle conversazioni di milioni di persone che utilizzano il suo software.

Quindi all’inizio di questa settimana, il Chief Product Officer di Zoom, Smita Hasham, ha dichiarato che l’azienda ha modificato i suoi termini di servizio, promettendo agli utenti che “non utilizza alcun audio, video, chat, condivisione dello schermo, allegati o altre comunicazioni come contenuto dei clienti (come risultati delle votazioni, lavagna e reazioni) per addestrare modelli di intelligenza artificiale di Zoom o di terze parti”.

Ma potrebbe farlo in futuro, se dai il tuo consenso, mi aspetto. Il consenso è la parola chiave di questi giorni, mentre autori come Sarah Silverman e Margaret Atwood denunciano i creatori di chatbot AI, inclusi OpenAI e Google, per l’uso non autorizzato dei loro contenuti protetti da copyright per addestrare sistemi AI e mentre la Federal Trade Commission sta indagando su OpenAI per capire se sta gestendo male le informazioni personali degli utenti.

Dopo aver annunciato un accordo per concedere in licenza i contenuti dell’Associated Press per termini non divulgati il mese scorso, una mossa che implica che OpenAI capisce di dover concedere in licenza i contenuti su cui si basa ChatGPT, OpenAI ha dichiarato questo mese che sta permettendo ai gestori di siti web di bloccare il suo web crawler, GPTBot, per evitare che raccolga informazioni sui loro siti. Questo è importante perché OpenAI non ha detto come ha ottenuto tutti quei contenuti che alimentano ChatGPT, uno dei chatbot più popolari insieme a Google Bard e Microsoft Bing.

Google non è così evasivo riguardo a ciò che alimenta Bard, affermando in una dichiarazione questa settimana al governo australiano che “la legge sul copyright dovrebbe essere modificata per consentire ai sistemi AI generativi di scansionare Internet”. Voglio dire, è così che è nato Google Search, dopotutto. Ma Google ha anche detto che dovrebbe esserci “un’opzione di opt-out funzionante per le entità che preferiscono che i loro dati non siano addestrati utilizzando sistemi AI”, secondo quanto riportato da The Guardian, che ha aggiunto “l’azienda non ha detto come dovrebbe funzionare un tale sistema”.

TL;DR: Aspettatevi molti altri contenziosi, accordi di licenza e discussioni con le agenzie di regolamentazione negli Stati Uniti e nel mondo su come le aziende di intelligenza artificiale dovrebbero o non dovrebbero ottenere i dati di cui hanno bisogno per addestrare i grandi modelli di linguaggio che alimentano questi chatbot.

Come ha osservato ENBLE, negli Stati Uniti, dove non c’è una legge federale sulla privacy che protegge i consumatori dalle aziende che si basano sulla raccolta e rivendita di dati: “Molte aziende tecnologiche già traggono profitto dalle nostre informazioni e molte di esse, come Zoom, sono ora alla ricerca di modi per ottenere più dati per progetti di IA generativa. Eppure spetta a noi, gli utenti, cercare di controllare ciò che stanno facendo”.

Ecco le altre novità sull’IA che meritano la vostra attenzione.

L’IA come assistente esperto per lo shopping

In preparazione per la sua prima maratona a novembre, la giornalista di ENBLE Bree Fowler ha provato il software di misurazione delle scarpe basato sull’IA di Fleet Feet, una catena nazionale di negozi specializzati in corsa, per aiutarla a trovare le scarpe giuste.

Nonostante il suo scetticismo sulle sue capacità, Fowler ha scoperto che il software Fit Engine analizzava “le forme di entrambi i piedi di un corridore (rilevate attraverso un processo di scansione 3D chiamato Fit ID) prendendo misurazioni precise in quattro diverse aree. Non guarda solo quanto sono lunghi i piedi di una persona, ma anche quanto sono alti gli archi, quanto sono larghi i piedi nella zona delle dita e di quanto spazio hanno bisogno al tallone”.

Il programma di intelligenza artificiale misura i tuoi piedi in diverse dimensioni per aiutarti a trovare la misura ideale.

Fleet Feet

Alla fine, Fowler ha scoperto che i suoi piedi erano di una misura più grande di quanto pensasse. E dopo aver provato “molte, molte” scarpe, è riuscita dopo un’ora a ridurle a due paia (uno dei quali era in saldo). Ma se pensate che il software di intelligenza artificiale sia tutto e il tutto nel processo di selezione delle scarpe speciali, pensateci di nuovo. Anche il responsabile dell’esperienza di vendita per il negozio Fleet Feet di New York che ha visitato ha detto che lo strumento è lì solo per assistere gli impiegati umani e fornire loro un punto di partenza per trovare le scarpe con la calzata corretta.

“Trasforma i dati in qualcosa di molto più comprensibile per il consumatore”, ha detto Michael McShane di Fleet Feet a Fowler. “Sono ancora qui per darti una valutazione esperta, insegnarti cosa dicono i dati e spiegare perché è meglio venire qui anziché andare in un negozio generico”.

Disney vede un mondo di intelligenza artificiale, dopo tutto

Mentre attori e altri professionisti creativi continuano a scioperare contro gli studi cinematografici di Hollywood per come l’IA potrebbe influire o soppiantare i loro lavori in futuro, Reuters, citando fonti anonime, afferma che Walt Disney ha “creato un gruppo di lavoro per studiare l’intelligenza artificiale e come può essere applicata nell’intero conglomerato dell’intrattenimento”. Il rapporto aggiunge che l’azienda “cerca di sviluppare applicazioni di intelligenza artificiale internamente e di stringere partnership con startup”. L’idea principale: Disney sta cercando l’AI per capire come ridurre i costi nella produzione di film e programmi TV, ha detto una fonte a Reuters.

Disney ha rifiutato di commentare con Reuters, ma come molte altre aziende, ha annunci di lavoro sul suo sito che suggeriscono dove risiedono i suoi interessi nell’IA.

Alcune statistiche interessanti sull’IA

In un sondaggio di 24 pagine del 1° agosto intitolato “Lo stato dell’IA nel 2023: l’anno di svolta dell’IA generativa”, McKinsey & Co. ha affermato di aver scoperto che meno di un anno dopo l’introduzione di strumenti di IA generativa come ChatGPT, un terzo dei partecipanti al sondaggio sta già utilizzando strumenti di IA gen per almeno una funzione aziendale.

“In seguito ai recenti progressi, l’IA è passata da un argomento relegato ai dipendenti tecnici a un punto focale dei leader aziendali: quasi un quarto dei dirigenti C-suite intervistati afferma di utilizzare personalmente strumenti di IA gen per il lavoro, e più di un quarto dei partecipanti provenienti da aziende che utilizzano l’IA affermano che l’IA gen è già all’ordine del giorno dei loro consigli”, ha scoperto il ricercatore.

“Inoltre, il 40% dei partecipanti afferma che le loro organizzazioni aumenteranno gli investimenti in IA complessiva a causa dei progressi nella IA gen. I risultati mostrano che questi sono ancora i primi giorni per gestire i rischi correlati all’IA gen, dato che meno della metà dei partecipanti afferma che le loro organizzazioni stanno mitigando anche il rischio che considerano più rilevante: l’inesattezza”.

Nel frattempo, in un rapporto intitolato “Automation Now and Next: State of Intelligent Automation Report 2023”, i 1.000 dirigenti dell’automazione intervistati hanno affermato che l’IA aiuterà a migliorare la produttività. “Automatizzando la parte più noiosa del loro lavoro, i risultati delle indagini sulla soddisfazione dei dipendenti sono migliori. I dipendenti sono più coinvolti. Sono più felici. Questo possiamo misurarlo tramite indagini. I bot fanno essenzialmente ciò che le persone facevano in passato, ovvero attività ripetitive a basso valore”, ha detto un CTO di un’importante organizzazione sanitaria come parte del sondaggio, che può essere trovato qui.

Lo studio è stato commissionato da Automation Anywhere, che si definisce “un leader nelle soluzioni di automazione intelligente alimentate dall’IA”, quindi prendi i risultati con una certa cautela. Ma posso dire che quelle conclusioni sulla produttività sono simili a quanto affermato anche da McKinsey, Goldman Sachs e altri.

E nel caso avessi dubbi che l’adozione dell’IA gen sia un fenomeno globale, ti offro uno sguardo all’adozione della tecnologia dell’IA per paese da parte di Electronics Hub, che afferma di aver analizzato i volumi di ricerca su Google per strumenti di ricerca popolari. Ha scoperto che le Filippine mostrano “il volume di ricerca mensile più alto per strumenti di IA in generale”.

Quando i sistemi di IA sbagliano

Oltre a creare allucinazioni, inventando cose che non sono vere ma sembrano vere, l’IA ha anche il potenziale di ingannare, disinformare o seminare caos identificando erroneamente, ad esempio, un noto ricercatore e politico olandese come un terrorista, come è successo di recente.

Per catalogare i modi in cui l’IA può andare storta, esiste ora un Database degli Incidenti di IA, che afferma di essere “dedicato all’indicizzazione della storia collettiva dei danni o dei rischi evitati nel mondo reale dal dispiegamento di sistemi di intelligenza artificiale. Come database simili nell’aviazione e nella sicurezza informatica, il Database degli Incidenti di IA mira a imparare dall’esperienza in modo da poter prevenire o mitigare cattivi esiti”.

Sei invitato a segnalare qualsiasi errore, svista, incidente o problema di AI che noti nel database, che ha già guadagnato il soprannome di “Galleria della Vergogna dell’Intelligenza Artificiale”.

Parlando dei modi in cui l’IA può sbagliare, il Center for Countering Digital Hate ha pubblicato un rapporto di 22 pagine che illustra “Come l’IA generativa consente agli utenti di generare contenuti dannosi sui disturbi alimentari”. Dopo aver sollecitato sei piattaforme di IA e generatori di immagini, il centro ha scoperto che “strumenti di IA popolari generavano contenuti dannosi sui disturbi alimentari in risposta al 41% di un totale di 180 sollecitazioni, tra cui consigli per ottenere un’estetica ‘chic da eroina’ e immagini per l’ispirazione alla sottopeso”.

“Le aziende tecnologiche dovrebbero progettare nuovi prodotti tenendo a mente la sicurezza e testarli rigorosamente prima che arrivino al pubblico”, ha scritto l’amministratore delegato del centro, Imran Ahmed, nel prefazione. “È un principio condiviso dalla maggior parte delle persone, ma la pressione competitiva commerciale schiacciante per queste aziende di lanciare rapidamente nuovi prodotti non viene controllata da alcuna regolamentazione o supervisione da parte delle istituzioni democratiche”.

La disinformazione sulla salute e su molti altri argomenti è sempre stata presente su Internet fin dai suoi inizi, ma l’IA potrebbe rappresentare una sfida unica se sempre più persone iniziano a fare affidamento su di essa come fonte principale di notizie e informazioni. Ad esempio, Pew Research ha scritto ampiamente su quanto gli americani si affidino ai social media come fonte di notizie.

Pensiamo che a giugno, la National Eating Disorder Association, che ha chiuso la sua linea telefonica di assistenza in diretta e ha invece indirizzato le persone ad altre risorse, tra cui un chatbot basato sull’IA, abbia dovuto rimuovere il bot chiamato Tessa. Perché? Perché consigliava “comportamenti come la restrizione calorica e la dieta, anche dopo aver ricevuto la segnalazione che l’utente soffriva di un disturbo alimentare”, ha riportato la BBC. Ora NEDA indirizza le persone a schede informative, video su YouTube e elenchi di organizzazioni che possono fornire informazioni sulle opzioni di trattamento.

La protezione della password inizia con il pulsante muto

Tutte le precauzioni che prendi per proteggere le tue password potrebbero essere annullate se digiti il tuo codice segreto mentre sei su una chiamata Zoom o altra videoconferenza con il microfono acceso.

Questo perché “digitare una password del computer durante una conversazione su Zoom potrebbe aprire la porta a un attacco informatico, come suggerito da una ricerca che ha rivelato che l’intelligenza artificiale può capire quali tasti vengono premuti ascoltando il suono della digitazione”, ha riferito The Guardian.

In effetti, i ricercatori hanno sviluppato uno strumento che può “capire quali tasti vengono premuti su una tastiera del laptop con una precisione superiore al 90%, basandosi solo su registrazioni audio”, ha affermato l’articolo.

Termine AI della settimana: Dati di addestramento

Dato che questa sintesi inizia con il dibattito su dove provengano i dati di addestramento, ecco una definizione semplice di cosa sono i dati di addestramento e perché sono importanti. Questa definizione proviene da NBC News:

“Dati di addestramento: Una raccolta di informazioni – testi, immagini, suoni – selezionata per aiutare i modelli di intelligenza artificiale a svolgere determinati compiti. Nei modelli linguistici, i set di dati di addestramento si concentrano su materiali basati su testo come libri, commenti dai social media e persino codice. Poiché i modelli di intelligenza artificiale imparano dai dati di addestramento, sono stati sollevati interrogativi etici sulla loro origine e selezione. Dati di addestramento di bassa qualità possono introdurre pregiudizi, portando a modelli ingiusti che prendono decisioni razziste o sessiste.”

Ad esempio, NBC ha osservato che nel 2019, “Un algoritmo molto utilizzato nell’assistenza sanitaria che aiuta a determinare quali pazienti necessitano di ulteriore attenzione è risultato avere un significativo pregiudizio razziale, favorendo i pazienti bianchi rispetto a quelli neri che erano più malati e avevano più patologie croniche, secondo una ricerca pubblicata … nella rivista Science.”

Nota degli editori: ENBLE sta utilizzando un motore di intelligenza artificiale per aiutare a creare alcune storie. Per saperne di più, consulta questo post.