L’IA generativa sta rendendo le aziende ancora più assetate dei tuoi dati

La generative AI sta aumentando la sete delle aziende per i tuoi dati.

Zoom, l’azienda che ha reso normale partecipare a riunioni di lavoro in pigiama, è stata costretta a togliersi il muto questa settimana per rassicurare gli utenti che non avrebbe utilizzato i dati personali per addestrare l’intelligenza artificiale senza il loro consenso.

Un attento utente di Hacker News ha notato la scorsa settimana che un aggiornamento dei termini e delle condizioni di Zoom a marzo sembrava dare all’azienda piena libertà di acquisire dati vocali, video e altri dati e di inserirli nei sistemi di apprendimento automatico.

I nuovi termini affermavano che i clienti “acconsentono all’accesso, all’uso, alla raccolta, alla creazione, alla modifica, alla distribuzione, all’elaborazione, alla condivisione, alla manutenzione e alla conservazione dei dati generati dal servizio da parte di Zoom” per scopi tra cui “l’apprendimento automatico o l’intelligenza artificiale (anche per l’addestramento e la messa a punto di algoritmi e modelli)”.

La scoperta ha suscitato articoli critici e post arrabbiati sui social media. Presto, Zoom ha fatto marcia indietro. Lunedì, il responsabile del prodotto di Zoom, Smita Hasham, ha scritto un post sul blog affermando: “Non utilizzeremo contenuti audio, video o chat dei clienti per addestrare i nostri modelli di intelligenza artificiale senza il tuo consenso”. L’azienda ha anche aggiornato i suoi termini per affermare la stessa cosa.

Questi aggiornamenti sembrano abbastanza rassicuranti, ma ovviamente molti utenti di Zoom o amministratori di account aziendali potrebbero cliccare su “OK” per i termini senza rendersi conto appieno di ciò che stanno concedendo. E i dipendenti obbligati a utilizzare Zoom potrebbero non essere consapevoli della scelta fatta dal loro datore di lavoro. Un avvocato fa notare che i termini consentono ancora a Zoom di raccogliere molti dati senza consenso. (Zoom non ha risposto a una richiesta di commento.)

La confusione dimostra la mancanza di protezioni significative dei dati in un momento in cui il boom dell’intelligenza artificiale generativa ha reso l’industria tecnologica ancora più assetata di dati di quanto non fosse già. Le aziende hanno cominciato a considerare l’intelligenza artificiale generativa come una sorta di mostro che deve essere nutrito a tutti i costi, anche se non è sempre chiaro per cosa esattamente quei dati siano necessari o cosa potrebbero finire per fare quei futuri sistemi di intelligenza artificiale.

L’ascesa dei generatori di immagini AI come DALL-E 2 e Midjourny, seguita da ChatGPT e altri chatbot intelligenti ma imperfetti, è stata resa possibile grazie a enormi quantità di dati di addestramento – molti dei quali protetti da copyright – prelevati dal web. E molte aziende stanno cercando attualmente di utilizzare i dati di cui sono proprietarie o che sono generati dai loro clienti e utenti per costruire strumenti di intelligenza artificiale generativa.

Zoom è già salito sul carro dell’intelligenza artificiale generativa. A giugno, l’azienda ha introdotto due funzionalità di generazione di testo per riassumere le riunioni e scrivere email su di esse. Zoom potrebbe utilizzare dati delle riunioni video dei suoi utenti per sviluppare algoritmi più sofisticati. Questi potrebbero riassumere o analizzare il comportamento individuale nelle riunioni, o addirittura creare una somiglianza virtuale per qualcuno il cui collegamento è caduto temporaneamente o che non ha avuto tempo di fare la doccia.

Il problema con l’azione di Zoom per acquisire più dati è che riflette la situazione generale quando si tratta dei nostri dati personali. Molti produttori di tecnologia già traggono profitto dalle nostre informazioni e molti di loro, come Zoom, sono ora alla ricerca di modi per ottenere più dati per progetti di intelligenza artificiale generativa. Eppure spetta a noi, gli utenti, cercare di controllare ciò che stanno facendo.

“Le aziende hanno un estremo desiderio di raccogliere il maggior numero possibile di dati”, afferma Janet Haven, direttrice esecutiva del think tank Data and Society. “Questo è il modello di business: raccogliere dati e costruire prodotti basati su quei dati o vendere quei dati a intermediari dei dati”.

Negli Stati Uniti manca una legge federale sulla privacy, lasciando i consumatori più esposti alla fame di dati ispirata da ChatGPT rispetto alle persone dell’UE. La legislazione proposta, come l’American Data Privacy and Protection Act, offre qualche speranza di fornire regole federali più rigide sulla raccolta e l’uso dei dati, e il Bill of Rights sull’intelligenza artificiale dell’amministrazione Biden richiede anche la protezione dei dati per impostazione predefinita. Ma per ora, il respingimento pubblico come risposta alle mosse di Zoom è il modo più efficace per frenare l’appetito delle aziende per i dati. Sfortunatamente, questo non è un meccanismo affidabile per individuare ogni decisione discutibile delle aziende che cercano di competere nell’IA.

In un’epoca in cui le tecnologie più eccitanti e ampiamente lodate sono costruite su montagne di dati raccolti dai consumatori, spesso in modi eticamente discutibili, sembra che nuove protezioni non possano arrivare abbastanza presto. “Ogni singola persona dovrebbe prendere provvedimenti per proteggersi”, afferma Havens. “Questo è contrario all’idea che si tratti di un problema sociale”.