5 modi in cui l’IA ha cambiato Internet nel 2023

5 modi in cui l'Intelligenza Artificiale ha trasformato Internet nel 2023

È difficile crederci, ma ChatGPT ha solo circa un anno.

Quando OpenAI ha rilasciato per la prima volta ChatGPT nel novembre 2022, è diventata l’applicazione a crescita più rapida di tutti i tempi, ha causato panico all’interno di Google e ha acceso la miccia per una corsa all’IA generativa all’interno del mondo della tecnologia.

Da allora, la crescita dell’IA generativa è stata definita la prossima rivoluzione industriale, ha sollevato questioni filosofiche ed etiche sulla sopravvivenza umana e ha fatto sì che i governi prestassero attenzione al suo potenziale distruttivo. Quindi, sì, è stato un anno piuttosto importante per l’IA.

Questo è evidente soprattutto su Internet. Ovviamente, l’IA si basa su Internet, quindi non è così. Ma piuttosto la nostra esperienza dell’ascesa dell’IA generativa attraverso la lente del web: l’allarmismo, i cicli di hype, i deepfake virali, gli articoli di riflessione sulle minacce esistenziali dell’IA, i dibattiti etici, gli scandali e, ultimo ma non meno importante, l’accelerata enshittification del web per opera dell’IA. Hai bisogno di prove? Quando un modello di IA viene addestrato su dati generati dall’IA, collassa.

Che sia stato esplicitamente menzionato o meno, l’IA ha lasciato il segno su Internet quest’anno.

L’IA generativa nel 2023 è stata una corsa selvaggia che ci ha invecchiati molto più di un anno. Siamo sicuri che da qui in avanti sarà totalmente tranquilla, ma prima diamo un’occhiata al passato.

1. Ha dato “allucinazione” un nuovo significato non correlato alle droghe

Questo è stato l’anno in cui tutti hanno imparato che anche i computer possono allucinare, ma non in un modo divertente o trascendentale. L’allucinazione è quando l’IA generativa fabbrica con sicurezza le sue risposte, dandole l’illusione di credere a qualcosa che non è vero. 

ChatGPT su mobile

LLM funzionano prevedendo probabilisticamente la parola successiva in base alla massiccia quantità di dati su cui sono addestrati. A causa di ciò, le allucinazioni dell’IA hanno spesso senso linguistico e talvolta contengono elementi di realtà, il che rende difficile separare i fatti dall’assoluta assurdità. Oppure inizia a sembrare che il tuo amico stia sbroccando a Burning Man. 

Dal momento in cui ChatGPT è stato rilasciato, seguito da Bing Chat e Bard, Internet è stata sommersa di cose pazze dette dai chatbot dell’IA, sia in modo spontaneo che tramite jailbreaks. Andavano da cose innocue e sciocche (sebbene inquietanti) a diffamatorie e nocive. Persino Google è caduto vittima del suo chatbot Bard includendo informazioni errate in un video dimostrativo. Indipendentemente da ciò, ha avuto l’effetto cumulativo di far dubitare Internet della realtà. 

2. Ha spinto i deepfake nel mainstream

I deepfake, o media alterati dall’IA per sembrare reali, sono stati motivo di preoccupazione per qualche tempo. Ma quest’anno, la diffusa disponibilità di strumenti di IA generativa li ha resi più facili che mai da creare immagini, video e audio realistici.

OpenAI DALL-E 3, Google Bard e il generatore di immagini SGE di Google, Microsoft Copilot (precedentemente conosciuto come Bing Chat Image Creator), e l’innovazione di Meta, Imagine, sono tutti esempi di modelli che utilizzano l’intelligenza artificiale generativa per creare immagini a partire da prompt di testo. Perfino le piattaforme media come Shutterstock, Adobe e Getty Images si sono lanciate nel gioco con i loro strumenti di generazione di immagini basati su intelligenza artificiale. 

DALL-E 2 vs. DALL-E 3 raffigurati con un giocatore di pallacanestro

Molti di questi servizi hanno messo in atto limitazioni e restrizioni per contrastare i rischi e i danni reali che la generazione di immagini tramite intelligenza artificiale può comportare. Alcuni di questi metodi includono l’apposizione di watermark, il rifiuto di generare volti fotorealistici o render di personaggi pubblici e il divieto di contenuti pericolosi o inappropriati.

Ma ciò non ha impedito alle persone di trovare un modo. Quest’anno, è circolata su piattaforme di streaming musicale una canzone che suonava in modo convincente come Drake e The Weeknd prima di essere rimossa. Utilizzando l’intelligenza artificiale, anche Tom Hanks è stato fatto sembrare come se stesse pubblicizzando un piano dentale su Instagram, e la voce e l’immagine di Scarlett Johansson sono stati utilizzati per promuovere un’app AI per foto di classe degli anni ’90.

Le deepfake si sono trasformate in una minaccia per le figure pubbliche e il loro sostentamento, tanto che il Congresso ha introdotto una legge per proteggere gli artisti da repliche AI senza il loro consenso. L’ordinanza esecutiva sull’intelligenza artificiale del presidente Biden ha anche affrontato la minaccia delle deepfake affermando che tutto il contenuto generato da intelligenza artificiale deve essere marcato con un watermark.

3. Sollevata l’allarme riguardo ai dati di formazione

Come hanno fatto a diventare così bravi i LLM? Sono stati addestrati utilizzando l’intero contenuto di Internet. Ogni cosa – post su Reddit, post sui social media, pagine di Wikipedia, centinaia di migliaia di libri piratati, siti di notizie, articoli accademici, sottotitoli di YouTube, blog culinari, meme – soddisfa l’appetito insaziabile dei modelli di intelligenza artificiale.

ChatGPT raffigurato come un'applicazione mobile su un telefono

Se è consentito rastrellare Internet per addestrare i modelli di intelligenza artificiale, è una questione ancora incerta. OpenAI e Google sono state entrambe citate in giudizio dallo studio legale Clarkson Law Firm per aver presunto “rubato” informazioni personali senza consenso e violato opere protette dal copyright. Anche Meta e Microsoft stanno affrontando cause legali per aver addestrato i loro modelli sul database Books3 che includeva libri piratati. (Il database Books3 è stato rimosso a seguito di un reclamo DMCA nell’agosto scorso.)

In un altro caso di violazione del copyright più palese, l’autrice Jane Friedman ha scoperto una serie di libri generati dall’IA scritti nel suo nome in vendita su Amazon.

Alcuni sostengono che l’utilizzo dei dati disponibili pubblicamente su Internet rientri nell’uso lecito. Altri ritengono che le leggi sulla privacy e sul copyright non siano state scritte con in mente un’apprendimento automatico sofisticato e dovrebbero essere aggiornate. Tutti concordano sul fatto che si tratta di una questione estremamente complessa che deve ancora essere risolta.

4. Ci ha presentato il contenuto generato dall’IA

Una delle straordinarie capacità dell’IA generativa è la scrittura di linguaggio naturale. Attualmente, la maggior parte dei contenuti generati dall’IA sembra scritta da uno studente delle scuole superiori che non ha letto tutto il materiale – incline ad inesattezze e leggermente robotico. Ma col tempo, gli LLM stanno migliorando, rendendo l’automazione di articoli, comunicati stampa, offerte di lavoro, opere creative e altro ancora troppo allettante per molti.

Rappresentazione dell'utilizzo di prompt di testo per utilizzare l'IA generativa

Ma i primi tentativi di introdurre contenuti generati dall’IA ai consumatori hanno incontrato una notevole opposizione. ENBLE ha infuriato sia il personale che i lettori pubblicando silenziosamente articoli generati dall’IA (molti dei quali erano inesatti). Gizmodo è stato colto a pubblicare una storia generata dall’IA inaccurata su Star Wars e Sports Illustrated ha semplicemente inventato un autore che sembra non esistere.

Altrove su Internet, Meta è fin troppo coinvolta nell’IA generativa presentandoci “Personas” basate su celebrità, ma in realtà non sono quelle figure di alto profilo – e sta sviluppando strumenti per gli inserzionisti per creare annunci generati dall’IA.

Anche l’industria musicale sta entrando nel gioco. L’etichetta discografica UMG, che rappresenta Drake, sta esplorando un modo per vendere le voci dei musicisti per generare musica con l’IA e dividere le tasse di licenza con l’artista. A differenza di Drake, il quale quest’anno è stato soggetto a un deepfake da parte dell’IA e ha preso posizione contro l’utilizzo dell’IA per ricreare le loro voci, alcuni artisti come Grimes lo vedono come un nuovo modo di collaborare con i fan e dividono i diritti d’autore delle creazioni dell’IA con i loro fan.

Se il contenuto generato dall’IA è qui per restare, la vera domanda diventa quindi chi trae profitto dal contenuto generato dall’IA – e a spese di chi?

Dammi un altro sugo

La promessa di un aumento della produttività lavorativa è stata un punto di vendita importante per le aziende tecnologiche che hanno lanciato strumenti AI quest’anno. Microsoft, Google, Zoom, Slack, Grammarly e altre hanno tutti enfatizzato la capacità dell’IA generativa di ridurre i compiti a una frazione del tempo.

Ma con questi strumenti ancora in fase embrionale, molti dei quali in fase pilota o disponibili solo per i clienti paganti, gli effetti su larga scala devono ancora venirsi a vedere. Quello che sappiamo è che gli strumenti di AI generativa per il lavoro non sono affidabili, almeno non senza il controllo umano, il che un po’ compromette la promessa di produttività. Dovresti sicuramente controllare due volte le loro risposte e fare attenzione a cosa condividi con LLM come ChatGPT. Samsung lo ha imparato a sue spese quando i suoi dipendenti hanno condiviso involontariamente informazioni proprietarie con ChatGPT, senza rendersi conto che le loro voci venivano potenzialmente utilizzate per addestrare il modello.

Alla fine, OpenAI ha rilasciato una funzionalità che ha permesso agli utenti di scegliere di non condividere i propri dati con ChatGPT e ha introdotto versioni adatte alle aziende per mantenere al sicuro le operazioni commerciali, a meno che ovviamente non ci sia una violazione di dati.