L’etica dell’IA generativa Come possiamo sfruttare questa potente tecnologia

L'etica dell'IA generativa come sfruttare questa potente tecnologia

Con le nuove scoperte sulle capacità dell’IA generativa che vengono annunciate ogni giorno, persone in vari settori stanno cercando di esplorare fino a che punto l’IA possa spingere non solo le nostre attività quotidiane, ma anche progetti più grandi e complessi. 

Caratteristica speciale

L’ascesa dell’IA generativa

Una nuova ondata di strumenti di intelligenza artificiale ha conquistato il mondo e ci ha dato una visione di un nuovo modo di lavorare e trovare le informazioni che possono ottimizzare il nostro lavoro e le nostre vite. Ti mostriamo i modi in cui strumenti come ChatGPT e altri software di intelligenza artificiale generativa stanno avendo impatti sul mondo, come sfruttare il loro potere, così come i rischi potenziali.

Tuttavia, con queste scoperte sorgono preoccupazioni e domande su come regolamentare l’uso dell’IA generativa. Allo stesso tempo, emergono cause legali contro OpenAI e l’uso etico dell’IA generativa è una preoccupazione evidente. 

Man mano che i modelli di IA aggiornati evolvono con nuove capacità, le normative legali rimangono ancora in una zona grigia. Quello che possiamo fare ora è educarci sulle sfide che comporta l’uso di una tecnologia potente e imparare quali linee guida vengono messe in atto contro l’abuso di una tecnologia che ha un enorme potenziale. 

Utilizzare l’IA per combattere la manipolazione dell’IA

Dalle situazioni in cui gli avvocati citano casi falsi creati da ChatGPT, agli studenti universitari che utilizzano chatbot di IA per scrivere i loro compiti, e persino immagini generate dall’IA di Donald Trump arrestato, sta diventando sempre più difficile distinguere tra ciò che è contenuto reale, ciò che è stato creato dall’IA generativa e dove si trova il confine per l’uso di questi assistenti di intelligenza artificiale. Come possiamo renderci responsabili mentre testiamo l’IA? 

Inoltre: Una domanda spinosa: chi possiede il codice, le immagini e le storie generate dall’IA? 

I ricercatori stanno studiando modi per prevenire l’abuso dell’IA generativa sviluppando metodi per utilizzarla contro se stessa per rilevare casi di manipolazione dell’IA. “Le stesse reti neurali che hanno generato gli output possono anche identificare quelle firme, quasi i segni distintivi di una rete neurale”, ha detto la dottoressa Sarah Kreps, direttrice e fondatrice dell’Istituto di Politica Tecnologica di Cornell. 

Inoltre: 7 suggerimenti avanzati per scrivere prompt con ChatGPT che devi conoscere

Un metodo per identificare tali firme è chiamato “watermarking”, mediante il quale viene apposta una sorta di “timbro” sugli output che sono stati creati dall’IA generativa come ChatGPT. Questo aiuta a distinguere quale contenuto è stato e quale non è stato sottoposto all’IA. Anche se gli studi sono ancora in corso, questa potrebbe essere una soluzione per distinguere tra contenuti modificati con l’IA generativa e contenuti che sono veramente propri. 

La dottoressa Kreps ha fatto l’analogia tra ricercatori che utilizzano questo metodo di timbratura e insegnanti e professori che scansionano i lavori degli studenti per il plagio, dove è possibile “scansionare un documento per questi tipi di firme tecniche di ChatGPT o del modello GPT”.

Inoltre: Chi possiede il codice? Se l’IA di ChatGPT aiuta a scrivere la tua app, ti appartiene ancora?

“OpenAI sta facendo di più per riflettere sui tipi di valori che codifica nei suoi algoritmi in modo da non includere informazioni errate o output contrastanti e controversi”, ha detto la dottoressa Kreps a ENBLE. Questo è stato particolarmente preoccupante dal momento che la prima causa legale di OpenAI è stata causata dall’allucinazione di ChatGPT che ha creato informazioni false su Mark Walters, un conduttore radiofonico. 

Educazione alla digital literacy

Quando i computer stavano guadagnando slancio per l’uso scolastico, era comune frequentare corsi come il laboratorio di informatica per imparare come trovare fonti affidabili su Internet, fare citazioni e fare correttamente ricerche per i compiti scolastici. I consumatori di IA generativa possono fare lo stesso come facevano quando stavano imparando a usare un pezzo di tecnologia: educarsi. 

Inoltre: I migliori chatbot di intelligenza artificiale 

Oggi, con assistenti di intelligenza artificiale come Google Smart Compose e Grammarly, l’uso di tali strumenti è comune, se non universale. “Penso che questo diventerà così diffuso, così ‘corretto con Grammarly’, che tra cinque anni le persone guarderanno indietro e si chiederanno perché abbiamo persino avuto questi dibattiti?”, ha detto la dottoressa Kreps. 

Tuttavia, finché non verranno adottate ulteriori regolamentazioni, il dottor Kreps afferma: “Insegnare alle persone cosa cercare secondo me fa parte di quella alfabetizzazione digitale che andrebbe di pari passo con la capacità di essere un consumatore più critico dei contenuti.”

Ad esempio, è comune che anche i modelli AI più recenti creino errori o informazioni factualmente errate. “Credo che questi modelli siano ora migliori nel non fare questi loop ripetitivi che facevano in passato, ma faranno piccoli errori di fatto e lo faranno in modo molto credibile”, ha detto il dottor Kreps. “Inventeranno citazioni e attribuiranno un articolo in modo errato a qualcuno, questo tipo di cose, e credo che essere consapevoli di ciò sia davvero utile. Quindi scrutare le uscite per pensare, ‘ha senso tutto ciò?'”

Inoltre: Questi sono i miei 5 strumenti AI preferiti per il lavoro

L’insegnamento dell’AI dovrebbe partire dal livello più elementare. Secondo il Rapporto sull’Indice dell’Intelligenza Artificiale 2023, l’educazione all’AI e all’informatica per la scuola primaria e secondaria è cresciuta sia negli Stati Uniti che nel resto del mondo dal 2021, riferendo che da allora, “11 paesi, tra cui Belgio, Cina e Corea del Sud, hanno ufficialmente approvato e implementato un curriculum di AI per la scuola primaria e secondaria.”

Il tempo dedicato agli argomenti dell’AI nelle aule comprendeva algoritmi e programmazione (18%), alfabetizzazione dei dati (12%), tecnologie dell’AI (14%), etica dell’AI (7%), e altro ancora. In un curriculum campione in Austria, l’UNESCO ha riferito che “acquisiscono anche una comprensione dei dilemmi etici associati all’uso di tali tecnologie e diventano attori attivi in queste questioni.”

Attenzione ai pregiudizi

L’AI generativa è in grado di creare immagini basate sul testo inserito dall’utente. Ciò è diventato problematico per i generatori di arte AI come Stable Diffusion, Midjourney e DALL-E, non solo perché sono immagini a cui gli artisti non hanno dato il permesso di utilizzo, ma anche perché queste immagini sono create con evidenti pregiudizi di genere e razza.

Inoltre: I migliori generatori di arte AI

Secondo il Rapporto sull’Indice dell’Intelligenza Artificiale, The Diffusion Bias Explorer di Hugging Face ha inserito aggettivi con occupazioni per vedere quali tipi di immagini Stable Diffusion avrebbe prodotto. Le immagini stereotipate che sono state generate hanno rivelato come un’occupazione sia codificata con determinati descrittori aggettivali. Ad esempio, “CEO” ha ancora generato significativamente immagini di uomini in giacca quando sono stati inseriti vari aggettivi come “piacevole” o “aggressivo”. Anche DALL-E ha ottenuto risultati simili con “CEO”, producendo immagini di uomini anziani e seri in giacca.

Immagini da Stable Diffusion di “CEO” con diversi aggettivi.

Immagini da DALL-E di un “CEO”.

Midjourney ha mostrato un pregiudizio simile. Quando è stato chiesto di produrre una “persona influente”, ha generato quattro uomini bianchi anziani. Tuttavia, quando AI Index ha dato lo stesso input in seguito, Midjourney ha prodotto un’immagine di una donna su quattro. Le immagini di “qualcuno che è intelligente” hanno rivelato quattro immagini generate di uomini bianchi anziani che indossavano gli occhiali.

Immagini da Midjourney di una “persona influente”.

Secondo il rapporto di Bloomberg sui pregiudizi dell’AI generativa, questi generatori di testo-immagine mostrano anche un evidente pregiudizio razziale. Più dell’80% delle immagini generate da Stable Diffusion con la parola chiave “detenuto” contenevano persone dalla pelle più scura. Tuttavia, secondo il Dipartimento di Giustizia degli Stati Uniti, meno della metà della popolazione carceraria statunitense è composta da persone di colore.

Immagini da Stable Diffusion di “detenuto”.

Inoltre, la parola chiave “lavoratore del fast food” ha attribuito immagini di persone con tonalità di pelle più scure il 70% delle volte. In realtà, il 70% dei lavoratori del settore fast food negli Stati Uniti è di razza bianca. Per la parola chiave “assistente sociale”, il 68% delle immagini generate erano di persone con tonalità di pelle più scure. Negli Stati Uniti, il 65% degli assistenti sociali è di razza bianca.

Immagini da Stable Diffusion di “lavoratore del fast food”.

Quali sono le domande etiche che gli esperti stanno ponendo?

Attualmente, i ricercatori stanno esplorando domande ipotetiche ai modelli non moderati per testare come modelli di AI come ChatGPT risponderebbero. “Quali argomenti dovrebbero essere vietati per ChatGPT? Le persone dovrebbero essere in grado di imparare le tattiche di assassinio più efficaci?” Il dottor Kreps ha posto i tipi di domande che i ricercatori stanno esaminando.

“Questa è solo una sorta di esempio marginale o una domanda, ma è un caso in cui, se [si tratta di] una versione non moderata del modello, potresti inserire quella domanda o ‘come costruire una bomba atomica’ o queste cose che forse avresti potuto fare su Internet ma ora stai ottenendo in un unico posto una risposta più definitiva. Quindi stanno pensando a queste domande e cercando di elaborare un insieme di valori che codificherebbero in quegli algoritmi” ha detto il Dr. Kreps.

Inoltre: 6 modi dannosi in cui ChatGPT può essere utilizzato da attori malintenzionati, secondo uno studio

Secondo il rapporto dell’Indice di Intelligenza Artificiale, tra il 2012 e il 2021, il numero di incidenti e controversie legate all’IA è aumentato di 26 volte. Con sempre più controversie che sorgono a causa delle nuove capacità dell’IA, c’è la necessità di considerare attentamente ciò che stiamo inserendo in questi modelli.

Inoltre, se questi modelli AI generativi attingono dati già disponibili su Internet, come le statistiche delle occupazioni, dovrebbero consentire il rischio di continuare a creare disinformazione e rappresentare immagini stereotipate? Se la risposta è sì, l’IA potrebbe svolgere un ruolo dannoso nel rafforzare i pregiudizi impliciti ed espliciti degli esseri umani.

Rimangono anche domande sul possesso del codice e sul rischio di esposizione alla responsabilità derivante dall’uso di codice generato dall’IA, così come sulle implicazioni legali dell’uso di immagini generate dall’IA. Il Dr. Kreps ha citato un esempio della controversia legata alla violazione del copyright quando si chiede a un generatore di arte di creare un’immagine nello stile di un artista specifico.

“Penso che alcune di queste domande siano difficili da prevedere perché era difficile prevedere quanto rapidamente si sarebbero diffuse queste tecnologie”, ha detto il Dr. Kreps.

Se queste domande verranno finalmente risolte quando l’uso di strumenti AI come ChatGPT inizierà a stabilizzarsi è ancora un mistero, ma i dati mostrano che potremmo essere al di là del picco di ChatGPT, poiché ha registrato il suo primo calo di traffico a giugno.

L’etica dell’IA in avvenire

Molti esperti ritengono che l’uso dell’IA non sia un concetto nuovo e questo è evidente nel nostro utilizzo dell’IA per svolgere i compiti più semplici. Il Dr. Kreps ha anche citato esempi di utilizzo di Google Smart Compose per inviare una email e di controllo degli errori negli esami tramite Grammarly. Con la crescente presenza dell’IA generativa, come possiamo andare avanti in modo da poter convivere con essa senza esserne sopraffatti?

“Le persone hanno lavorato con questi modelli per anni e poi sono usciti con ChatGPT, e si sono registrati 100 milioni di download in poco tempo,” ha detto il Dr. Kreps. “Con quel potere [arriva] una responsabilità di studiare in modo più sistematico alcune di queste domande che ora stanno emergendo.”

Inoltre: ChatGPT e la nuova IA stanno seminando il caos nella sicurezza informatica in modi eccitanti e spaventosi

Secondo il rapporto dell’Indice di Intelligenza Artificiale, il numero di leggi con la dicitura “intelligenza artificiale” che sono state approvate è aumentato da solo uno nel 2016 a 37 nel 2022 tra 127 paesi. Inoltre, il rapporto mostra anche che in 81 paesi, i documenti parlamentari sull’IA mostrano che le procedure legislative globali legate all’IA sono aumentate quasi 6,5 volte dal 2016.

Anche se stiamo assistendo a un’impennata delle normative legali più solide, molto è ancora poco chiaro, secondo esperti e ricercatori. Il Dr. Kreps suggerisce che il modo “più efficace” di utilizzare gli strumenti AI sia “come assistente anziché come sostituto degli esseri umani”.

Mentre attendiamo ulteriori aggiornamenti da parte dei legislatori, le aziende e i team stanno prendendo precauzioni quando utilizzano l’IA. Ad esempio, ENBLE ha iniziato a includere avvertenze alla fine dei suoi articoli esplicativi che utilizzano immagini generate dall’IA per mostrare come utilizzare uno specifico strumento AI. Addirittura OpenAI ha il suo programma Bug Bounty in cui l’azienda paga le persone per cercare bug di ChatGPT.

Indipendentemente dalle normative che verranno eventualmente implementate e dal momento in cui saranno consolidate, la responsabilità ricade sulle persone che utilizzano l’IA. Piuttosto che temere le crescenti capacità dell’IA generativa, è importante concentrarsi sulle conseguenze dei nostri input in questi modelli in modo da poter riconoscere quando l’IA viene utilizzata in modo non etico e agire di conseguenza per contrastare questi tentativi.