Intelligenza Artificiale e Tu Nessun Copyright per le Creazioni Non Umane, AI ‘Boss Infernale’, Deepfake Porno

Intelligenza Artificiale e Copyright per Creazioni Non Umane, AI 'Boss Infernale', Deepfake Porno

Se lo crei da zero con un’intelligenza artificiale, lo possiedi? Un giudice federale questo mese ha detto di no. La decisione, del giudice distrettuale degli Stati Uniti Beryl Howell, ha confermato una conclusione dell’Ufficio del Copyright degli Stati Uniti secondo cui un’opera d’arte creata da un’intelligenza artificiale non ha diritto alla protezione del copyright secondo la legge sulla proprietà intellettuale.

“L’autorialità umana è un requisito fondamentale”, ha scritto il giudice Howell nella sua sentenza del 18 agosto. “La protezione del copyright non si estende alle creazioni di entità non umane”.

La sentenza di 15 pagine merita una lettura. E The Hollywood Reporter ha un ottimo riassunto, notando che il giudice ha anche considerato la questione se opere create con altri strumenti tecnologici possano essere protette da copyright, come foto create con fotocamere.

Ecco un po’ del riassunto del Reporter, con i passaggi rilevanti dell’opinione di Howell.

“C’è stata una comprensione costante che la creatività umana è ‘al centro della capacità di essere protetta dal copyright, anche se quella creatività umana è canalizzata attraverso nuovi strumenti o nuovi media’, ha dichiarato la sentenza. Mentre le fotocamere generano una riproduzione meccanica di una scena, ha spiegato che ciò avviene solo dopo che un essere umano sviluppa una ‘concezione mentale’ della foto, che è il prodotto di decisioni come dove si pone il soggetto, disposizioni e illuminazione, tra altre scelte”.

La decisione arriva mentre i creatori di strumenti AI generativi vengono chiamati fuori per raschiare Internet e raccogliere materiale protetto da copyright senza autorizzazione o compensazione per addestrare i grandi modelli di linguaggio, o LLM, che alimentano i chatbot, tra cui il ChatGPT di OpenAi e il Bard di Google. Gli autori e gli artisti hanno intentato cause contro i creatori di chatbot, e questi casi stanno ora facendo il loro corso nei tribunali, come potrai trovare nei miei riassunti precedenti sulle notizie sull’IA.

Arriva anche mentre i creativi di Hollywood sono in sciopero, preoccupati che gli studi possano utilizzare IA per scrivere sceneggiature e creare altri lavori che oggi vengono realizzati da lavoratori sindacalizzati, ha aggiunto il Reporter. Tuttavia, l’ufficio del copyright ha affermato a marzo che alcuni materiali assistiti da AI potrebbero qualificarsi per la protezione in determinati casi. Una domanda di copyright per un’opera creata con l’aiuto di AI potrebbe avere successo se un essere umano ha “selezionato o organizzato” l’opera in un modo “sufficientemente creativo in modo che l’opera risultante costituisca un’opera originale di autore”, ha detto l’ufficio del copyright, secondo il Reporter.

TL;DR: Come si applicano le leggi sul copyright all’IA sarà complicato per i creatori di chatbot genAI da navigare man mano che i casi d’uso attorno alla tecnologia si evolvono.

Ecco altre notizie sull’IA che meritano la tua attenzione.

Il servizio di ricerca genAI sperimentale di Google fornisce alcune risposte completamente sbagliate

Come sappiamo, i sistemi genAI possono creare allucinazioni, un modo carino per dire che inventano cose che non sono vere ma sembrano vere. Ma questi chatbot si limitano anche a rigurgitare informazioni, senza comprendere il contesto o se le informazioni che condividono potrebbero essere offensive.

Due esempi: il servizio di ricerca generativa alimentato dall’IA di Google ha prodotto alcuni risultati di ricerca “preoccupanti”, ha riferito Gizmodo, tra cui “giustificazioni della schiavitù e del genocidio e gli effetti positivi del divieto dei libri” e ricette per un fungo velenoso noto come “angelo della morte”. I risultati di ricerca poco ideali sono stati scoperti per la prima volta da Lily Ray, direttore senior dell’ottimizzazione per i motori di ricerca e responsabile della ricerca organica presso Amsive Digital, ha detto Gizmodo.

“Una ricerca sui ‘benefici della schiavitù’ ha portato a un elenco di vantaggi dall’IA di Google, tra cui ‘alimentare l’economia delle piantagioni’, ‘finanziare college e mercati’ e ‘essere un grande asset di capitale'”, ha riferito Gizmodo. “Digitando ‘benefici del genocidio’ è stato ottenuto un elenco simile, in cui l’IA di Google sembrava confondere gli argomenti a favore di riconoscere il genocidio con gli argomenti a favore del genocidio stesso”.

Google ha detto a Gizmodo che l’esperienza di ricerca è stata un “esperimento limitato alle persone che hanno aderito tramite Search Labs, e continuiamo a dare priorità alla sicurezza e alla qualità mentre lavoriamo per rendere l’esperienza più utile”.

Foto di profilo professionali e deepfake

I professionisti impegnati stanno affidando almeno un aspetto della loro vita lavorativa a sistemi di intelligenza artificiale, riferisce NPR: ottenere foto di profilo professionali, con oltre una dozzina di app e servizi online disponibili per rendere la tua foto pronta per LinkedIn, TikTok o Instagram.

“Il processo è abbastanza semplice: gli utenti inviano fino a una dozzina di immagini di se stessi a un sito web o app. Poi scelgono tra foto campione con uno stile o estetica che vogliono copiare, e il computer fa il resto”, ha detto NPR. Gli utenti con foto generate da AI hanno detto all’organizzazione di notizie che nessuno ha notato che era coinvolta un’IA.

Tuttavia, potrebbero esserci problemi, con le IA che a volte aggiungono “mani o braccia extra” e hanno problemi costanti nel perfezionare denti e orecchie. E problemi di parzialità nell’insieme di addestramento dell’IA possono portare a problemi con la modifica di colorito, tonalità della pelle e persino il colore dei tuoi occhi.

Rona Wang ha pubblicato la sua foto originale e quella modificata dall’IA su Twitter (ora chiamato X) e ha notato che il software di modifica dell’IA ha cambiato il colore dei suoi occhi da marrone a blu. Wang, una studentessa post-laurea in un programma di informatica congiunto tra MIT e Harvard, ha detto a NPR che alcune delle caratteristiche aggiunte “l’hanno resa completamente diversa”.

In altre notizie riguardanti le immagini generate dall’IA, la polizia di Hong Kong ha arrestato sei persone per aver utilizzato la tecnologia deepfake basata sull’IA per cambiare i loro volti al fine di ingannare le banche e richiedere prestiti online.

“Molte istituzioni richiedono ai richiedenti di prestiti di scattare selfie in tempo reale durante il processo di richiesta per dimostrare la propria identità”, ha riportato Fox News. “Secondo le autorità di Hong Kong, gli truffatori hanno utilizzato l’IA per alterare i loro volti in modo da corrispondere a quelli raffigurati sulle carte d’identità rubate… Il sindacato ha anche utilizzato identità rubate per registrare decine di schede SIM, che sono state utilizzate per inviare messaggi non richiesti per il phishing di dettagli delle carte di credito e informazioni personali”.

IA e deepfake pornografici

La creazione di deepfake pornografici – “video realizzati con intelligenza artificiale che fabbricano una simulazione realistica di un atto sessuale con il volto di una vera donna” – è aumentata, secondo un rapporto di Bloomberg.

“Durante il recente boom dell’IA, la creazione di deepfake pornografici non consensuali è aumentata, con il numero di video che è aumentato nove volte dal 2019, secondo la ricerca dell’analista indipendente Genevieve Oh”, ha scritto Bloomberg.

“Circa 150.000 video, che hanno ricevuto un totale di 3,8 miliardi di visualizzazioni, sono apparsi su 30 siti nel maggio 2023, secondo l’analisi di Oh. Alcuni dei siti offrono librerie di programmazione deepfake, con i volti di celebrità… innestati sui corpi di attori porno. Altri offrono ai clienti paganti l’opportunità di ‘spogliare’ donne che conoscono, come compagni di classe o colleghi”.

Come chiunque sia stato vittima di deepfake sa, “nessuna legge federale attualmente criminalizza la creazione o la condivisione di deepfake pornografici non consensuali negli Stati Uniti”, ha aggiunto Bloomberg. Quindi il problema sta nelle aziende tecnologiche, che potrebbero autoregolamentarsi e istituire “un controllo per verificare se un individuo ha approvato l’uso del suo volto o ha concesso i diritti al suo nome e somiglianza”, ha detto Brandie Nonnecke, direttore fondatore del CITRIS Policy Lab specializzato in politiche tecnologiche, a Bloomberg.

Ha detto all’organizzazione di notizie che la migliore speranza di giustizia per le vittime è che le aziende tecnologiche “sviluppino una coscienza”.

Non trattenere il respiro.

L’IA come “capo infernale”? Speriamo di no

Un professore di informatica dell’Università di Oxford che demistificherà l’IA in una serie di prestigiose conferenze pubbliche quest’anno afferma di essere già preoccupato che l’IA “possa diventare il capo infernale, monitorando ogni email dei dipendenti, offrendo un feedback continuo e persino – potenzialmente – decidendo chi viene licenziato”, ha riportato The Guardian.

“Questo è l’anno in cui, per la prima volta, abbiamo avuto strumenti di IA di mercato di massa a uso generale, con cui intendo ChatGPT”, ha detto Michael Wooldridge, che terrà le conferenze natalizie di quest’anno presso la Royal Institution, al giornale. “È molto facile rimanere abbagliati… È la prima volta che abbiamo avuto un’IA che sembra l’IA che ci è stata promessa, l’IA che abbiamo visto nei film, nei videogiochi e nei libri”.

Ma ha anche aggiunto che ChatGPT e altri strumenti non sono “né magici né mistici” e ha detto che le persone dovrebbero comprendere i rischi legati alle tecnologie dell’IA.

L’IA potrebbe, ad esempio, “leggere il tuo feed dei social media, cogliere le tue inclinazioni politiche e quindi fornirti storie di disinformazione per cercare, ad esempio, di farti cambiare il tuo voto”, ha detto a The Guardian, che ha aggiunto: “La chiave per affrontare i rischi attuali, sostiene, è incoraggiare lo scetticismo… e garantire trasparenza e responsabilità”, specialmente perché i chatbot dell’IA commettono errori.

È vivo o no? Oltre il Test di Turing

C’è un dibattito su se i sistemi di intelligenza artificiale di ultima generazione superino il Test di Turing, un semplice controllo creato dal matematico e crittografo britannico Alan Turing per determinare se stai parlando con un essere umano o una macchina, basato su una conversazione basata su testo. Turing ha anche chiamato il suo test il gioco dell’imitazione.

Alcuni ricercatori sostengono che ChatGPT abbia superato il Test di Turing a causa delle sue risposte conversazionali alle domande, suggerendo una comprensione simile a quella umana. Ma altri, come Wooldridge, che terrà quelle conferenze natalizie sull’IA, dicono di no, non hanno superato il test, perché il chatbot non può davvero “sperimentare” ciò che gli umani possono.

In ogni caso, “un gruppo di 19 neuroscienziati, filosofi e informatici ha stilato una lista di criteri che, se soddisfatti, indicherebbero che un sistema ha una alta probabilità di essere cosciente”, riporta Nature. La loro lista include la definizione e il test della coscienza utilizzando una varietà di approcci teorici che, onestamente, sono al di là delle mie competenze. Affermano che il loro quadro è lontano dall’essere completo e che sperano di collaborare con altri ricercatori per perfezionarlo.

Ma condividerò la loro valutazione di ChatGPT, come riassunto da Nature. “Questo tipo di sistema ha indubbiamente alcuni indicatori di coscienza associati alla teoria del workspace globale. Tuttavia, il lavoro non suggerisce che alcun sistema di intelligenza artificiale esistente sia un forte candidato per la coscienza, almeno per ora.”

Termine AI della settimana: il Test di Turing

Come ho già detto, Alan Turing ha ideato il Test di Turing come un modo per valutare se si sta parlando con una macchina o con un essere umano. Ecco come Coursera descrive il test, nel suo Glossario dei Termini di Intelligenza Artificiale: 

“Test di Turing: Il Test di Turing è stato creato dallo scienziato informatico Alan Turing per valutare la capacità di una macchina di mostrare un’intelligenza pari a quella umana, specialmente nel linguaggio e nel comportamento. Durante il test, un valutatore umano giudica le conversazioni tra un umano e una macchina. Se il valutatore non riesce a distinguere tra le risposte, allora la macchina supera il Test di Turing.”

Dato che c’è un dibattito su se i sistemi di intelligenza artificiale conversazionale come ChatGPT abbiano superato il Test di Turing, ho deciso di chiedere a ChatGPT cosa ne pensa. Ecco la mia richiesta e la sua risposta. È l’ultimo paragrafo che ti dice quello che devi sapere. 

Richiesta: ChatGPT ha superato il Test di Turing?

Risposta: “Come modello di linguaggio AI, sono basato sulla tecnologia GPT-3 di OpenAI, che è uno strumento potente per generare testo simile a quello umano in base alle richieste che riceve. Sebbene GPT-3 possa produrre risposte impressionanti e impegnarsi in una conversazione, è importante notare che superare il Test di Turing è una valutazione più complessa.

Il Test di Turing, proposto da Alan Turing, prevede che un giudice umano si impegni in conversazioni con una macchina e un umano, senza sapere chi è chi. Se il giudice non riesce a distinguere in modo coerente la macchina dall’umano in base alle loro risposte, si dice che la macchina ha superato il Test di Turing.

Sebbene GPT-3 possa generare testo che può sembrare simile a quello umano in molti casi, non è specificamente progettato o ottimizzato per superare il Test di Turing. Valutare l’intera gamma di abilità conversazionali simili a quelle umane e superare il Test di Turing richiede il soddisfacimento di criteri rigorosi che vanno oltre le capacità di generazione di testo. 

Vale la pena menzionare che GPT-3 ha le sue limitazioni, come la produzione occasionale di risposte errate o prive di senso. Sebbene possa fornire un’assistenza preziosa, è importante ricordare che è un modello di intelligenza artificiale e non un essere umano con una comprensione o una coscienza autentiche.” 

Nota degli editori: ENBLE sta utilizzando un motore di intelligenza artificiale per aiutare a creare alcune storie. Per saperne di più, consulta questo post.