IA e tu La ‘spada’ del copyright su IA, coach di vita, incluso Gesù, che arriva da te

IA e tu La 'spada' del copyright su IA, coach di vita, incluso Gesù, che arriva da te' 'AI and you The 'sword' of copyright on AI, life coach, including Jesus, who comes to you

Chiunque segua le svolte e i cambiamenti degli strumenti di IA generativa sa che i creatori di contenuti sono giustamente insoddisfatti del fatto che strumenti come ChatGPT di OpenAI e Bard di Google potrebbero “assorbire” i loro contenuti, senza permesso né compensazione, per “addestrare” i grandi modelli linguistici che alimentano quei chatbot.

Ora c’è voce che il New York Times potrebbe citare in giudizio OpenAI.

Il giornale ha aggiornato i suoi termini di servizio il 3 agosto per affermare che gli estranei non possono estrarre alcun contenuto protetto da copyright per addestrare un sistema di apprendimento automatico o IA senza permesso. Tale contenuto include “testo, fotografie, immagini, illustrazioni, disegni, clip audio, clip video, ‘aspetto e sensazione’, metadati, dati o compilazioni”. Il giornale ha dichiarato ad AdWeek che non aveva ulteriori commenti oltre a quanto era stato specificato nei suoi termini di servizio.

Ma dopo aver incontrato l’autore di ChatGPT e aver avuto conversazioni “tese” e “contenziose”, il New York Times potrebbe finire per citare in giudizio OpenAI “per proteggere i diritti di proprietà intellettuale associati alla sua attività di reportistica”, ha detto NPR, citando due persone a conoscenza diretta delle discussioni.

“Una causa del Times contro OpenAI creerebbe ciò che potrebbe essere la più importante controversia legale sulla protezione del copyright nell’era dell’IA generativa”, ha osservato NPR. “Una delle principali preoccupazioni del Times è che ChatGPT sta diventando, in un certo senso, un diretto concorrente del giornale, creando testo che risponde a domande basate sulla reportistica originale e sulla scrittura del personale del giornale.”

(ChatGPT non sarebbe l’unico a utilizzare tali informazioni per rispondere alle domande degli utenti o per fornire prompt. Come promemoria, ChatGPT alimenta il motore di ricerca Bing di Microsoft e Microsoft ha investito almeno 11 miliardi di dollari in OpenAI fino a gennaio, secondo Bloomberg.)

Questa possibile battaglia legale arriva dopo che più di 4.000 scrittori, tra cui Sarah Silverman, Margaret Atwood e Nora Roberts, hanno denunciato le società di IA generativa per essenzialmente rubare il loro lavoro protetto da copyright. Getty Images ha citato in giudizio Stability AI nel febbraio, sostenendo che il creatore del popolare motore di generazione di immagini Stable Diffusion AI ha addestrato il suo sistema utilizzando oltre 12 milioni di foto dall’archivio di Getty senza una licenza. La causa si trova qui.

Negli ultimi mesi, OpenAI sembra aver riconosciuto le problematiche legate al copyright. A luglio, l’azienda ha firmato un accordo con l’Associated Press per ottenere una licenza dell’archivio delle notizie dell’AP fino al 1985 per termini non divulgati. (L’AP ha annunciato questa settimana i suoi nuovi standard di modifica AI, notando che sebbene i suoi reporter possano “sperimentare” con ChatGPT, non possono usarlo per creare “contenuti pubblicabili.”)

L’accordo con l’AP è un riconoscimento implicito da parte di OpenAI che ha bisogno di ottenere una licenza per contenuti protetti da copyright, aprendo la porta ad altri proprietari di copyright per cercare i propri accordi.

Nel frattempo, OpenAI ha comunicato questo mese agli operatori di siti web che possono scegliere di non consentire la scansione dei loro siti web per dati di addestramento. Google ha anche affermato che dovrebbe esserci una “opzione di opt-out funzionante”, secondo un’istanza legale di Google in Australia segnalata da The Guardian. Il Guardian ha notato che Google “non ha detto come dovrebbe funzionare un tale sistema”.

Anche se il “opt-out” è qualcosa, non affronta davvero le problematiche legate al copyright. E sebbene le controargomentazioni delle società tecnologiche possano concentrarsi sull’uso equo di materiali protetti da copyright, la quantità stessa di contenuti che vanno ad alimentare questi grandi modelli linguistici potrebbe superare l’uso equo.

“Se si copiano milioni di opere, si può vedere come ciò diventi un numero che potrebbe essere potenzialmente fatale per un’azienda”, ha dichiarato Daniel Gervais, studioso di IA generativa e co-direttore del programma di proprietà intellettuale presso l’Università Vanderbilt, a NPR.

Il Times non ha commentato la notizia di NPR, quindi NPR ha citato i recenti commenti degli esecutivi del Times riguardo alla protezione della loro proprietà intellettuale contro le società di IA. Questo include la CEO della New York Times Company, Meredith Kopit Levien, che ha dichiarato in una conferenza a giugno: “Deve esserci uno scambio di valore equo per i contenuti che sono già stati utilizzati e per i contenuti che continueranno ad essere utilizzati per addestrare i modelli.”

La legge federale sul copyright prevede che i trasgressori possano subire multe da 200 a 150.000 dollari per ogni violazione “commessa volontariamente”, ha sottolineato NPR.

Dove andrà tutto questo? Vedremo, ma darò l’ultima parola a Gervais di Vanderbilt: “La legge sul copyright è una spada che pendereà sulle teste delle società di IA per diversi anni a meno che non riescano a negoziare una soluzione.”

Ecco altre novità sull’IA che meritano la tua attenzione.

Amazon: L’IA generativa creerà ‘punti salienti delle recensioni dei clienti’

Il più grande sito di e-commerce del mondo utilizzerà l’IA generativa per facilitare gli acquirenti che si basano sulle recensioni dei prodotti dei clienti per prendere decisioni di acquisto, ha annunciato Amazon in un post sul blog di questa settimana. Nello specifico, sta introducendo “punti salienti delle recensioni” generati dall’IA, progettati per aiutare i clienti a individuare “temi comuni” tra le recensioni dei clienti.

“Vuoi determinare rapidamente cosa dicono gli altri clienti su un prodotto prima di leggere le recensioni?” ha scritto Vaughn Schermerhorn, direttore dello shopping della comunità presso Amazon. “La nuova funzione alimentata dall’IA fornisce un breve paragrafo direttamente sulla pagina dettaglio del prodotto che evidenzia le caratteristiche del prodotto e il sentiment degli utenti menzionati frequentemente nelle recensioni scritte, per aiutare i clienti a determinare in un’occhiata se un prodotto è adatto per loro.”

Amazon sottolinea che “solo l’anno scorso, 125 milioni di clienti hanno contribuito a quasi 1,5 miliardi di recensioni e valutazioni nei negozi Amazon, ovvero 45 recensioni al secondo.”

Ovviamente, c’è una questione su quanto legittime siano queste recensioni, come hanno riportato ENBLE, ENBLE e altri. Amazon afferma di avere “bloccato proattivamente oltre 200 milioni di recensioni sospette nel 2022” e ha ribadito in un altro post sul blog questa settimana che “proibisce rigorosamente le recensioni false”. L’azienda afferma di utilizzare “modelli di apprendimento automatico che analizzano migliaia di punti dati per rilevare il rischio, inclusi i rapporti con altri account, l’attività di accesso, la cronologia delle recensioni e altre indicazioni di comportamenti insoliti” e che ha appena presentato due cause contro intermediari di recensioni false.

Le nuove recensioni generate dall’IA, nel frattempo, utilizzeranno “solo il nostro corpus di recensioni fidate da acquisti verificati.”

L’IA di Snapchat impazzisce, le persone ‘impazziscono’ pensando che possa essere viva

Ricordate quando Microsoft ha introdotto un’IA chiamata Tay, che poi è impazzita dopo che le persone su Twitter l’hanno insegnata a usare parole volgari e fare commenti razzisti?

Bene, qualcosa di simile – la parte in cui impazzisce – è successo al chatbot di Snapchat, causando “panico tra gli utenti per un chatbot IA che aveva una mente propria”, secondo quanto riportato da CNN.

Invece di offrire raccomandazioni e rispondere alle domande nelle sue conversazioni con gli utenti, il My AI Snaps di Snapchat, alimentato da ChatGPT, ha fatto qualcosa che finora solo gli umani potevano fare: ha pubblicato una “Storia in diretta (un breve video di quello che sembrava essere un muro) per tutti gli utenti di Shachat”, ha detto CNN.

Gli utenti di Snapchat si sono rivolti ai social media per esprimere la loro perplessità e preoccupazione: “Perché il mio AI ha un video del muro e del soffitto di casa loro come Storia?” ha chiesto uno. “È molto strano e sinceramente inquietante”, ha detto un altro. E il mio preferito: “Neppure un robot ha tempo per me”.

Snapchat ha detto a CNN che si è trattato di un “errore” e non di un segno di sensibilità. Certamente, è stato un errore.

Ma anche prima che lo strumento impazzisse, alcuni utenti di Snapchat erano già meno entusiasti di My AI Snaps. Lanciato a aprile, lo strumento è stato criticato dagli utenti per “scambi inquietanti e l’impossibilità di rimuovere la funzione dalla chat a meno che non si paghi un abbonamento premium”, ha detto CNN.

“A differenza di alcuni altri strumenti di intelligenza artificiale, la versione di Snapchat ha alcune differenze chiave: gli utenti possono personalizzare il nome del chatbot, creare un avatar Bitmoji personalizzato per esso e portarlo nelle conversazioni con gli amici”, ha aggiunto CNN. “L’effetto netto è che conversare con il chatbot di Snapchat può sembrare meno transazionale rispetto a visitare il sito web di ChatGPT. Può anche essere meno chiaro che si sta parlando con un computer.”

McKinsey presenta Lilli, un genAI per organizzare la sua IP

Invece di offrire un altro rapporto di McKinsey and Co. su quanto velocemente le aziende stanno adottando il genAI, questa settimana la consulenza quasi centenaria ottiene una menzione in questa rassegna per aver introdotto il proprio strumento di intelligenza artificiale generativa per i dipendenti. McKinsey descrive lo strumento, chiamato Lilli e che utilizza la proprietà intellettuale e i dati proprietari dell’azienda, come un “ricercatore, risparmio di tempo e ispirazione”.

“È una piattaforma che fornisce una ricerca e una sintesi scorrevoli e imparziali delle vaste conoscenze della società, per portare le nostre migliori intuizioni, in modo rapido ed efficiente, ai clienti”, ha detto McKinsey, sottolineando che “copre più di 40 fonti di conoscenza attentamente curate; ci saranno più di 100.000 documenti e trascrizioni di interviste contenenti contenuti interni e di terze parti, e una rete di esperti in 70 paesi”.

Lo scopo, aggiunge l’azienda, è aiutare i suoi dipendenti a trovare ciò che cercano. “Questo include la ricerca dei documenti di ricerca più rilevanti e l’individuazione degli esperti giusti, che può essere un compito travolgente per le persone nuove nella nostra azienda. Anche per i colleghi più anziani, il lavoro di solito richiede due settimane di ricerca e networking”.

Sebbene di solito non mi piaccia quando questi assistenti di intelligenza artificiale sono chiamati con nomi di donne, vedo che McKinsey stava rendendo omaggio a un membro importante del team. Dice che Lilli prende il nome da Lillian Dombrowski, che è stata la prima donna assunta da McKinsey come professionista e che in seguito è diventata il controller e il segretario aziendale per l’azienda.

OpenAI effettua la sua prima acquisizione, uno studio di design

OpenAI ha effettuato la sua prima acquisizione annunciando in un post sul blog di aver acquistato Global Illumination, una “azienda che ha sfruttato l’IA per costruire strumenti creativi, infrastrutture ed esperienze digitali” e che lavorerà sui “nostri prodotti principali, inclusa ChatGPT”. I termini dell’accordo non sono stati divulgati, ma OpenAI ha dichiarato che il team di Global Illumination è noto per aver sviluppato prodotti per Instagram e Facebook e ha dato un “contributo significativo” a Google, YouTube, Pixar e Riot Games.

Uno dei fondatori di Global Illumination è Thomas Dimson, che ha ricoperto il ruolo di direttore dell’ingegneria presso Instagram e ha contribuito a gestire un team per gli algoritmi di scoperta della piattaforma, secondo ENBLE.

Google sta testando un nuovo tipo di assistente AI che offre consigli di vita

Come parte della sua battaglia con OpenAI e Microsoft per la supremazia nell’IA, Google sta lavorando, secondo quanto riportato dal New York Times, per trasformare la sua tecnologia genAI in un “coach di vita personale” in grado di “rispondere a domande intime sulle sfide della vita delle persone”.

Il laboratorio di ricerca DeepMind di Google sta lavorando per far sì che il genAI “possa svolgere almeno 21 diversi tipi di compiti personali e professionali, inclusi strumenti per dare consigli sulla vita, idee, istruzioni di pianificazione e suggerimenti per il tutoraggio”, ha detto il giornale citando documenti sul progetto che ha potuto consultare.

Cosa potrebbe consigliarti? Cose come come dire a un’amica molto cara che non potrai partecipare al suo matrimonio perché non te lo puoi permettere, o cosa devi fare per allenarti e diventare un runner migliore, ha detto il NYT. Potrebbe anche creare un budget finanziario per te, comprensivo di piani pasto e di allenamento, ha detto il Times.

Ma ecco la questione: gli esperti di sicurezza dell’IA di Google hanno detto ai dirigenti dell’azienda a dicembre che gli utenti “potrebbero sperimentare un diminuito stato di salute e benessere” e “una perdita di autonomia” affidandosi e diventando troppo dipendenti dall’IA, ha aggiunto il NYT. Ecco perché Google Bard, lanciato a maggio, “è stato vietato dal dare consigli medici, finanziari o legali”.

Google DeepMind ha dichiarato in una nota al Times che sta valutando molti progetti e prodotti e che “esempi isolati” del lavoro che sta svolgendo “non rappresentano la nostra roadmap di prodotto”. Tutto ciò si traduce in: sta ancora lavorando sulla tecnologia e non ha deciso se sarà un prodotto rivolto al pubblico in futuro.

Un’app di IA offre guida spirituale da Gesù, Maria e Giuseppe – e da Satana

Parlando di coach di vita, vorresti condividere pensieri con Gesù Cristo, gli apostoli, i profeti, Maria, Giuseppe, Giuda, Satana o altri personaggi biblici? Scopri che adesso esiste un’app per questo.

Chiamata Text With Jesus, l’app alimentata da ChatGPT si fa passare per personaggi biblici e offre una moltitudine di risposte che incorporano almeno un versetto della Bibbia, “sia che si tratti di consigli personali sulle relazioni o di questioni teologiche complesse”, ha riferito il Washington Post. “Molte persone della Bibbia, tra cui Maria Maddalena, sono accessibili solo nella versione premium dell’app, che costa $2.99 al mese.”

Puoi anche scegliere di “Chattare con Satana”, che firma i suoi messaggi con un emoji con faccina sorridente e corna, ha detto il Post. Sì, cosa potrebbe mai andare storto con questo?

L’app, disponibile da luglio, è stata creata da Catloaf Software e dal CEO Stéphane Peter, che ha detto di aver precedentemente sviluppato app statiche che permettevano agli utenti di ottenere citazioni da figure storiche come l’autore Oscar Wilde e i padri fondatori dell’America. Ma ChatGPT ha aperto l’opportunità di interagire con gli utenti. Peter ha detto di aver ricevuto feedback positivi da leader religiosi, così come critiche da alcuni utenti online che hanno definito l’app blasfema, secondo il Post.

Ho scaricato l’app per poter chiedere un commento a “Gesù Cristo”. In risposta alla mia domanda, “Perché dovrei credere a qualunque cosa tu dica?”, “Gesù” ha offerto questa risposta: “Capisco il tuo scetticismo ed è importante interrogarsi e cercare la verità.”

Come giornalista, posso solo dire, Amen a ciò.

Parola della settimana sull’IA: Antropomorfismo

Leggendo sul coach di vita di Google, sull’app di Gesù e sulle divagazioni sull’IA di Snapchat, mi ha ispirato a scegliere “antropomorfismo” per arricchire il tuo vocabolario sull’IA. Assegnare qualità simili a quelle umane a cose non umane, come computer o animali, non è una nuova idea. Ma assume un’interessante dimensione quando viene applicata al genAI e quando si considera che qualcuno vuole farci pensare che un chatbot possa sostituire una figura biblica.

La seguente definizione è offerta da The New York Times e dal suo “Glossario di Intelligenza Artificiale: Reti neurali e altri termini spiegati”.

“Antropomorfismo: La tendenza delle persone ad attribuire qualità o caratteristiche umanoidi a un chatbot di intelligenza artificiale. Ad esempio, potresti presumere che sia gentile o crudele in base alle sue risposte, anche se non è in grado di provare emozioni, o potresti credere che l’IA sia senziente perché è molto brava a imitare il linguaggio umano.”

Nota degli editori: ENBLE sta utilizzando un motore di intelligenza artificiale per aiutare a creare alcune storie. Per saperne di più, consulta questo post.