Intelligenza Artificiale e Tu Il Sindaco di NYC Non Parla Davvero Mandarino, la Scia dei Soldi dell’IA, Chi Detta le Regole

Intelligenza Artificiale e Tu Il Sindaco di NYC Non Parla Davvero Mandarino, gli Investimenti dell'IA e Chi Decide le Regole

Una domanda che spesso faccio alle persone durante i colloqui è quale tecnologia vorrebbero vedere inventata. Le richieste più popolari includono trasportatori, per spostarsi istantaneamente da un luogo all’altro; cloni, in modo da poter essere efficacemente in due posti contemporaneamente; e un robot/intelligenza artificiale in grado di svolgere i lavori domestici, come Rosey dai Jetsons, ma che possa anche fungere da assistente digitale per gestire gli orari e rispondere a domande complesse, come Jarvis dagli Avengers.

Ma ogni volta che qualcuno mi chiede quale tecnologia vorrei, rispondo sempre il traduttore universale, che permette di comprendere e parlare qualsiasi lingua.

Quando l’intelligenza artificiale è diventata una grande novità nell’ultimo anno e ChatGTP è stata offerta sui telefoni cellulari, il fan di Star Trek che è in me ha accolto con entusiasmo questa versione del traduttore universale. Ho tradotto email in altre lingue (incluse il Klingon e l’Elvico Sindarin) per amici e ho avuto testi tradotti dal greco. Ora, grazie alla tecnologia vocale dell’intelligenza artificiale, puoi avere qualsiasi cosa non solo tradotta in testo, ma anche parlata, con la tua voce, in altre lingue. Niente male, vero?

Ovviamente, la chiave per fare una cosa del genere è la trasparenza – informare il destinatario che le parole sono tue, ma la voce che parla non è tua, in modo da non ingannarlo facendogli credere di aver imparato un’altra lingua. Ed è qui che le cose sembrano essere andate male per il sindaco di New York, Eric Adams, nella scorsa settimana.

Adams e il suo team tecnico hanno inviato messaggi tramite il sistema di telefonate automatiche della città in molte lingue utilizzando uno strumento di traduzione vocale con intelligenza artificiale di ElevenLabs. Ha affermato che ciò è stato fatto, in parte, per rispondere a una legge di New York che richiede “alla maggior parte degli enti pubblici di avere un ‘coordinatore per l’accesso linguistico’ e di fornire ‘interpretazione telefonica’ in circa 100 lingue. La legge richiede inoltre che documenti importanti e servizi diretti siano tradotti in 10 lingue: arabo, urdu, francese, polacco, spagnolo, cinese, russo, bengalese, creolo haitiano e coreano” secondo The City news service.

Adams ha raggiunto “oltre 4 milioni di newyorchesi attraverso telefonate automatiche e ha inviato migliaia di chiamate in spagnolo, oltre 250 in yiddish, oltre 160 in mandarino, 89 chiamate in cantonese e 23 in creolo haitiano”, ha dichiarato un portavoce del sindaco ai giornalisti.

“Le persone mi fermano per strada tutto il tempo e mi dicono: ‘Non sapevo che tu parlassi mandarino, sai?'” ha detto Adams secondo quanto riportato dall’Associated Press. “Le chiamate automatiche che stiamo effettuando, utilizziamo lingue diverse per parlare direttamente alla diversità dei newyorchesi.”

Il problema: non ha dichiarato che l’intelligenza artificiale è stata utilizzata per farlo sembrare un madrelingua di quelle lingue. E questo ha suscitato le critiche di alcuni eticisti. “Il sindaco sta facendo dei deepfake di se stesso”, ha detto Albert Fox Cahn, direttore esecutivo del gruppo di controllo dei progetti di tecnologia di sorveglianza, all’AP. “Questo è profondamente anti-etico, soprattutto a spese del contribuente. Utilizzare l’intelligenza artificiale per convincere i newyorchesi che parla lingue che non conosce è apertamente orwelliano. Sì, abbiamo bisogno di annunci in tutte le lingue native dei newyorchesi, ma i deepfake sono solo un inquietante progetto di vanità.”

Dal suo canto, Adams ha respinto le questioni etiche e ha detto ai giornalisti che sta cercando semplicemente di parlare con i suoi diversi elettori. “Ho una cosa sola: devo gestire la città e devo essere in grado di parlare con le persone nelle lingue che capiscono, e sono felice di farlo”, ha detto secondo l’Associated Press. “E quindi, a tutti, posso solo dire un ‘ni hao’.”

E a Adams posso solo dire “ghoHlaHchugh Hutlh NY ghotvam’e’ Hoch tlhInganpu’ je jatlhlaHbe’chugh QaQ yIn ‘e’ chaw’.” Questo è Klingon per “Comunica ai residenti di NY che stai parlando con loro grazie alla tecnologia di traduzione vocale dell’intelligenza artificiale.”

Ecco altre notizie sull’intelligenza artificiale che potrebbero interessarti.

Meta afferma che la regolamentazione limiterà l’innovazione. Inoltre, l’intelligenza artificiale ancora non è così intelligente come il tuo gatto

Yann LeCun, il capo scienziato dell’IA di Meta, ha messo in guardia contro gli sforzi per regolamentare l’IA, affermando che tali leggi sarebbero “controproducenti” perché “servirebbero solo a rafforzare il dominio delle grandi aziende tecnologiche e ad ostacolare la concorrenza”, riporta The Financial Times questa settimana. LeCun sostiene che i grandi produttori di IA – che includono aziende come OpenAI, Google e Microsoft – “vogliono la cattura regolamentare sotto le spoglie della sicurezza dell’IA.”

Invece, LeCun ritiene che le aziende – come Meta, che ha reso open-source il suo modello di linguaggio generativo LLaMA – non sarebbero in grado di competere con i grandi protagonisti della tecnologia, che hanno un vantaggio significativo nel mercato. Ha detto al FT che “sono stati fatti argomenti simili sulla necessità di controllare la tecnologia in rapida evoluzione … all’inizio di Internet, ma quella tecnologia ha prosperato solo perché è rimasta una piattaforma aperta e decentralizzata”.

LeCun ha riconosciuto che alcuni sforzi di regolamentazione sono alimentati da paure che l’IA possa minare l’umanità. Ma ha definito quelle preoccupazioni “preposterose” e ha detto che i sistemi AI odierni sono ancora meno intelligenti di un gatto. Mentre le macchine saranno più intelligenti degli esseri umani in alcuni settori in futuro, LeCun ritiene che ciò sia OK perché la tecnologia aiuterà le persone a risolvere problemi complessi.

“La domanda è: è spaventoso o eccitante?” ha detto LeCun al FT. “Penso che sia eccitante perché quelle macchine faranno la nostra volontà. Saranno sotto il nostro controllo.”

Speriamo.

Far sì che le persone comuni stabiliscano le regole sul funzionamento dei chatbot di AI

Nonostante gli avvertimenti di LeCun, i regolatori negli Stati Uniti e in tutto il mondo stanno discutendo il modo migliore per regolamentare l’IA generativa. Nel frattempo, Anthropic, lo sviluppatore di Claude, sta cercando qualcosa di diverso: chiedere alle persone comuni di aiutare a scrivere le regole per il suo chatbot di AI.

Il suo esperimento di governance dell’IA, conosciuto come Collective Constitutional AI, si basa su un lavoro precedente della società con sede a San Francisco per creare un “modo di addestrare modelli di linguaggio ampi che si basa su un insieme scritto di principi,” ha riportato The New York Times. “È destinato a fornire istruzioni chiare a un chatbot su come gestire richieste sensibili, su quali argomenti evitare e su come agire in linea con i valori umani.”

C’è stata molta critica dei leader dell’IA che hanno deciso di rilasciare la loro tecnologia – il ChatGPT di OpenAI ha fatto il suo debutto pubblico nel novembre 2022 – senza prima considerare le implicazioni di dare accesso a così tanti strumenti potenti a milioni di persone. E il Times ci ricorda che al momento attuale, un piccolo gruppo di leader aziendali che sviluppa motori di IA è l’unico a decidere come funzionano i loro LLM basandosi su una combinazione di etica personale, incentivi commerciali e pressioni esterne. Non ci sono controlli su quel potere e gli utenti ordinari non hanno modo di dare il loro parere.”

Secondo il documento informativo pubblicato il 17 ottobre sul Collective Constitutional AI, Anthropic ha chiesto a un gruppo demograficamente diversificato di 1.000 americani di “redigere una costituzione per un sistema di IA”. La costituzione attuale che governa Claude è stata curata dai dipendenti di Anthropic e si basa su fonti esterne, incluso la Dichiarazione universale dei diritti umani delle Nazioni Unite, ha aggiunto l’azienda.

Puoi leggere la bozza della costituzione e le conclusioni di Anthropic su un processo “imperfetto” che, secondo l’azienda, è ancora in corso. Sebbene ci sia stato un sovrapposizione del 50% tra i concetti e i valori della costituzione pubblica e quella scritta da Anthropic, l’azienda ha sottolineato che ci sono state differenze chiave.

“I principi nella costituzione pubblica sembrano in gran parte auto-generati e non derivano da pubblicazioni esistenti, si concentrano maggiormente sull’oggettività e sull’imparzialità, danno maggior importanza all’accessibilità e in generale tendono a promuovere comportamenti desiderati anziché evitare comportamenti indesiderati.”

Al termine della giornata, Anthropic dice “stiamo cercando di trovare un modo per sviluppare una costituzione che sia sviluppata da un mucchio di terze parti, piuttosto che da persone che lavorano in un laboratorio a San Francisco”, ha detto il capo della politica di Anthropic, Jack Clark, al Times.

Segui il denaro – porta all’IA

Si prevede che le aziende di tutto il mondo spendano 16 miliardi di dollari in tecnologia IA generativa nel 2023, con la società di ricerca di mercato IDC che prevede che questo numero aumenterà a 143 miliardi di dollari in soli quattro anni.

“L’IA generativa è più di una tendenza passeggera o di un semplice hype. È una tecnologia trasformativa con implicazioni e impatti commerciali di ampia portata”, ha detto Ritu Jyoti, vice presidente di gruppo di IDC per la ricerca sull’intelligenza artificiale e sull’automazione a livello mondiale. “Con un’implementazione etica e responsabile, GenAI è destinata a riformare settori, cambiando il modo in cui lavoriamo, giochiamo e interagiamo con il mondo.”

Nel frattempo, Activate Consulting ha fornito tre dati interessanti sull’IA nella sua analisi di 204 pagine sullo stato della tecnologia e dei media. Il rapporto è disponibile qui come PDF.

La società ha scoperto che 13 milioni di persone iniziano ora la loro ricerca web su un servizio IA. Entro quattro anni, Activate prevede che questo numero salirà a 90 milioni. Questo si ricollega alle previsioni di altri che sostengono che i motori di ricerca devono evolversi, il che spiega perché Google e Microsoft stanno investendo molto nell’aggiornamento dei loro prodotti di ricerca rispettivi.

Per quanto riguarda l’utilizzo dell’IA da parte delle persone, Activate ha affermato che il 30% dei consumatori utilizza strumenti di intelligenza artificiale per la scrittura, il 25% lo utilizza per la creazione di contenuti, il 22% degli utenti si rivolge all’IA per l’aiuto personale e il 20% utilizza ora l’IA come assistenti personali.

E per quanto riguarda l’interesse del venture capital nelle aziende di IA, Activate ha registrato un aumento del 181% degli investimenti in IA anno su anno, rispetto a una diminuzione del 42% del capitale di rischio investito in tutti gli altri settori.

L’IA generativa Dall-E 3 di OpenAI può creare immagini fantasiose come questa.

Stephen Shankland/CNET

Dall-E 3 produce immagini più colorate

OpenAI ha rilasciato questa settimana la sua tecnologia di immagini AI Dall-E 3 ai clienti paganti, con il nuovo modello di intelligenza artificiale progettato per comprendere meglio ciò che significano le tue indicazioni di testo prima di trasformarle in immagini. Si propone inoltre di produrre immagini più dettagliate e di evitare l’area legalmente difficile dell’imitazione dello stile degli artisti viventi, scrive Stephen Shankland di ENBLE.

“Nelle mie prove, ho trovato Dall-E 3 un grande passo avanti rispetto a Dall-E 2 del 2022. Le immagini erano più vivide, dettagliate e spesso divertenti”, ha affermato Shankland. “E erano più convincenti, con meno casi di stranezze che distraggono. La nuova tecnologia di amplificazione degli indirizzi di prova può renderle immagini più sorprendenti, ma a volte può esagerare se non vuoi alzare il volume a 11”, ha aggiunto.

“Speriamo che il modello possa effettivamente comprendere il linguaggio naturale in modo più profondo”, ha detto Gabriel Goh, uno dei ricercatori di OpenAI che ha contribuito alla creazione di Dall-E 3. Shankland spiega che l’idea è quella di “interpretare meglio frasi e descrizioni, ad esempio comprendendo che si desidera un paio di baffi su un uomo in una scena e capelli rossi su una donna. Inoltre, è utile seguire l’interfaccia più conversazionale di ChatGPT, è possibile richiedere affinamenti successivi come ‘ora aggiungi uno sfondo psichedelico verde chiaro’ e Dall-E 3 aggiornerà la sua produzione precedente.”

Con Dall-E 3, il sistema di generazione di immagini è integrato direttamente nel popolare chatbot di intelligenza artificiale di OpenAI, ChatGPT. Dall-E è disponibile per i consumatori al costo di 20 dollari al mese.

Un clip vocale di 10 secondi potrebbe rilevare il diabete di tipo 2

In uno studio condotto dai Klick Labs, pubblicato dalla Mayo Clinic, i ricercatori hanno utilizzato registrazioni vocali degli smartphone per creare un modello di intelligenza artificiale che mira a identificare le persone che potrebbero essere a rischio diabete di tipo 2.

Klick Labs ha chiesto a 267 persone di registrare una frase di sei-dieci secondi nel proprio smartphone sei volte al giorno per due settimane. Utilizzando i dati vocali, insieme ad altri dati di base sulla salute di ciascuna persona come età, altezza e peso, gli scienziati hanno analizzato le 18.000 registrazioni e quindi identificato “14 caratteristiche acustiche per le differenze tra individui non diabetici e diabetici di tipo 2”.

Hanno anche evidenziato che queste differenze vocali “si manifestano in modi diversi per uomini e donne”, con gli studiosi che affermano che il modello di intelligenza artificiale ha una precisione del 89% per le donne e del 86% per gli uomini.

Perché è così importante? Klick osserva che quasi una persona su due, ovvero 240 milioni di adulti affetti da diabete in tutto il mondo, non è nemmeno consapevole di avere la condizione e che quasi il 90% dei casi diabete sono di tipo 2. “I metodi attuali di rilevazione possono richiedere molto tempo, viaggi e costi”, ha detto Jaycee Kaufman, primo autore del paper e ricercatrice presso Klick Labs. “La tecnologia vocale ha il potenziale per rimuovere completamente queste barriere”.

Decifrare antichi rotoli

Unendo nuova tecnologia di intelligenza artificiale con la tecnologia utilizzata nelle scansioni TC, un informatico dell’Università del Kentucky di nome Brent Seales ha permesso agli studiosi di decifrare una parola in un rotolo di papiro quasi di 2000 anni fa troppo fragile per essere srotolato.

Il rotolo di Ercolano ha restituito “una manciata di lettere e una singola parola: porphyras, antico greco per ‘porpora'”, ha riportato il New York Times. Il rotolo proviene da una serie di circa 800 scoperti nel 1752 da lavoratori che scavavano una villa vicino a Pompei, sepolta nel fango vulcanico dopo l’eruzione del Vesuvio nel 79 d.C.

“A differenza di molti inchiostri antichi che contenevano metalli, l’inchiostro usato dai copisti di Ercolano era fatto di carbone e acqua, ed è appena distinguibile dal papiro carbonizzato su cui poggia”, ha affermato il Times, descrivendo i rotoli come simili a massi di carbone. “Attraverso costanti affinamenti alla tecnica del Dr. Seales, l’ultimo dei quali è l’uso dell’IA per aiutare a distinguere l’inchiostro dal papiro, i rotoli hanno almeno cominciato a restituire una manciata di lettere”.

Se pensi che sia interessante, puoi trovare ulteriori informazioni sulle scoperte degli esperti della Vesuvius Challenge qui.

Parola della settimana nell’IA: Allineamento

Dato il dibattito sulle regole per l’IA, la parola della settimana fa riferimento alla necessità di perfezionare un modello di intelligenza artificiale, un processo chiamato “allineamento”. Questa definizione di allineamento proviene dal glossario di CNBC su come parlare dell’IA come un esperto.

“Allineamento: La pratica di regolare un modello di intelligenza artificiale in modo che produca gli output desiderati dai suoi creatori. Nel breve termine, allineamento si riferisce alla pratica di costruire software e moderazione dei contenuti. Ma può anche riferirsi al compito molto più ampio e ancora teorico di garantire che ogni intelligenza artificiale generale (AGI) sia amichevole verso l’umanità.

Esempio: “A cosa si allineano questi sistemi – quali valori, quali limiti – ciò è determinato dalla società nel suo insieme, dai governi. E quindi la creazione di quel dataset, il nostro dataset sull’allineamento, potrebbe essere una costituzione dell’IA, qualunque cosa sia, deve venire molto ampiamente dalla società”, ha detto Sam Altman, CEO di OpenAI, durante un’audizione al Senato.”

Nota degli editori: ENBLE sta utilizzando un motore di intelligenza artificiale per aiutare a creare alcune storie. Per saperne di più, consulta questo post.