AI e Te Altman afferma che l’umanità deve risolvere la questione della sicurezza AI, l’UE concorda sulla legge ‘storica’ sull’AI

L'importante ruolo della tecnologia AI e Te Altman sostiene la necessità che l'umanità affronti la problematica della sicurezza nell'utilizzo dell'AI, e l'UE concorda sull'approvazione di una legge 'storica' sull'AI

È passato un po’ di tempo da quando il CEO di OpenAI, Sam Altman, è stato licenziato, è tornato cinque giorni dopo e poi ha riorganizzato il consiglio di amministrazione del creatore di ChatGPT. Se, come la maggior parte del mondo, non hai seguito gli sviluppi della trama dopo che il consiglio lo ha licenziato per non essere stato “costantemente sincero” nelle sue comunicazioni, non preoccuparti. Ci sono molte prospettive interne e linee temporali e pezzi di analisi sulla saga e sugli uomini che hanno ruoli di primo piano nel futuro dell’IA, tra cui Altman, il cofondatore di Microsoft Bill Gates e il CEO Satya Nadella, il proprietario di Twitter/X Elon Musk, il cofondatore di Google Larry Page, i venture capitalist Reid Hoffman e Peter Thiel e il CEO di Meta Mark Zuckerberg.

Ma il riassunto semplice è questo: potere, ego e denaro contro preoccupazione ed etica. OpenAI ha una valutazione di oltre 85 miliardi di dollari e i suoi investitori, tra cui Microsoft, non volevano vedere tutto evaporare con la partenza di Altman, il che ha causato una rivolta dello staff e un potenziale esodo di talenti nella startup. Allo stesso tempo, i ricercatori, gli ingegneri e gli eticisti che lavorano su questa tecnologia erano cauti e consapevoli delle sue possibili implicazioni per il futuro dell’umanità, che non sono tutte positive, e di come il leader di OpenAI stesse guidando l’innovazione tecnologica.

“Il disastro di OpenAI ha dimostrato che costruire sistemi di intelligenza artificiale mette alla prova la capacità dei manager d’azienda di voler fare soldi in sintonia con i ricercatori preoccupati che ciò che stanno sviluppando potrebbe eliminare posti di lavoro o diventare una minaccia se tecnologie come le armi autonome diventano incontrollabili”, ha scritto il New York Times nella sua sintesi dei Cinque Giorni di Caos.

“La crisi di OpenAI sta personificando una domanda che bolle nell’industria dell’IA e crea angoscia tra i colossi tecnologici e i leader mondiali: chi può essere considerato affidabile per aprire la scatola di Pandora che rappresenta l’intelligenza artificiale?”, ha osservato il Wall Street Journal nella sua indagine sul retroscena.

L’articolo della rivista The Atlantic riporta questo titolo: Il denaro vince sempre.

Altman, che era nella shortlist di Time Magazine per la persona dell’anno, ha raccontato a Trevor Noah, in un’intervista pubblicata 12 giorni dopo il suo licenziamento e la sua riassunzione, che ha ricevuto così tanti messaggi nei 30 minuti successivi al licenziamento che il suo iPhone è “impallinato”.

“Ero nella mia stanza d’albergo, ho ricevuto questa chiamata, non avevo idea di cosa sarebbe stata e sono stato licenziato dal consiglio. Sembrava un sogno. Ero confuso. Era caotico. Non sembrava reale. Ovviamente, ero sconvolto e dolorante. Ma la confusione era l’emozione dominante in quel momento… come in una nebbia, in uno stato di confusione. Ero, tipo, non capivo cosa stesse accadendo. È successo in un modo, secondo me, pazzesco e senza precedenti. E poi, nei successivi trenta minuti, il mio telefono… ho ricevuto così tanti messaggi che iMessage si è bloccato sul mio telefono. Sono ancora, tipo, un po’ sotto shock e sto cercando di raccogliere i pezzi. So che, man mano che avrò tempo per sedermi e processare tutto questo, avrò molte più emozioni al riguardo.”

Nella conversazione di un’ora, Noah ha anche chiesto informazioni sulle preoccupazioni che la genIA causerà l’apocalisse. Ci sono molte domande sul debutto di ChatGPT nel novembre 2022 e se l’azienda ha considerato le implicazioni prima di avviare una corsa agli armamenti nella Silicon Valley, provocando Meta, Google e Microsoft ad accelerare e accelerare lo sviluppo dell’IA. “La velocità è ancora più importante che mai”, ha detto un dirigente di Microsoft ai dipendenti, secondo il New York Times. L’esecutivo avrebbe detto che sarebbe “un errore assolutamente fatale in questo momento preoccuparsi delle cose che possono essere risolte in seguito”.

Ma tutto può essere risolto in seguito? Altman, 38 anni, ha detto a Noah che non è esattamente possibile rendere l’IA generativa completamente sicura. “Diciamo che gli aerei sono sicuri, ma gli aerei si schiantano ancora molto raramente, incredibilmente raramente, secondo me. Diciamo che i farmaci sono sicuri, ma… la FDA certificherà comunque un farmaco che può far morire alcune persone ogni tanto. E quindi la sicurezza è come la società che decide che qualcosa è accettabilmente sicuro, dato i compromessi rischio-ricompensa. E questo, penso, possiamo raggiungerlo. Ma non significa che le cose non andranno davvero male”.

Per quanto riguarda il suo scenario catastrofico, Altman ha detto che i compromessi rischio-ricompensa significano che l’umanità dovrà solo risolvere il problema.

“La società ha, come, effettivamente un processo abbastanza buono – caotico, ma buono – per determinare collettivamente quali dovrebbero essere le soglie di sicurezza”, ha detto Altman a Noah. “Penso che come mondo dobbiamo affrontare questo… l’idea che ci sia un rischio catastrofico o potenzialmente persino esistenziale, in un modo che, solo perché non possiamo definirlo con precisione, non significa che possiamo ignorarlo. E quindi stiamo facendo molto lavoro qui per cercare di prevedere e misurare quali potrebbero essere questi problemi, quando potrebbero presentarsi, come li rileveremmo in anticipo”.

Sì, dormirò meglio stanotte. E tu?

Ecco altre cose sull’IA che vale la pena tenere d’occhio.

L’UE si accorda sulla “storica” legislazione sull’IA

Un mese dopo che l’amministrazione Biden ha emesso un decreto esecutivo che mira a porre limiti allo sviluppo e all’uso dell’IA, i legislatori dell’Unione Europea il 8 dicembre hanno concordato una “nuova legge estesa per regolare l’intelligenza artificiale, uno dei primi tentativi completi al mondo di limitare l’uso di una tecnologia in rapida evoluzione”, secondo il New York Times.

Il AI Act, che avrà effetti sulle aziende tecnologiche dei 27 paesi dell’UE e cercherà di proteggere 450 milioni di consumatori, “apre la strada a ciò che potrebbe diventare uno standard globale per classificare il rischio, garantire la trasparenza e multare finanziariamente le aziende tecnologiche per la non conformità”, ha detto il Washington Post. Le aziende rischiano multe fino al 7% del loro fatturato globale.

“Storico! L’UE diventa il primo continente a stabilire regole chiare per l’uso dell’IA”, ha scritto il commissario europeo Thierry Breton su X. “Il #AIAct è molto più di un libro di regole: è un trampolino di lancio per le startup e i ricercatori dell’UE per guidare la gara globale sull’IA”.

Si prevede che la legge sia finalizzata nel 2024 e “non entrerà in vigore prima del 2025”, ha notato The Guardian.

L’AI Alliance lavora sul dilemma rischio-ricompensa dell’IA

IBM e Meta si sono unite questa settimana per lanciare l’AI Alliance, una collaborazione che coinvolge oltre 50 aziende, università, gruppi di ricerca, agenzie scientifiche e leader dell’IA, al fine di garantire che “l’innovazione aperta nell’IA benefici per tutti e che sia costruita in modo responsabile”.

OpenAI non è tra coloro che si sono iscritti, né Google.

“Crediamo che sia meglio quando l’IA viene sviluppata in modo aperto – più persone possono accedere ai benefici, costruire prodotti innovativi e lavorare sulla sicurezza”, ha detto Nick Clegg, presidente degli affari globali per Meta. L’azienda ha creato il modello di linguaggio Llama 2 large, o LLM, gratuito e open source, che è un’alternativa alla tecnologia di Open AI e di Google.

Google intensifica la corsa agli armamenti dell’IA con Gemini, in un certo senso

Google, che permette alle persone di giocare con l’IA attraverso il suo chatbot Bard, la scorsa settimana ha rilasciato un aggiornamento del LLM Gemini che alimenta il suo chatbot. L’aggiornamento rappresenta una “partenza drammatica per l’IA”, secondo Stephen Shankland di ENBLE, e aumenta la posta in gioco rispetto a OpenAI rivale. La novità: la capacità di Gemini di andare oltre le attività di IA basate su testo, come il riassunto di documenti e la scrittura di codice di programmazione, per comprendere video, audio e foto. Ciò significa essere in grado di capire gesti con le mani in un video.

“La chat basata su testo è importante, ma gli esseri umani devono elaborare informazioni molto più ricche mentre abitano il nostro mondo tridimensionale in continua evoluzione”, ha detto Shankland. “E rispondiamo con abilità di comunicazione complesse, come il linguaggio parlato e le immagini, non solo con parole scritte. Gemini è un tentativo di avvicinarsi alla nostra più ampia comprensione del mondo”.

Google, che sta lavorando per superare i rivali, tra cui OpenAI e Meta, ha dichiarato che consegnerà le capacità di Gemini l’anno prossimo ai miliardi di persone che utilizzano i suoi prodotti, tra cui la ricerca, Chrome, Google Docs e Gmail. “Da molto tempo volevamo costruire una nuova generazione di modelli di IA ispirati al modo in cui le persone comprendono e interagiscono con il mondo – un’IA che si sente più come un collaboratore utile e meno come un pezzo di software intelligente”, ha detto Eli Collins, vice presidente del prodotto presso la divisione DeepMind di Google, a ENBLE.

Ma c’è un piccolo intoppo. Shankland ha osservato che sebbene il video promozionale di Google per l’aggiornamento Gemini “non rappresenti fondamentalmente in modo errato le capacità di Gemini”, è in linea con i comuni spot promozionali che “rendono i prodotti più affascinanti di quanto non siano realmente”. Google, ha detto, ha incluso una dichiarazione di non responsabilità nel video, affermando che Gemini non risponde così velocemente come mostrato.

In conclusione: siamo in una corsa agli armamenti dell’IA e le aziende si stanno muovendo per avere il sopravvento. Ma come ha scritto Parmy Olson di Bloomberg, “prendete l’ultima dimostrazione di Google di correre in vantaggio con un pizzico di sale”.

L’app Seeing AI di Microsoft è ora disponibile su Android

Nella scelta di questa settimana per la tecnologia a fini benefici, Microsoft ha detto che ha reso disponibile gratuitamente la sua app Seeing AI sul Google Play Store per i 3 milioni di utenti Android e ha detto che è disponibile in 18 lingue, con l’intenzione di espandersi a 36 il prossimo anno.

“Seeing AI descrive l’ambiente di una persona ed è progettata per aiutare le persone non vedenti e ipovedenti a svolgere compiti come la lettura della posta, l’identificazione dei prodotti e la descrizione delle foto”, ha scritto Abrar Al-Heeti di ENBLE. “Gli utenti puntano la telecamera del loro telefono, scattano una foto e poi sentono una descrizione”.

L’app ha diverse categorie per varie attività: la funzione di testo breve pronuncia il testo ad alta voce non appena il testo appare davanti alla fotocamera; la funzione Persone identifica le persone intorno a te; la funzione Valuta identifica il denaro. Nel frattempo, la funzione Scene ti permette di sentire una descrizione di un ambiente che hai fotografato, permettendoti di muovere il dito sullo schermo per sentire la posizione di oggetti diversi.

Seeing AI può anche identificare i colori e leggere testi scritti a mano, come nelle cartoline di auguri – molto utile per coloro di noi che ricevono cartoline natalizie da persone con una brutta calligrafia (non che io mi lamenti di ricevere una cartolina).

Oltre all’inglese, l’app è disponibile in ceco, danese, olandese, finlandese, francese, tedesco, greco, ungherese, italiano, giapponese, coreano, norvegese bokmål, polacco, portoghese, russo, spagnolo, svedese e turco.

Cosa dovrebbe sapere ogni amministratore delegato sull’IA

Non sei ancora sicuro di cosa si tratti il genAI? O magari pensi di sapere di cosa si tratta? In entrambi i casi, McKinsey ha condiviso una guida di 17 pagine lo scorso maggio (che ho appena scoperto) dal titolo “Cosa dovrebbe sapere ogni amministratore delegato sull’IA generativa”. È un’introduzione utile, che tu sia capo di un’azienda o meno.

A proposito del fatto che ChatGPT ha raggiunto 100 milioni di utenti in soli due mesi, McKinsey ha affermato: “Ha democratizzato l’IA in modo mai visto prima diventando, di gran lunga, l’app in più rapida crescita di sempre. La sua accessibilità immediata rende l’IA generativa diversa da tutta l’IA che l’ha preceduta. Gli utenti non hanno bisogno di una laurea in apprendimento automatico per interagire con essa o trarne valore; praticamente chiunque sappia fare domande può usarla”.

Per quanto riguarda le aziende che “potrebbero vedere un’opportunità di superare la concorrenza reinventando il modo in cui gli esseri umani svolgono il lavoro”, McKinsey mette in guardia su un’importante questione che, secondo me, viene persa in mezzo a tutte le fantasie magiche sul genAI: “Le aziende dovranno anche valutare se dispongono delle competenze tecniche necessarie, della tecnologia e dell’architettura dei dati, del modello operativo e dei processi di gestione dei rischi che alcune delle implementazioni più trasformative dell’IA generativa richiederanno”.

Buona lettura.

Da McDonald’s, quelle patatine arriveranno con un tocco di IA

Al primo sguardo, la notizia che McDonald’s utilizzerà la tecnologia cloud di IA di Google per ottimizzare le operazioni dei suoi ristoranti sembrava la solita storia di “guarda chi si è unito come cliente” per Google.

Ma mi piace il messaggio (gioco di parole completamente intenzionale) che potrebbe significare che l’IA consentirà ai ristoranti McDonald’s di produrre hamburger e patatine migliori per i clienti, che spesso utilizzano un’app mobile o quei chioschi di self-service per ordinare un pasto. “La più grande catena di ristoranti del mondo, ha notato The Street, afferma che questa mossa porterà in modo complessivo “benefici per i clienti come cibo più caldo e fresco” in tutto il sistema di ristoranti veloci della catena a livello globale.

Nel caso in cui tu non lo sapessi, McDonald’s ha più di 38.000 ristoranti in tutto il mondo, in oltre 100 paesi.

Termine AI della settimana: Large Language Models (LLM)

Con tutto il parlare dell’ondata di genAI in Silicon Valley, basata sulla tecnologia dei Large Language Models (LLM) di queste aziende, ho pensato che fosse utile offrire alcune definizioni.

La prima è da Andreeesen Horowitz, società di venture capital, che ne offre una definizione semplice.

“Large Language Model (LLM): Un tipo di modello di IA che può generare testi simili a quelli umani ed è addestrato su un ampio insieme di dati testuali.”.

La società di ricerca di mercato Gartner offre una risposta leggermente più dettagliata.

“Large Language Models (LLM): Un tipo specializzato di intelligenza artificiale (IA) che è stato addestrato su vasti quantitativi di testi per comprendere i contenuti esistenti e generare contenuti originali.”

E per una risposta ancora più dettagliata, sono andato all’Alan Turing Institute:

“Large Language Model: Un tipo di modello di base addestrato su una vasta quantità di dati testuali per svolgere compiti relativi al linguaggio. I large language models alimentano la nuova generazione di chatbot e possono generare testo indistinguibile da quello scritto da esseri umani. Fanno parte di un campo di ricerca più ampio chiamato elaborazione del linguaggio naturale e sono tipicamente molto più semplici nella progettazione rispetto ai modelli di linguaggio più piccoli e tradizionali.”.

Nota degli editori: ENBLE sta utilizzando un motore di intelligenza artificiale per aiutare a creare alcune storie. Per saperne di più, consulta questo articolo.