Di cosa si tratta davvero l’intelligenza artificiale generale? Conquistare l’ultima tappa della corsa agli armamenti dell’IA

What is General Artificial Intelligence really about? Conquering the final stage of the AI arms race.

Dal suo rilascio nel novembre 2022, ChatGPT è stato acclamato come una delle applicazioni software consumer più impressionanti e di successo nella storia. Il suo rilascio ha scatenato una nuova fase della corsa all’IA, suscitando panico e azioni precipitose da parte dei pesi massimi di Silicon Valley, Meta, Google e Amazon.

Inoltre: Cos’è l’IA: tutto ciò che bisogna sapere sull’intelligenza artificiale

Ma mentre l’euforia si attenua per ChatGPT e altri grandi modelli di linguaggio, le aziende di intelligenza artificiale puntano a realizzare un agente intelligente che superi le meraviglie dei modelli di IA attuali: l’intelligenza artificiale generale (AGI).

Cos’è l’intelligenza artificiale generale?

L’AGI è un agente intelligente ipotetico che può raggiungere gli stessi traguardi intellettuali degli esseri umani. Potrebbe ragionare, strategizzare, pianificare, usare il giudizio e il buon senso, e rispondere e rilevare pericoli o pericoli.

Questo tipo di intelligenza artificiale è molto più capace dell’IA che alimenta le fotocamere dei nostri smartphone, guida i veicoli autonomi o completa le complesse attività che vediamo svolte da ChatGPT.

Cosa differenzia l’IA dall’AGI?

Drew Sonden, responsabile prodotto EMEA presso SS&C Blue Prism, afferma che i chatbot di intelligenza artificiale come ChatGPT e Google Bard sono considerati IA ristrette. L’IA ristretta è classificata come un’IA che utilizza algoritmi per completare un compito senza imparare nulla da quel compito o applicare le conoscenze a un altro compito.

“Un vero AGI sarebbe in grado di intraprendere conversazioni, svolgere attività di pianificazione dettagliate, fornire intuizioni matematiche, creare opere d’arte innovative – in teoria, svolgere qualsiasi compito”, afferma Sonden.

Inoltre: Anche Google sta avvertendo i suoi dipendenti sull’uso di chatbot di intelligenza artificiale

Caratteristica speciale

L’ascesa dell’IA generativa

Una nuova ondata di strumenti di intelligenza artificiale ha conquistato il mondo e ci ha dato una visione di un nuovo modo di lavorare e trovare le informazioni che possono ottimizzare il nostro lavoro e le nostre vite. Ti mostriamo i modi in cui strumenti come ChatGPT e altri software di intelligenza artificiale generativa stanno avendo un impatto sul mondo, come sfruttarne il potere, nonché i potenziali rischi.

Drew Sonden, responsabile prodotto EMEA presso SS&C Blue Prism, afferma che i chatbot di intelligenza artificiale come ChatGPT e Google Bard sono considerati IA ristrette. L’IA ristretta è classificata come un’IA che utilizza algoritmi per completare un compito senza imparare nulla da quel compito o applicare le conoscenze a un altro compito.

“Un vero AGI sarebbe in grado di intraprendere conversazioni, svolgere attività di pianificazione dettagliate, fornire intuizioni matematiche, creare opere d’arte innovative – in teoria, svolgere qualsiasi compito”, afferma Sonden.

Inoltre: Anche Google sta avvertendo i suoi dipendenti sull’uso di chatbot di intelligenza artificiale

L’AGI potrebbe cambiare il nostro mondo, far avanzare la nostra società e risolvere molti dei complessi problemi che l’umanità affronta, per i quali una soluzione è al di là della portata degli esseri umani. Potrebbe persino individuare problemi che gli umani non sanno nemmeno che esistano.

“Se implementata in vista delle nostre sfide più grandi, [AGI] può portare progressi fondamentali nell’assistenza sanitaria, migliorare il modo in cui affrontiamo il cambiamento climatico e sviluppare l’istruzione”, afferma Chris Lloyd-Jones, responsabile dell’innovazione aperta presso Avande.

Per affrontare un problema come il cambiamento climatico, l’AGI potrebbe accedere a Internet e analizzare tutta la ricerca esistente sul cambiamento climatico. Quindi, potrebbe creare soluzioni valutando ogni possibile risultato. L’AGI potrebbe fungere da flusso di coscienza più capace degli esseri umani, senza mai aver bisogno di riposare o apprendere ulteriori informazioni.

Inoltre: Cos’è ChatGPT e perché è importante?

Tuttavia, il raggiungimento dell’AGI è ancora lontano, o almeno non è un traguardo che può essere raggiunto presto. Le opinioni degli esperti variano; alcuni dicono che potrebbero volerci tre anni, mentre altri dicono che potrebbero volerci decenni prima che gli esseri umani possano raggiungere l’AGI.

L’IA è un’area eccitante di innovazione, e dove ci troviamo oggi sembrava un tempo lontano anni luce da raggiungere. Ma il percorso verso l’AGI non è iniziato con ChatGPT. La corsa all’AGI è uno sforzo espansivo a livello mondiale che coinvolge ricercatori, ingegneri, grandi pensatori e governi che lavorano insieme.

È l’AGI una minaccia per l’umanità?

Un essere intelligente capace di intelligenza paragonabile o più avanzata rispetto agli esseri umani potrebbe portare innovazioni alla società che fino ad ora sono state solo immaginate nella fantascienza. Ma dietro ogni tecnologia trasformativa, c’è il possibile danno che ne deriva.

L’AGI comporta rischi considerevoli e gli esperti hanno avvertito che gli sviluppi dell’IA potrebbero causare ingenti perturbazioni per l’umanità. Ma le opinioni degli esperti variano nella quantificazione dei rischi che l’AGI potrebbe rappresentare per la società.

La maggior parte degli esperti concorderebbe sul fatto che l’AGI da sola non è necessariamente un rischio per l’umanità, ma sono le mani che manovrano l’essere intelligente a determinare quanto questa tecnologia possa essere utile o dannosa.

Aaron McClendon, responsabile di AI presso Aimpoint Digital, ha sottolineato l’importanza di diffondere l’accesso a esseri generalmente intelligenti e assicurarsi che nessun gruppo di persone o paesi monopolizzi l’AGI.

“Se l’AGI porta a un significativo aumento di ricchezza e produttività, questi benefici dovrebbero essere condivisi ampiamente anziché concentrati nelle mani di pochi,” afferma.

Inoltre: Cosa succede se un’intelligenza artificiale superintelligente diventa indisciplinata? OpenAI non vuole scoprirlo

Nigel Cannings, CTO e fondatore di Intelligent Voice, ha un sentimento simile. Un essere generalmente intelligente imparerebbe la morale, la ragione e il giudizio dagli esseri umani che lo insegnano. Le conseguenze potrebbero essere gravi se indirizzate nella direzione sbagliata.

“…[È] l’essere umano che opera le macchine che ha un grande potere ed è molto più preoccupante. È probabile che ogni macchina che raggiunga un certo livello di coscienza o intelligenza diventi malvagia solo se spinta in quella direzione dai suoi padroni umani,” afferma Cannings. “Lasciata a se stessa, è probabilmente più propensa a essere equa e imparziale nel suo approccio all’umanità.”

Quanto siamo vicini a raggiungere l’AGI?

Secondo Wei Xu, professore assistente presso il College of Computing del Georgia Institute of Technology, possiamo risalire alla ricerca per raggiungere l’AGI all’avvento dei sistemi informatici negli anni ’50.

Xu cita il test di Turing, un test creato da Alan Turing nel 1950 in cui un umano e una macchina si impegnano in una conversazione basata su testo, e la conversazione viene valutata da un giudice. Se il giudice non riesce a distinguere quale conversatore sia umano e quale sia una macchina, allora la macchina supera il test di Turing.

Inoltre: Umano o bot? Questo gioco del test di Turing mette alla prova le tue capacità di individuazione dell’IA

Xu menziona anche il General Problem Solver, un programma informatico creato da due scienziati informatici nel 1956. I due credevano che insegnare a una macchina a utilizzare simboli per connettersi con il mondo attorno a sé avrebbe portato alla creazione di un’intelligenza generale.

Sia il test di Turing che il General Problem Solver sono stati i primi tentativi di creare e testare la capacità di agire in modo intelligente di una macchina. E questi test ci portano ad oggi, dove il successo dei modelli di linguaggio come ChatGPT e GPT-4 è il culmine della ricerca e una testimonianza dello spirito di innovazione umana.

Xu definisce l’AGI come “il Santo Graal della scienza informatica”, poiché unisce molte tecnologie per creare un essere intelligente generale e unificato in grado di completare compiti e risolvere problemi. Applicazioni come ChatGPT e DALL-E possono produrre testo e generare opere d’arte in modo indipendente, ma l’AGI potrebbe fare entrambe le cose – e molto di più.

Inoltre: L’IA può scrivere le tue e-mail e i tuoi saggi. Ma può esprimere le tue emozioni? Dovrebbe?

“È più efficiente, più conveniente e più impressionante avere un unico prodotto con un’interfaccia utente che può fare più cose contemporaneamente,” afferma.

Gli esperti sono cauti nel dire esattamente quanti anni potremmo aspettarci di vedere l’AGI, ma Lloyd-Jones ha un’idea. Egli afferma che sebbene i modelli di linguaggio come ChatGPT siano impressionanti e rivoluzionari, non possono creare nuove idee, ma la tecnologia che può farlo è all’orizzonte.

“I modelli di intelligenza artificiale sono buoni solo quanto il set di dati utilizzato per addestrarli, e non sono in grado di creare nuovi stili di arte o poesia, ad esempio. Non abbiamo ancora un set di dati perfetto per questo scopo,” afferma. “Personalmente, con il ritmo dello sviluppo, penso che saremo all’80% del traguardo entro cinque anni.”

Ma Cannings afferma che siamo ancora lontani dal raggiungere l’AGI e non possiamo sapere con precisione quando potrebbe accadere. Egli sostiene che i chatbot basati su intelligenza artificiale mostrano avanzamenti nell’ingegneria, ma mancano pesantemente delle caratteristiche necessarie all’intelligenza umana.

Inoltre: GLI non sono neanche intelligenti come i cani, afferma il capo scienziato dell’IA di Meta

Cannings sottolinea la difficoltà di creare un essere intelligente che possa provare emozioni, empatia e percepire – pilastri dell’esperienza umana. Egli ritiene che raggiungere l’IA generale (AGI) vada oltre le imprese ingegneristiche, ma richiederà il coinvolgimento delle definizioni filosofiche e psicologiche dell’intelligenza.

“Mentre i progressi nell’IA sono notevoli e continuano a evolversi, raggiungere l’AGI, che comprende l’intera gamma delle capacità cognitive umane, sembra essere una sfida che richiederà significativi progressi sia nel campo tecnico che in quello filosofico”, afferma.

Come dovrebbe essere regolamentata l’AGI?

Molti paesi stanno investendo nella ricerca sull’IA nella speranza di essere il primo paese a segnalare una svolta nel raggiungimento dell’AGI. McClendon osserva che, sebbene gli Stati Uniti e la Cina siano in prima linea, Canada, Regno Unito, Francia e Germania stanno facendo progressi nella corsa.

“È importante notare che raggiungere l’AGI sarà una pietra miliare scientifica e tecnologica significativa e il suo impatto sarà globale, indipendentemente da dove venga sviluppata”, afferma.

Inoltre: La Cina sta intensificando gli sforzi per promuovere lo sviluppo dell’IA

Ciò che conta per il paese in cui viene condotta la ricerca sull’IA sono le leggi di quel paese e le ragioni geopolitiche per cui un governo potrebbe sfruttare il potere dell’AGI. Le filosofie di un paese sulla regolamentazione e sull’innovazione tecnologica sono fondamentali per la velocità e l’adozione diffusa della sua tecnologia.

Bryan Cole, direttore dell’ingegneria dei clienti presso Tricentis, afferma che aziende come OpenAI, Google e Microsoft potrebbero divulgare i loro progressi verso l’AGI, ma i governi e gli Stati nazionali potrebbero essere meno aperti.

Il segreto su chi potrebbe raggiungere per primo l’AGI risiede nel dominio globale e nell’influenza, e chiunque lo raggiunga per primo potrebbe diventare più potente senza far sapere agli avversari il suo prossimo passo.

Inoltre: OpenAI potrebbe “cessare di operare” nei paesi dell’UE a causa delle normative sull’IA

“Grandi nazioni come Cina e Stati Uniti stanno investendo enormi risorse in questo perché chiunque arrivi per primo a un sistema AGI avrà probabilmente la capacità di impedire l’esistenza di qualsiasi altro sistema AGI attraverso il dominio tecnologico o il controllo”, afferma.

Ma fino a quando i paesi non raggiungeranno l’AGI, le aziende di intelligenza artificiale, i ricercatori e i legislatori devono collaborare per creare salvaguardie legali per i cittadini.

I paesi dell’UE dovranno presto aderire alle tre categorie di rischio delineate dal Regolamento dell’UE sull’IA, che garantiranno che l’IA sia regolamentata dalle persone, non dai sistemi automatizzati, per eliminare la possibilità di esiti dannosi. Le normative della Cina richiedono che i sistemi di intelligenza artificiale sostengano e si allineino ai valori politici del paese, mentre gli Stati Uniti non hanno un quadro giuridico a livello federale per regolamentare l’IA.

Inoltre: Il Regolamento dell’UE sull’IA: Ciò che devi sapere

Michael Queenan, fondatore e CEO di Nephos Technologies, afferma che i governi occidentali non dovrebbero ignorare volontariamente l’importanza vitale – e i possibili pericoli – dell’IA, altrimenti rischiano di perdere la corsa.

“La tecnologia dell’IA sta evolvendo a una velocità vertiginosa, molto più velocemente dei regolatori, e dobbiamo agire velocemente”, afferma. “Ci troviamo di fronte a uno tsunami di IA e non abbiamo un piano per affrontarlo. Occidente rischia di rimanere indietro; tuttavia, la regolamentazione è fondamentale per decidere cosa e come dovremmo utilizzarla”.

Man mano che l’IA diventa sempre più avanzata e le sue applicazioni si estendono a diversi aspetti della vita, diventa sempre più difficile per i legislatori creare leggi che definiscano chiaramente i rischi e come affrontarli.

Sarah Pearce, partner dello studio legale Hunton Andrews Kurth, afferma che i legislatori non dovrebbero spendere troppo tempo per trovare una definizione esatta di IA e dovrebbero limitare i loro sforzi a regolamentare gli output della tecnologia.

Inoltre: 3 modi in cui OpenAI afferma che dovremmo iniziare ad affrontare la regolamentazione dell’IA

“Penso che i legislatori dovrebbero concentrarsi sugli output e sull’uso della tecnologia quando cercano di legiferare su di essa, piuttosto che cercare di definire in modo eccessivamente ampio cosa sia, poiché è probabile che qualsiasi definizione sia obsoleta al momento dell’entrata in vigore della legislazione”, afferma.

Per i paesi che non hanno una legislazione federale formale sull’IA, Pearce afferma che i governi e le aziende di intelligenza artificiale dovrebbero concentrarsi sulla protezione dei dati degli utenti. Le aziende di intelligenza artificiale raccolgono e utilizzano notevoli quantità di dati per addestrare i modelli di intelligenza artificiale.

“Le aziende saranno inevitabilmente accusate di indirizzare le loro attività di raccolta verso l’eccesso e potrebbero essere chieste di spiegare se e perché conservano i dati per un periodo più lungo di quanto possa essere ritenuto necessario”, afferma Pearce. “Spesso, ciò serve per migliorare e replicare ulteriormente gli algoritmi – non necessariamente per un ulteriore guadagno commerciale”.

Inoltre: la Camera di Commercio degli Stati Uniti spinge per la regolamentazione dell’Intelligenza Artificiale, avvertendo che potrebbe sconvolgere l’economia

L’AGI, una tecnologia sognata fin dai primi albori dei computer, ci è stata mostrata in film come “Lei” di Spike Jonze, “Iron Man” di Jon Favreau e “2001: Odissea nello Spazio” di Stanley Kubrick. È il cuore pulsante della ricerca sull’Intelligenza Artificiale e è impossibile impedire a chiunque di cercare di realizzarla.

Nei nostri film preferiti, l’AGI è un compagno di fiducia, un compagno amorevole o un nemico che riconosce gli esseri umani come una minaccia per se stessi e decide di sterminare l’umanità. Quale versione vedremo? Sperimentare un agente generalmente intelligente non è più una questione di “se”, ma di “quando”.

Saremo pronti?