Non chiedere a robot stupidi se l’IA distruggerà l’umanità

Don't ask dumb robots if AI will destroy humanity.

All’inizio di questo mese, diversi importanti media hanno riportato la notizia che l’intelligenza artificiale non rappresenterà un pericolo per l’umanità. La fonte di questa rassicurante notizia? Un gruppo di teste di robot umanoidi connesse a semplici chatbot.

Le storie sono emerse da un panel tenutosi durante una conferenza delle Nazioni Unite a Ginevra chiamata IA per il Bene Comune, dove diversi umanoidi sono apparsi insieme ai loro creatori. Ai giornalisti è stato chiesto di porre domande ai robot, tra cui Sophia, una macchina creata da Hanson Robotics che ha acquisito notorietà per le sue apparizioni in talk show e, in modo bizzarro, per aver ottenuto lo status legale di persona in Arabia Saudita.

Le domande includevano se l’IA distruggerà l’umanità o ruberà posti di lavoro. Le loro risposte sono state possibili grazie alla tecnologia dei chatbot, simile a quella che alimenta ChatGPT. Ma nonostante le ben note limitazioni di tali bot, le risposte dei robot sono state riportate come se fossero opinioni significative di entità autonome e intelligenti.

Perché è successo questo? I robot in grado di mimare visivamente le espressioni umane suscitano una risposta emotiva negli osservatori perché siamo così predisposti a cogliere tali segnali. Ma permettere a ciò che non è altro che una forma avanzata di burattinaggio di nascondere le limitazioni dell’attuale IA può confondere le persone che cercano di comprendere la tecnologia o le preoccupazioni recenti riguardo ai problemi che potrebbe causare. Sono stato invitato alla conferenza di Ginevra e quando ho visto Sophia e gli altri robot elencati come “relatori”, ho perso interesse.

È frustrante vedere tali sciocchezze in un momento in cui esperti più affidabili mettono in guardia sui rischi attuali e futuri dell’IA. Gli algoritmi di apprendimento automatico stanno già aggravando i pregiudizi sociali, diffondendo disinformazione e aumentando il potere di alcune delle più grandi società e governi del mondo. Gli esperti di IA più importanti temono che il ritmo di progresso possa produrre algoritmi difficili da controllare nel giro di pochi anni.

Hanson Robotics, l’azienda che produce Sophia e altri robot realistici, è incredibilmente abile nel costruire macchine che imitano le espressioni umane. Alcuni anni fa ho visitato la sede dell’azienda a Hong Kong e ho incontrato il fondatore David Hanson, che in passato ha lavorato per Disney, durante la colazione. Il laboratorio dell’azienda sembrava qualcosa tra Westworld e Blade Runner, con robot scollegati che guardavano tristemente nel vuoto, volti appassiti su mensole e prototipi che balbettavano le stesse parole in un ciclo infinito.

Fotografia: Will Knight

Con Hanson abbiamo parlato dell’idea di aggiungere una vera intelligenza a queste suggestive macchine. Ben Goertzel, un noto ricercatore di IA e CEO di SingularityNET, guida un progetto per applicare i progressi nell’apprendimento automatico al software all’interno dei robot di Hanson che permette loro di rispondere al linguaggio umano.

L’IA dietro a Sophia a volte può fornire risposte accettabili, ma la tecnologia non è affatto avanzata come un sistema come GPT-4, che alimenta la versione più avanzata di ChatGPT e che ha richiesto un costo di oltre 100 milioni di dollari per essere creato. E naturalmente anche ChatGPT e altri programmi di IA all’avanguardia non possono rispondere in modo sensato alle domande sul futuro dell’IA. Potrebbe essere meglio pensare a loro come a imitazioni straordinariamente conoscitive e dotate di una ragionamento sorprendentemente sofisticato, ma profondamente difettose e con una “conoscenza” limitata del mondo.

Le “interviste” fuorvianti di Sophia e degli altri a Ginevra sono un ricordo di come l’antropomorfizzazione dei sistemi di intelligenza artificiale possa trarci in inganno. La storia dell’IA è piena di esempi di esseri umani che traggono conclusioni eccessive dai nuovi progressi nel campo.

Nel 1958, all’alba dell’intelligenza artificiale, il New York Times scrisse di uno dei primi sistemi di apprendimento automatico, una rete neurale artificiale rudimentale sviluppata per la Marina degli Stati Uniti da Frank Rosenblatt, uno psicologo di Cornell. “La Marina ha rivelato l’embrione di un computer elettronico che si aspetta sarà in grado di camminare, parlare, vedere, scrivere, riprodursi e essere consapevole della sua esistenza”, riferì il Times – una dichiarazione audace su un circuito capace di imparare a identificare schemi in 400 pixel.

Se si guarda indietro alla copertura del Deep Blue, il computer scacchistico di IBM, del campione di Go AlphaGo di DeepMind e molti dei grandi progressi dell’ultimo decennio nell’apprendimento approfondito, che discendono direttamente dalla macchina di Rosenblatt, si vedrà molto di simile: le persone prendono ogni avanzamento come se fosse un segno di un’intelligenza più profonda e simile a quella umana.

Questo non significa che questi progetti – o addirittura la creazione di Sophia – non siano imprese notevoli o potenziali passi verso macchine più intelligenti. Ma essere realisti sulle capacità dei sistemi di intelligenza artificiale è importante quando si tratta di valutare i progressi di questa potente tecnologia. Per dare un senso ai progressi dell’IA, il minimo che possiamo fare è smettere di fare domande sciocche alle marionette animatroniche.