L’IA e la sfida della ricorsione

Entrambi GPT-3.5 e GPT-4 di OpenAI hanno fallito di fronte a livelli sempre più complessi di questa fondamentale attività informatica, indicando una falla fondamentale nel loro design.

L’IA generativa non è all’altezza di questa capacità di pensiero umano troppo comune.

russian-dollgettyimages-1388603518
Foto di Getty Images

Uno dei concetti sublimi che gli esseri umani comprendono intuitivamente è il concetto di ricorsione, in cui qualcosa contiene una sorta di ripetizione di sé stesso che si estende all’infinito. Un “film all’interno di un film” potrebbe essere un esempio di ricorsione. Le famose “bambole russe” Matryoshka dalla Russia, dove ogni bambola di legno si apre per rivelare una bambola più piccola, sono un adorabile esempio di ricorsione.

Una foto di te che tieni in mano una foto di te stesso in cui stai tenendo una foto di te stesso, all’infinito, è una fantastia visiva ricorsiva classica che crea delizia in chiunque.

🌟 Inoltre: Il 2024 potrebbe essere l’anno in cui l’IA impara nel palmo della tua mano

Ma quando si tratta di programmi di intelligenza artificiale (IA), inclusi i programmi di IA generativa come ChatGPT, la ricorsione presenta una sfida. Gli studiosi dell’Università di Illinois Urbana-Champaign hanno scoperto che l’IA fatica a gestire in modo coerente la ricorsione, il che influisce sulle sue prestazioni in varie attività. Ad esempio, l’IA può fraintendere il codice con blocchi nidificati o produrre parentesi quadre sbilanciate in compiti di programmazione.

Secondo l’autore principale Shizhuo Dylan Zhang e i suoi colleghi nel loro articolo “I modelli basati su Transformer non sono ancora perfetti nel imparare a emulare la ricorsione strutturale”, pubblicato sul server pre-print arXiv questo mese, questa limitazione ha implicazioni significative per la capacità dell’IA di elaborare compiti di programmazione complessi che coinvolgono modelli ricorsivi.

La sfida ricorsiva

Per indagare l’impatto della ricorsione sui grandi modelli di linguaggio (LLM), Zhang e il suo team hanno ideato un test utilizzando GPT-3.5 “Turbo” e GPT-4 – i modelli più potenti di OpenAI. Hanno fornito a questi modelli un prompt contenente un problema di attraversamento di alberi, un esempio di attraversamento dell’albero ed istruzioni per eseguire l’attraversamento. L’obiettivo era vedere se i modelli potevano generare una soluzione per l’attraversamento insieme a una spiegazione della regola utilizzata.

Alla crescita della profondità dell’albero, le prestazioni dei modelli di linguaggio sono diminuite. Gli autori hanno scoperto che i LLM faticano a eseguire l’operazione di “riduzione” richiesta – sostituire un elemento nell’albero con il suo elemento ricorsivo per continuare l’attraversamento. Questa limitazione mette in evidenza la sfida che i LLM affrontano nel mantenere la coerenza algoritmica su sequenze estese, in particolare compiti che richiedono un preciso ordine di operazioni.

🌟 Inoltre: OpenAI presenta GPT-4 Turbo ‘meno pigro’, riduzione prezzi e nuovi modelli aggiornati

Inoltre, i modelli di linguaggio non riescono a fornire una spiegazione della regola dall’esempio fornito nel prompt che potrebbe portare a un attraversamento di successo. Zhang e il suo team sottolineano che i LLM faticano a derivare le regole corrette dagli esempi in contesto e affrontano sfide nell’eseguire la riduzione passo passo in contesto.

Implicazioni e future direzioni

L’incapacità dei LLM di gestire la ricorsione riflette una mancanza di ragionamento logico, secondo Zhang e il suo team. Eseguire ogni passaggio di riduzione in un attraversamento di albero richiede un sofisticato ragionamento logico, che attualmente manca nei programmi. Tuttavia, anche gli esseri umani con limitate competenze di logica formale possono comprendere il concetto di ricorsione senza sforzo, apprezzandolo in vari contesti.

Su un livello più semplice, i creatori dei modelli GPT devono riconsiderare il loro design. Gli autori ipotizzano che i modelli non siano stati ottimizzati per rappresentare in modo efficace i modelli ricorsivi. Nei loro esperimenti di apprendimento in contesto, hanno scoperto che i LLM tendono ad estrarre regole non ricorsive dai dati e mancano di precisione nell’eseguire la riduzione passo passo. Gli autori suggeriscono che sia necessaria un’ulteriore ottimizzazione per migliorare la capacità dei modelli di pensare in modo ricorsivo.

🌟 Inoltre: Come i progressi nell’IA di Apple potrebbero fare o rompere l’iPhone 16

Questo studio mette in evidenza le sfide poste dalla ricorsione e il suo impatto sulle prestazioni dei sistemi di intelligenza artificiale. Sebbene i programmi possano compensare in qualche misura utilizzando strategie apprese, l’assenza di capacità di ricorsione limiterà inevitabilmente il loro potenziale. Come evidenziano Zhang e il suo team, questa limitazione ha conseguenze su compiti come la scrittura di saggi e la programmazione informatica, dove i modelli ricorsivi svolgono un ruolo significativo.

Per saperne di più sugli avanzamenti dell’IA e sulle loro implicazioni, dai un’occhiata a questi articoli correlati:

  1. Per l’era del PC dell’IA, ecco un nuovo test di velocità
  2. Come SuperDuperDB offre un facile accesso alle app dell’IA
  3. CPU per PC AMD di fascia media, GPU per giochi entry-level al CES

Ora, esploriamo alcune domande aggiuntive che potresti avere sull’IA e sulla ricorsione.

Q&A

Q: Ci sono modelli di IA in grado di gestire la ricorsione? A: Sebbene lo studio si concentri sulle limitazioni di modelli di linguaggio specifici come GPT-3.5 “Turbo” e GPT-4, ciò non significa che non esistano modelli di IA in grado di gestire la ricorsione. I ricercatori lavorano costantemente al miglioramento dei modelli di IA e futuri avanzamenti potrebbero risolvere questa limitazione.

Q: Come potrebbe l’incapacità di gestire la ricorsione influire sulle prestazioni dell’IA nella scrittura di saggi? A: Spesso la scrittura di saggi richiede la capacità di strutturare argomenti e idee in modo coerente e logico. La ricorsione gioca un ruolo nello sviluppo di argomenti complessi e sfumati. Se i programmi di IA faticano con la ricorsione, potrebbero avere difficoltà a generare saggi con analisi approfondite e flusso logico.

Q: È possibile addestrare i programmi di IA per superare le sfide della ricorsione? A: È possibile addestrare i programmi di IA per gestire meglio la ricorsione. Tuttavia, ciò richiede un’ottimizzazione attenta e adeguamenti nel processo di addestramento per mettere l’accento sulla capacità di pensare in modo ricorsivo. Ricerche future potrebbero esplorare tecniche per migliorare la comprensione e l’elaborazione della ricorsione da parte dei modelli di IA.

Q: Quali altre applicazioni o settori potrebbero essere influenzati dalla difficoltà dell’IA con la ricorsione? A: Oltre alla programmazione e alla scrittura di saggi, la difficoltà dell’IA con la ricorsione potrebbe influire su settori che si basano fortemente su pattern ricorsivi, come l’elaborazione del linguaggio naturale, il riconoscimento delle immagini e l’analisi dei dati. Gli algoritmi ricorsivi svolgono un ruolo cruciale in varie attività di calcolo, e le limitazioni dell’IA in questo campo potrebbero ostacolare le sue prestazioni in questi settori.

Q: Ci sono approcci alternativi per superare la limitazione dell’IA con la ricorsione? A: I ricercatori potrebbero esplorare approcci ibridi che combinano i punti di forza dei modelli di IA con algoritmi più specifici del dominio progettati per gestire la ricorsione. Integrando metodologie ricorsive nell’addestramento dei modelli di IA, gli sviluppatori potrebbero migliorarne la capacità di ragionare in modo ricorsivo.

🌟 Se hai trovato questo articolo informativo e interessante, assicurati di condividerlo sui social media!

Ora, tocca a te. Cosa ne pensi della sfida dell’IA con la ricorsione? Come pensi che i progressi nei modelli di IA possano affrontare questa limitazione? Condividi le tue opinioni nei commenti qui sotto!