Ecco perché la gente dice che GPT-4 sta diventando pigro | ENBLE

Ecco perché la gente afferma che GPT-4 sta diventando sempre più pigro | ENBLE

OpenAI e le sue tecnologie sono state al centro dello scandalo per gran parte di novembre. Tra il rapido licenziamento e la riassunzione del CEO Sam Altman e il curioso caso delle iscrizioni a pagamento interrotte di ChatGPT Plus, OpenAI ha mantenuto l’industria dell’intelligenza artificiale nelle notizie per settimane.

Ora, gli appassionati di intelligenza artificiale hanno rispolverato un problema che ha molti che si chiedono se GPT-4 stia diventando “più pigro” mentre il modello linguistico continua ad essere allenato. Molti che lo usano per accelerare compiti più intensivi si sono rivolti a X (precedentemente Twitter) per esprimere le loro lamentele sui cambiamenti percepiti.

Rohit Krishnan su X ha descritto diverse delle disavventure che ha avuto usando GPT-4, che è il modello linguistico dietro ChatGPT Plus, la versione a pagamento di ChatGPT. Ha spiegato che il chatbot ha rifiutato diverse delle sue domande o gli ha dato versioni ridotte delle sue richieste quando in precedenza riusciva a ricevere risposte dettagliate. Ha anche osservato che il modello linguistico userà strumenti diversi da quelli che gli sono stati istruiti a usare, come Dall-E quando una richiesta chiede un interprete di codice. Krishnan ha anche sarcasticamente aggiunto che “error analyzing” è il modo del modello linguistico di dire “AFK, torno fra un paio d’ore”.

Matt Wensing su X ha descritto il suo esperimento, in cui ha chiesto a ChatGPT Plus di fare un elenco di date tra adesso al 5 maggio 2024, e il chatbot ha richiesto ulteriori informazioni, come il numero di settimane tra quelle date, prima di essere in grado di completare il compito iniziale.

Il professor Ethan Mollick della Wharton ha condiviso anche le sue osservazioni su GPT-4 dopo aver confrontato sequenze con l’interprete di codice che ha eseguito a luglio con le query più recenti di martedì. Ha concluso che GPT-4 ha ancora conoscenze, ma ha notato che gli ha spiegato come correggere il suo codice anziché correggerlo effettivamente. In sostanza, avrebbe dovuto fare il lavoro che stava chiedendo a GPT-4 di fare. Anche se Mollick non aveva intenzione di criticare il linguaggio, le sue osservazioni si allineano a quanto altri hanno descritto come “risposte disobbedienti” da parte di GPT-4.

ChatGPT è noto per inventare risposte per informazioni che non conosce, ma questi errori sembrano andare ben oltre gli errori comuni del chatbot AI. GPT-4 è stato introdotto nel marzo, ma già a luglio sono iniziate a circolare segnalazioni secondo cui il modello linguistico stava diventando “più stupido”. Uno studio condotto in collaborazione con l’Università di Stanford e l’Università della California, Berkeley ha osservato che l’accuratezza di GPT-4 è scesa dal 97,6% al 2,4% solo tra marzo e giugno. Ha dettagliato che la versione a pagamento di ChatGPT non era in grado di fornire la risposta corretta a un’equazione matematica con una spiegazione dettagliata, mentre la versione non a pagamento che utilizza ancora un modello GPT 3.5 più vecchio ha dato la risposta corretta e una spiegazione dettagliata del processo matematico.

In quel periodo, Peter Welinder, vicepresidente del prodotto OpenAI, ha suggerito che gli utenti intensivi potrebbero sperimentare un fenomeno psicologico in cui la qualità delle risposte potrebbe sembrare degradarsi nel tempo, quando in realtà il modello linguistico diventa più efficiente.

Secondo Mollick, anche i problemi attuali potrebbero essere temporanei e dovuti a un sovraccarico di sistema o a un cambiamento nello stile delle richieste che non è stato reso evidente agli utenti. In particolare, OpenAI ha citato un sovraccarico di sistema come motivo della chiusura delle iscrizioni a ChatGPT Plus a seguito dell’aumento di interesse nel servizio dopo la conferenza DevDay inaugurale degli sviluppatori che ha introdotto una serie di nuove funzioni per la versione a pagamento del chatbot AI. Al momento c’è ancora una lista d’attesa per ChatGPT Plus. Il professore ha anche aggiunto che ChatGPT su dispositivi mobili usa uno stile di richiesta diverso, che porta a “risposte più brevi e concise”.

Yacine su X ha spiegato che l’inaffidabilità dell’ultimo modello GPT-4, a causa della diminuzione del rispetto delle istruzioni, li ha portati a tornare alla codifica tradizionale, aggiungendo che hanno intenzione di creare un codice LLM locale per riguadagnare il controllo dei parametri del modello. Altri utenti hanno menzionato l’opzione di utilizzare software open-source durante il declino del modello di linguaggio.

Allo stesso modo, l’utente di Reddit, Mindless-Ad8595, ha spiegato che gli aggiornamenti più recenti a GPT-4 lo hanno reso troppo intelligente per il suo bene. “Non ha un ‘percorso’ predefinito che guida il suo comportamento, rendendolo incredibilmente versatile, ma anche un po’ senza direzione per impostazione predefinita”, ha detto.

Il programmatore consiglia agli utenti di creare GPT personalizzati specializzati per compiti o applicazioni al fine di aumentare l’efficienza dell’output del modello. Non fornisce soluzioni pratiche per gli utenti che vogliono rimanere nell’ecosistema di OpenAI.

Lo sviluppatore di app Nick Dobos ha condiviso la sua esperienza con gli inconvenienti di GPT-4, notando che quando ha chiesto a ChatGPT di scrivere pong in SwiftUI, ha scoperto vari segnaposto e cose da fare nel codice. Ha aggiunto che il chatbot ignorava i comandi e continuava a inserire questi segnaposto e cose da fare nel codice anche quando gli veniva detto di fare diversamente. Diversi utenti di X hanno confermato esperienze simili con i propri esempi di codice contenenti segnaposto e cose da fare. Il post di Dobos ha attirato l’attenzione di un dipendente di OpenAI che ha detto che avrebbe inoltrato gli esempi al team di sviluppo dell’azienda per una soluzione, promettendo di condividere eventuali aggiornamenti nel frattempo.

In generale, non c’è una spiegazione chiara su perché GPT-4 stia attualmente avendo complicazioni. Gli utenti che discutono delle loro esperienze online hanno suggerito molte idee. Queste vanno dalla fusione dei modelli di OpenAI a un sovraccarico continuo del server dal funzionamento sia di GPT-4 che di GPT-4 Turbo, al tentativo dell’azienda di risparmiare limitando i risultati, tra gli altri.

È ben noto che OpenAI gestisce un’operazione estremamente costosa. Ad aprile 2023, i ricercatori hanno indicato che costa $700.000 al giorno, ovvero 36 centesimi per ogni query, per mantenere ChatGPT in funzione. Gli analisti del settore hanno affermato in quel momento che OpenAI avrebbe dovuto aumentare la sua flotta di GPU di 30.000 unità per mantenere le sue prestazioni commerciali per il resto dell’anno. Questo richiederebbe il supporto dei processi di ChatGPT, oltre alla potenza di calcolo per tutti i suoi partner.

Nel frattempo, mentre si aspetta che le prestazioni di GPT-4 si stabilizzino, gli utenti si scambiano battute scherzose, scherzando sulla situazione su X.

“La prossima cosa che sai è che si prenderà un giorno di malattia”, ha detto Southrye.