5 aggiornamenti chiave in GPT-4 Turbo, il più recente modello di OpenAI

5 importanti aggiornamenti su GPT-4 Turbo, l'ultimo modello di OpenAI.

OpenAI ha recentemente annunciato molteplici nuove funzionalità per ChatGPT e altre strumenti di intelligenza artificiale durante la sua recente conferenza per sviluppatori. Il prossimo lancio di uno strumento per la creazione di chatbot, chiamato GPTs (abbreviazione di generative pretrained transformers), e un nuovo modello per ChatGPT, chiamato GPT-4 Turbo, sono due dei più importanti annunci dell’evento dell’azienda.

Non è la prima volta che OpenAI dà a ChatGPT un nuovo modello. All’inizio di quest’anno, OpenAI ha aggiornato l’algoritmo per ChatGPT da GPT-3.5 a GPT-4. Sei curioso di scoprire come sarà diversa la versione GPT-4 Turbo del chatbot quando verrà lanciata entro la fine dell’anno? Sulla base dei precedenti lanci, è probabile che il modello venga reso disponibile prima agli abbonati di ChatGPT Plus e successivamente al pubblico in generale.

Mentre OpenAI ha respinto la richiesta di accesso anticipato al nuovo modello di ChatGPT da parte di ENBLE, ecco cosa ci aspettiamo che sia diverso in GPT-4 Turbo.

Dì addio al promemoria continuo di ChatGPT che limita le informazioni alla data di settembre 2021. “Siamo infastiditi tanto quanto voi, probabilmente di più, dal fatto che la conoscenza di GPT-4 sul mondo si sia fermata al 2021”, ha detto Sam Altman, CEO di OpenAI, alla conferenza. Il nuovo modello include informazioni fino ad aprile 2023, in modo da poter rispondere con un contesto più attuale alle tue richieste. Altman ha espresso la sua intenzione di non far diventare polveroso ancora una volta l’archivio di informazioni di ChatGPT. Come vengono ottenute queste informazioni rimane un punto di grande controversia per gli autori e gli editori che non sono soddisfatti del modo in cui OpenAI utilizza i loro scritti senza consenso.

Non avere paura di fare richieste molto lunghe e dettagliate! “GPT-4 Turbo supporta fino a 128.000 token di contesto”, ha detto Altman. Anche se i token non sono sinomimi del numero di parole che puoi includere in una richiesta, Altman ha paragonato il nuovo limite a circa il numero di parole presenti in 300 pagine di un libro. Supponiamo che tu voglia che il chatbot analizzi un documento esteso e ti fornisca un riassunto: ora puoi inserire più informazioni in una volta sola con GPT-4 Turbo.

Non sarebbe bello se ChatGPT fosse in grado di prestare più attenzione ai dettagli specifici di quanto richiedi in una richiesta? Secondo OpenAI, il nuovo modello sarà un ascoltatore migliore. “GPT-4 Turbo si comporta meglio rispetto ai nostri modelli precedenti in compiti che richiedono un attento seguire delle istruzioni, come la generazione di formati specifici (ad esempio, ‘rispondi sempre in XML’)”, si legge nel post del blog dell’azienda. Questo potrebbe essere particolarmente utile per le persone che scrivono codice con l’aiuto del chatbot.

Potrebbe non essere una priorità per la maggior parte degli utenti di ChatGPT, ma può essere piuttosto costoso per gli sviluppatori utilizzare l’interfaccia di programmazione delle applicazioni di OpenAI. “Quindi, il nuovo costo è di un centesimo per mille token di richiesta e tre centesimi per mille token di completamento”, ha detto Altman. In parole semplici, questo significa che sarebbe meno costoso per gli sviluppatori inserire informazioni e ricevere risposte con GPT-4 Turbo.

Gli abbonati a ChatGPT Plus potrebbero essere familiari con il menu a discesa di GPT-4 in cui è possibile selezionare quali strumenti del chatbot si desidera utilizzare. Ad esempio, potresti scegliere la versione beta di Dall-E 3 se desideri alcune immagini generate dall’intelligenza artificiale o la versione Browse with Bing se hai bisogno di link provenienti dal web. Quel menu a discesa è destinato presto a finire nel cimitero del software. “Abbiamo ascoltato i vostri feedback. Quel selettore di modelli era estremamente fastidioso”, ha detto Altman. Il chatbot aggiornato con GPT-4 Turbo sceglierà gli strumenti appropriati, quindi se richiedi un’immagine, ad esempio, si prevede che utilizzerà automaticamente Dall-E 3 per rispondere alla tua richiesta.