Glossario ChatGPT 41 termini di intelligenza artificiale che tutti dovrebbero conoscere

ChatGPT Glossary 41 AI terms everyone should know

ChatGPT, l’AI-chatbot di OpenAI, che ha una straordinaria capacità di rispondere a qualsiasi domanda, è probabilmente stata la tua prima introduzione all’IA. Dalla scrittura di poesie, curriculum e ricette di fusione, il potere di ChatGPT è stato paragonato all’autocompletamento su steroidi.

Ma i chatbot AI sono solo una parte del panorama dell’IA. Certo, è bello avere ChatGPT che ti aiuta a fare i compiti o Midjourney che crea immagini affascinanti di mech basate sul paese di origine, ma il suo potenziale potrebbe completamente ridisegnare le economie. Secondo il McKinsey Global Institute, questo potenziale potrebbe valere 4,4 trilioni di dollari all’anno per l’economia globale, ed è per questo che ti aspetti di sentire sempre più parlare di intelligenza artificiale.

Man mano che le persone si abituano sempre di più a un mondo intrecciato con l’IA, nuovi termini stanno spuntando ovunque. Quindi, che tu stia cercando di sembrare intelligente durante un aperitivo o di impressionare in un colloquio di lavoro, ecco alcuni importanti termini di AI che dovresti conoscere.

Questo glossario sarà continuamente aggiornato.

Intelligenza artificiale generale, o AGI: Un concetto che suggerisce una versione più avanzata dell’IA rispetto a quella che conosciamo oggi, una che può svolgere compiti molto meglio degli esseri umani e contemporaneamente insegnare e sviluppare le proprie capacità.

Etica dell’IA: Principi volti a evitare che l’IA faccia del male agli esseri umani, raggiunti attraverso mezzi come stabilire come i sistemi di IA dovrebbero raccogliere dati o gestire il pregiudizio.

Sicurezza dell’IA: Un campo interdisciplinare che si occupa degli impatti a lungo termine dell’IA e di come potrebbe progredire improvvisamente verso una superintelligenza ostile agli esseri umani.

Algoritmo: Una serie di istruzioni che consente a un programma informatico di apprendere e analizzare i dati in un modo particolare, come riconoscere pattern, per poi imparare da essi e svolgere compiti autonomamente.

Allineamento: Ottimizzare un’IA per ottenere meglio il risultato desiderato. Questo può riguardare qualsiasi cosa, dall’attenuazione dei contenuti all’attenzione a interazioni positive con gli esseri umani.

Antropomorfismo: Quando gli esseri umani tendono a attribuire caratteristiche umanoidi a oggetti non umani. Nell’IA, ciò può includere la convinzione che un chatbot sia più umanoide e consapevole di quanto non sia in realtà, come credere che sia felice, triste o addirittura senziente del tutto.

Intelligenza artificiale, o IA: L’uso della tecnologia per simulare l’intelligenza umana, sia in programmi informatici che in robotica. Un campo dell’informatica che mira a costruire sistemi in grado di svolgere compiti umani.

Pregiudizio: In relazione ai grandi modelli di linguaggio, errori derivanti dai dati di addestramento. Ciò può comportare l’attribuzione erronea di determinate caratteristiche a determinate razze o gruppi basandosi sugli stereotipi.

Chatbot: Un programma che comunica con gli esseri umani attraverso testo che simula il linguaggio umano.

ChatGPT: Un chatbot AI sviluppato da OpenAI che utilizza la tecnologia dei grandi modelli di linguaggio.

Calcolo cognitivo: Un altro termine per l’intelligenza artificiale.

Aumentazione dei dati: Rielaborazione dei dati esistenti o aggiunta di un set di dati più diversificato per addestrare un’IA.

Apprendimento profondo: Un metodo di IA, e un sottoinsieme dell’apprendimento automatico, che utilizza molti parametri per riconoscere pattern complessi in immagini, suoni e testo. Il processo è ispirato al cervello umano e utilizza reti neurali artificiali per creare pattern.

Diffusione: Un metodo di apprendimento automatico che prende un dato esistente, come una foto, e aggiunge rumore casuale. I modelli di diffusione addestrano le loro reti per rielaborare o recuperare quella foto.

Comportamento emergente: Quando un modello di IA mostra abilità non intenzionali.

Apprendimento end-to-end, o E2E: Un processo di apprendimento profondo in cui un modello viene istruito a svolgere un compito dall’inizio alla fine. Non è addestrato per svolgere un compito in sequenza, ma impara dagli input e lo risolve tutto in una volta.

Considerazioni etiche: Una consapevolezza delle implicazioni etiche dell’IA e delle questioni legate alla privacy, all’uso dei dati, all’equità, all’abuso e ad altre questioni di sicurezza.

Foom: Nota anche come “fast takeoff” o “hard takeoff”. Il concetto che se qualcuno costruisce una AGI, potrebbe essere già troppo tardi per salvare l’umanità.

Reti generative avversarie, o GAN: Un modello generativo di IA composto da due reti neurali per generare nuovi dati: un generatore e un discriminatore. Il generatore crea nuovo contenuto, mentre il discriminatore verifica se è autentico.

Intelligenza Artificiale Generativa: Una tecnologia che utilizza l’IA per creare testo, video, codice informatico o immagini. L’IA viene alimentata con grandi quantità di dati di addestramento, individua i modelli per generare le proprie risposte originali, che a volte possono essere simili al materiale di origine.

Google Bard: Un chatbot basato su IA di Google che funziona in modo simile a ChatGPT ma attinge informazioni dal web corrente, mentre ChatGPT è limitato a dati fino al 2021 e non è connesso a Internet.

Misure di sicurezza: Politiche e restrizioni imposte ai modelli di IA per garantire che i dati vengano gestiti in modo responsabile e che il modello non crei contenuti disturbanti.

Allucinazione: Una risposta errata dell’IA. Può includere l’IA generativa che produce risposte errate ma espresse con sicurezza come se fossero corrette. Le ragioni di ciò non sono del tutto note. Ad esempio, quando si chiede a un chatbot IA: “Quando Leonardo da Vinci ha dipinto la Mona Lisa?”, potrebbe rispondere con una dichiarazione errata dicendo: “Leonardo da Vinci ha dipinto la Mona Lisa nel 1815”, che è 300 anni dopo la sua effettiva realizzazione.

Modello di linguaggio ampio, o LLM: Un modello di IA addestrato su grandi quantità di dati testuali per comprendere il linguaggio e generare contenuti originali in linguaggio simile a quello umano.

Apprendimento automatico, o ML: Un componente dell’IA che consente ai computer di apprendere e ottenere risultati predittivi migliori senza programmazione esplicita. Può essere accoppiato con set di addestramento per generare nuovi contenuti.

Microsoft Bing: Un motore di ricerca di Microsoft che ora può utilizzare la tecnologia che alimenta ChatGPT per fornire risultati di ricerca basati sull’IA. È simile a Google Bard nel senso che è connesso a Internet.

IA multimodale: Un tipo di IA che può elaborare diversi tipi di input, tra cui testo, immagini, video e discorsi.

Elaborazione del linguaggio naturale: Un ramo dell’IA che utilizza l’apprendimento automatico e il deep learning per consentire ai computer di comprendere il linguaggio umano, spesso utilizzando algoritmi di apprendimento, modelli statistici e regole linguistiche.

Rete neurale: Un modello computazionale che assomiglia alla struttura del cervello umano e ha lo scopo di riconoscere modelli nei dati. È composta da nodi interconnessi, o neuroni, in grado di riconoscere modelli e apprendere nel tempo.

Overfitting: Errore nell’apprendimento automatico in cui la funzione è troppo aderente ai dati di addestramento e potrebbe essere in grado di identificare solo esempi specifici in tali dati ma non nuovi dati.

Parametri: Valori numerici che conferiscono struttura e comportamento ai LLM, consentendo loro di fare previsioni.

Concatenazione di prompt: La capacità dell’IA di utilizzare informazioni da interazioni precedenti per influenzare le risposte future.

Pappagallo stocastico: Un’analogia dei LLM che illustra il fatto che il software non ha una comprensione più ampia del significato del linguaggio o del mondo circostante, indipendentemente da quanto convincente possa essere l’output. La frase si riferisce al modo in cui un pappagallo può imitare le parole umane senza comprenderne il significato.

Trasferimento di stile: La capacità di adattare lo stile di un’immagine al contenuto di un’altra, consentendo all’IA di interpretare gli attributi visivi di un’immagine e utilizzarli su un’altra. Ad esempio, prendere l’autoritratto di Rembrandt e ricrearlo nello stile di Picasso.

Temperatura: Parametri impostati per controllare quanto casuale sia l’output di un modello di linguaggio. Una temperatura più alta significa che il modello assume più rischi.

Generazione di testo-immagine: Creazione di immagini basate su descrizioni testuali.

Dati di addestramento: I set di dati utilizzati per aiutare i modelli di IA a imparare, compresi testi, immagini, codice o dati.

Modello transformer: Un’architettura di rete neurale e un modello di deep learning che apprende il contesto tracciando le relazioni nei dati, come nelle frasi o nelle parti delle immagini. Pertanto, anziché analizzare una frase parola per parola, può guardare l’intera frase e comprendere il contesto.

Test di Turing: Chiamato così in onore del famoso matematico e informatico Alan Turing, testa la capacità di una macchina di comportarsi come un essere umano. La macchina supera il test se un essere umano non riesce a distinguere la risposta della macchina da quella di un altro essere umano.

IA debole, alias IA limitata: Un’IA focalizzata su un compito specifico e incapace di apprendere oltre le sue capacità. La maggior parte delle IA attuali è debole.

Apprendimento senza supervisione: Un test in cui un modello deve completare un compito senza essere fornito dei dati di addestramento necessari. Un esempio potrebbe essere riconoscere un leone pur essendo addestrato solo su tigri.

Nota degli editori: ENBLE sta utilizzando un motore di intelligenza artificiale per aiutare a creare alcune storie. Per ulteriori informazioni, consultare questo post.