Gli strumenti di intelligenza artificiale di terze parti sono responsabili del 55% dei fallimenti dell’intelligenza artificiale nelle imprese.

Il 55% dei fallimenti dell'intelligenza artificiale aziendale è dovuto agli strumenti di intelligenza artificiale di terze parti.

Immagina di aprire un’applicazione meteorologica alimentata da intelligenza artificiale e vedere cieli sereni nel pronostico per un picnic aziendale nel pomeriggio, solo per finire sotto una pioggia battente con un hot dog fradicio in mano. Oppure immagina che la tua azienda implementi uno strumento di intelligenza artificiale per il supporto clienti, ma che si integra male con il tuo CRM e perda preziosi dati dei clienti.

Secondo una nuova ricerca, i tool di intelligenza artificiale di terze parti sono responsabili di oltre il 55% dei fallimenti legati all’IA nelle organizzazioni. Questi fallimenti potrebbero causare danni alla reputazione, perdite finanziarie, perdita di fiducia dei consumatori e persino cause legali. Il sondaggio è stato condotto da MIT Sloan Management Review e Boston Consulting Group e si è concentrato su come le organizzazioni stanno affrontando l’IA responsabile evidenziando le conseguenze reali di non farlo.

Inoltre: Come scrivere migliori prompt per ChatGPT per ottenere i migliori risultati di IA generativa

“Le aziende non hanno completamente adattato i loro programmi di gestione dei rischi di terze parti al contesto dell’IA o alle sfide del deploy sicuro di sistemi complessi come i prodotti di IA generativa,” ha detto Philip Dawson, responsabile delle politiche di IA presso Armilla AI, ai ricercatori del MIT. “Molte non sottopongono i fornitori di IA o i loro prodotti ai tipi di valutazione effettuati per la cybersecurity, lasciandole cieche di fronte ai rischi del deploy di soluzioni di IA di terze parti.”

Il rilascio di ChatGPT quasi un anno fa ha scatenato un boom di IA generativa nella tecnologia. Non è passato molto tempo prima che altre aziende seguissero OpenAI e rilasciassero i propri chatbot di IA, tra cui Microsoft Bing e Google Bard. La popolarità e le capacità di questi bot hanno anche sollevato sfide etiche e domande.

Mentre la popolarità di ChatGPT è aumentata sia come applicazione indipendente che come API, altre aziende hanno iniziato a sfruttarne il potere e a sviluppare chatbot di IA simili per produrre soluzioni di IA generativa per il supporto clienti, la creazione di contenuti, l’assistenza IT e il controllo grammaticale.

Dei 1.240 intervistati nel sondaggio provenienti da 87 paesi, il 78% ha dichiarato che le loro aziende utilizzano strumenti di IA di terze parti accedendo, acquistando o concedendoli in licenza. Di queste organizzazioni, il 53% utilizza esclusivamente strumenti di terze parti, senza alcuna tecnologia di IA interna. Mentre oltre tre quarti delle aziende intervistate utilizzano strumenti di IA di terze parti, il 55% dei fallimenti legati all’IA proviene dall’utilizzo di questi strumenti.

Inoltre: Ora puoi fare conversazioni vocali con ChatGPT. Ecco come

Nonostante il 78% dei partecipanti al sondaggio faccia affidamento su strumenti di IA di terze parti, il 20% non ha valutato i rischi significativi che essi comportano. Lo studio ha concluso che è più difficile raggiungere l’IA responsabile (RAI) quando i team coinvolgono fornitori senza supervisione e che è necessaria una valutazione più approfondita degli strumenti di terze parti.

“Con i clienti del settore regolamentato come i servizi finanziari, vediamo forti collegamenti tra le pratiche di gestione dei rischi del modello basate su qualche forma di regolamentazione esterna e ciò che suggeriamo alle persone di fare dal punto di vista dell’RAI,” secondo Triveni Gandhi, responsabile dell’IA responsabile presso l’azienda di IA Dataiku.

Inoltre: Perché la crescita dell’IT porta solo a maggiori livelli di esaurimento e cosa dovrebbe essere fatto al riguardo

L’IA di terze parti può essere una parte integrante delle strategie di IA organizzative, quindi il problema non può essere risolto semplicemente rimuovendo la tecnologia. Gli studiosi raccomandano invece strategie di valutazione dei rischi approfondite, come audit dei fornitori, revisioni interne e conformità agli standard del settore.

Dato l’evolversi rapido dell’ambiente normativo dell’IA responsabile, i ricercatori ritengono che le organizzazioni dovrebbero dare priorità all’IA responsabile, dai dipartimenti regolatori fino al CEO. Le organizzazioni con un CEO coinvolto nell’IA responsabile hanno riportato il 58% in più di benefici commerciali rispetto a quelle con un CEO che non è direttamente coinvolto nell’IA responsabile.

Inoltre: Perché l’open source è la culla dell’intelligenza artificiale

La ricerca ha anche rilevato che le organizzazioni con un CEO coinvolto nell’IA responsabile sono quasi due volte più inclini a investire nell’IA responsabile rispetto a quelle con un CEO meno coinvolto.