Fate attenzione al divario di fiducia le preoccupazioni sui dati spingono i clienti ad essere cauti riguardo all’IA generativa.

Fate attenzione al divario di fiducia e alle preoccupazioni sui dati che influenzano la cautela dei clienti riguardo all'IA generativa.

L’intelligenza artificiale generativa (IA) sta diventando indispensabile per le organizzazioni al fine di garantire la loro rilevanza sul mercato, ma alcuni rimangono esitanti nel compiere questo passo a causa di preoccupazioni legate ai dati e alla fiducia.

Queste questioni sono particolarmente pertinenti per le aziende che operano in settori con rigide norme di governance dei dati e ampie basi di clienti, che le spingono a posticipare l’adozione di strumenti di IA generativa nonostante i loro vantaggi pubblicizzati.

Inoltre: Le aziende hanno bisogno di chiarezza sui prezzi mentre i servizi di IA generativa arrivano sul mercato

La capacità di generare report di vendita tramite un comando, ad esempio, invece di dover manipolare manualmente i fogli di calcolo, offre un interessante potenziale per strumenti di IA generativa come Einstein Copilot di Salesforce, ha dichiarato Sarwar Faruque, responsabile delle operazioni di sviluppo presso Jollibee Foods Corporation. L’operatore di catene di ristoranti filippine utilizza Salesforce Heroku per sviluppare le sue applicazioni e Mulesoft come middleware per connettere le sue applicazioni, inclusi i sistemi ERP e di gestione degli ordini.

Jollibee impiega 15.000 dipendenti e gestisce quasi 4.000 negozi in tutto il mondo, distribuiti in 34 paesi. Le sue applicazioni sono principalmente basate su cloud, quindi non mantiene i propri data center, ad eccezione di una piccola intranet.

Faruque vede anche un potenziale nell’uso dell’IA nel settore manifatturiero, dove può migliorare l’efficienza nella pipeline di produzione e nell’assemblaggio. Ad esempio, l’IA può aiutare a monitorare la qualità degli alimenti e prevedere la domanda.

Tuttavia, il suo interesse nell’uso potenziale dell’IA rimane limitato alle operazioni di backend. Faruque è deciso a tenere l’IA generativa lontana dalle interazioni con i clienti e dalle operazioni rivolte ai clienti, almeno per il momento.

Con la tecnologia ancora in fase embrionale, c’è ancora molto da capire e risolvere, ha sottolineato. “Vediamo l’output [e le risposte] che genera, ma non capiamo davvero come [è arrivato alla risposta]”, ha detto. “C’è questa scatola nera…deve essere demistificata. Voglio sapere come funziona, come è arrivata alla sua risposta e se questa risposta è ripetibile [ogni volta che la domanda viene posta]”.

Inoltre: Perché le aziende devono usare l’IA per pensare diversamente, e non solo per ridurre i costi

Attualmente, questo non è il caso, ha detto, aggiungendo che il rischio di allucinazione è anche un motivo di preoccupazione. E in assenza di un incidente di sicurezza, poco si sa se ci sono problemi di sicurezza informatica intrinseci che devono essere risolti, ha osservato. “In questo momento, c’è solo molta pubblicità [esagerata]”, ha detto Faruque, aggiungendo che non è sufficiente parlare semplicemente di “fiducia” senza fornire dettagli su cosa significhi esattamente.

Ha esortato i fornitori di IA a spiegare come vengono formati i loro grandi modelli di linguaggio, quali dati consumano e cosa fanno esattamente per generare risposte. “Devono smettere di comportarsi come se fosse magia [quando] c’è un codice che lo esegue e c’è scienza dietro”, ha detto. “Aiutateci a capirlo [perché] non ci piace adottare una tecnologia di cui non abbiamo una solida comprensione”.

Ha sottolineato la necessità di responsabilità e trasparenza, insieme a garanzie che i dati dei clienti utilizzati per addestrare i modelli di IA non verranno resi pubblici. Questo è particolarmente critico per le organizzazioni che devono rispettare le normative sulla privacy dei dati nella propria giurisdizione locale.

Inoltre: Misurare la fiducia: perché ogni modello di IA ha bisogno di un punteggio FICO

Fino a quando queste questioni non saranno risolte, ha detto che non è disposto a mettere a rischio i dati dei propri clienti. La fiducia è anche qualcosa che il Ministero del Commercio e dell’Industria di Singapore (MTI) prende molto sul serio, in particolare per quanto riguarda la privacy e la sicurezza dei dati. Al ministero fanno capo dieci agenzie governative, tra cui EDB e il Singapore Tourism Board.

In particolare, i dati del ministero devono essere conservati a Singapore e questo sta creando un grande ostacolo per garantire la sicurezza e la governance dei dati, ha dichiarato Sharon Ng, CIO della famiglia ministeriale del MTI. Ciò significa che qualsiasi intelligenza artificiale e grandi modelli di linguaggio utilizzati dovrebbero essere ospitati nel proprio ambiente, anche quelli gestiti da fornitori statunitensi come la piattaforma Einstein Copilot di Salesforce.

Come Faruque, anche Ng ha sottolineato la necessità di trasparenza, in particolare i dettagli su come opera il livello di sicurezza, inclusi il tipo di crittografia utilizzata e se i dati vengono conservati, ha osservato.

Inoltre: come l’intelligenza artificiale generativa affidabile può migliorare l’esperienza del cliente connesso

Attualmente il suo team sta esplorando come gli strumenti di intelligenza artificiale generativa, inclusi quelli di Salesforce, possono beneficiare del ministero, che è aperto all’utilizzo di diversi modelli di intelligenza artificiale e modelli di linguaggio ampi disponibili sul mercato. Ciò sarebbe meno costoso rispetto alla creazione di modelli propri e abbrevierebbe i tempi per entrare sul mercato, ha detto.

Tuttavia, l’utilizzo di qualsiasi modello di intelligenza artificiale sarebbe comunque soggetto a considerazioni di fiducia e sicurezza, ha notato. Attualmente, l’MTI sta eseguendo test pilota di intelligenza artificiale generativa che mirano a migliorare l’efficienza operativa e semplificare le attività di lavoro tra le sue agenzie.

Per la compagnia telefonica di Singapore M1, fornire un miglior servizio clienti è l’obiettivo principale dell’intelligenza artificiale generativa. Tuttavia, come per l’MTI e Jollibee, la conformità e la fiducia dei dati sono fondamentali, ha detto Jan Morgenthal, direttore digitale di M1. Attualmente, la compagnia telefonica sta eseguendo prove di concetto per valutare come l’intelligenza artificiale generativa può migliorare le interazioni che il suo chatbot ha con i clienti e se può supportare lingue aggiuntive oltre all’inglese.

Ciò significa lavorare con i fornitori per capire i parametri e capire dove sono implementati i modelli di linguaggio ampi e l’intelligenza artificiale, ha detto Morgenthal. Come per l’MTI e Jollibee, M1 deve anche conformarsi alle normative che richiedono che alcuni dei suoi dati, inclusi quelli ospitati su piattaforme cloud, risiedano nel proprio mercato locale.

Inoltre: prima dell’intelligenza artificiale, quest’altra ondata tecnologica sta avanzando rapidamente

Ciò richiede che l’addestramento dei modelli di intelligenza artificiale venga eseguito nell’ambiente di rete di M1, ha detto. La compagnia telefonica di Singapore deve anche fare attenzione ai dati utilizzati per addestrare i modelli e alle risposte generate, che devono essere testate e validate, ha detto. Queste devono essere verificate non solo rispetto alle linee guida stabilite dal fornitore, come il Trust Layer di Salesforce, ma anche rispetto alle limitazioni imposte dalla casa madre di M1, Keppel.

Affrontare la lacuna di fiducia nell’intelligenza artificiale generativa

Tali sforzi saranno cruciali in un contesto di diminuzione della fiducia nell’utilizzo dell’intelligenza artificiale.

Sia le organizzazioni che i consumatori sono ora meno favorevoli all’utilizzo dell’intelligenza artificiale rispetto a prima, secondo un sondaggio di Salesforce pubblicato il mese scorso. Il 73% degli acquirenti aziendali e il 51% dei consumatori sono favorevoli all’utilizzo della tecnologia per migliorare le loro esperienze, un calo rispetto all’82% e al 65% rispettivamente nel 2022.

E se il 76% dei clienti si fida delle aziende nel fare affermazioni oneste sui loro prodotti e servizi, solo il 57% si fida che usino l’intelligenza artificiale in modo etico. Il 68% ritiene che i progressi dell’intelligenza artificiale abbiano reso più importante per le aziende essere affidabili.

La lacuna di fiducia è un problema significativo e preoccupante per le organizzazioni, ha detto Tim Dillon, fondatore e direttore di Tech Research Asia, sottolineando la reazione negativa che Zoom ha avuto quando ha modificato i suoi Termini di servizio, ottenendo il diritto di utilizzare i video, l’audio e i dati di chat degli utenti per addestrare i suoi modelli di intelligenza artificiale.

Inoltre: l’intelligenza artificiale, la fiducia e la sicurezza dei dati sono questioni chiave per le aziende finanziarie e i loro clienti

I fornitori di intelligenza artificiale generativa vorrebbero evitare un simile scenario, ha detto Dillon in un’intervista a ENBLE, a margine del Dreamforce 2023 svoltosi a San Francisco questa settimana. I principali attori di mercato come Salesforce e Microsoft hanno compiuto sforzi per colmare la lacuna di fiducia, cosa che ha definito un passo positivo avanti.

Oltre a risolvere i problemi di fiducia, le organizzazioni che pianificano di adottare l’intelligenza artificiale generativa dovrebbero anche considerare l’implementazione della gestione del cambiamento, ha osservato Phil Hassey, CEO e fondatore della società di ricerca CapioIT.

Questo è un aspetto che spesso viene trascurato, ha detto Hassey a ENBLE. Le organizzazioni devono capire i costi coinvolti e le competenze che devono acquisire e i ruoli che devono essere riqualificati, a seguito dell’introduzione dell’intelligenza artificiale generativa.

Una corretta strategia di gestione del cambiamento è fondamentale per garantire una transizione senza intoppi e mantenere le competenze, ha detto.

Basata a Singapore, Eileen Yu ha riportato da Dreamforce 2023 a San Francisco, su invito di Salesforce.com.