4 modi per superare le tue preoccupazioni più grandi riguardo all’IA generativa

4 strategie per fronteggiare le tue maggiori preoccupazioni sull'Intelligenza Artificiale generativa

worry-tech-gettyimages-1427840767

L’intelligenza artificiale generativa (AI) è magia agli occhi non allenati. 

Dalla sintesi del testo alla creazione di immagini e alla scrittura di codice, strumenti come il ChatGPT di OpenAI e il Copilot di Microsoft producono soluzioni brillanti a domande complesse in pochi secondi. Tuttavia, le abilità magiche dell’IA generativa possono comportare anche un effetto collaterale di trucchi non utili.

Inoltre: La tua azienda ha bisogno di un responsabile dell’IA?

Se si tratta di preoccupazioni etiche, problemi di sicurezza o allucinazioni, gli utenti devono essere consapevoli dei problemi che possono compromettere i benefici delle tecnologie emergenti. Qui, quattro leader aziendali spiegano come superare alcune delle principali preoccupazioni legate all’IA generativa.

1. Sfruttare le nuove opportunità in maniera etica

Birgitte Aga, responsabile dell’innovazione e della ricerca al Museo Munch di Oslo, in Norvegia, afferma che molte delle preoccupazioni legate all’IA sono associate alla mancanza di comprensione del suo impatto potenziale, e con buoni motivi.

Anche uno strumento di intelligenza artificiale generativa molto famoso, come il ChatGPT, è disponibile al pubblico da poco più di 12 mesi. Mentre molte persone avranno sperimentato la tecnologia, poche aziende hanno utilizzato lo strumento in un ambiente di produzione.

Aga afferma che le organizzazioni dovrebbero dare ai propri dipendenti l’opportunità di vedere cosa possono fare le tecnologie emergenti in modo sicuro e protetto. “Penso che abbassare la soglia affinché tutti possano partecipare sia fondamentale”, afferma. “Ma questo non significa farlo in modo acritico.”

Aga afferma che mentre i dipendenti discutono dell’utilizzo dell’IA, dovrebbero anche considerare alcune delle grandi questioni etiche, come il pregiudizio, la stereotipizzazione e le limitazioni tecnologiche.

Inoltre: Sicurezza e pregiudizio nell’IA: Svelare la complessa catena di addestramento dell’IA

Spiega in una video chat con ENBLE come il museo sta lavorando con l’esperto di tecnologia TCS per trovare modi in cui l’IA può essere utilizzata per rendere l’arte più accessibile a un pubblico più vasto.

“Con TCS, abbiamo una vera e propria sintonia in ogni incontro quando si tratta di etica e valori”, dice. “Trova collaboratori con cui ti allinei davvero a quel livello e poi costruisci da lì, anziché trovare solo persone che fanno cose fighe.”

2. Costruisci una task force per mitigare i rischi

Avivah Litan, distinto VP analista presso Gartner, afferma che una delle questioni chiave da considerare è la pressione per il cambiamento proveniente da persone esterne al dipartimento IT.

“Le aziende desiderano andare avanti a tutta velocità”, afferma, facendo riferimento all’adozione di strumenti di intelligenza artificiale generativa da parte dei professionisti in tutta l’organizzazione, con o senza l’approvazione di chi è al comando. “Le persone responsabili della sicurezza e del rischio faticano a comprendere questa implementazione, a tenere traccia di ciò che le persone stanno facendo e a gestire il rischio.”

Inoltre: Il 64% dei lavoratori ha attribuito il lavoro di intelligenza artificiale generativa come proprio

Come risultato, c’è molta tensione tra due gruppi: le persone che vogliono utilizzare l’intelligenza artificiale e le persone che devono gestirne l’uso.

“Nessuno vuole soffocare l’innovazione, ma le persone responsabili della sicurezza e del rischio non hanno mai dovuto affrontare qualcosa del genere”, afferma in una video chat con ENBLE. “Nonostante l’intelligenza artificiale esista da anni, non hanno avuto la necessità di preoccuparsi di questa tecnologia fino all’avvento dell’intelligenza artificiale generativa.”

Litan afferma che il miglior modo di dissipare le preoccupazioni è creare una task force per l’intelligenza artificiale che coinvolga esperti provenienti da tutta l’azienda e che consideri privacy, sicurezza e rischio.

“Così tutti sono sulla stessa pagina, quindi sanno quali sono i rischi, sanno cosa dovrebbe fare il modello e ottengono una migliore performance”, afferma.

Inoltre: IA nel 2023: Un anno di scoperte che non hanno lasciato intatto nulla di umano

Litan afferma che la ricerca di Gartner suggerisce che due terzi delle organizzazioni devono ancora istituire una task force per l’intelligenza artificiale. Incoraggia tutte le aziende a creare questo tipo di gruppo aziendale interfunzionale.

“Queste task force supportano una comprensione comune”, afferma. “Le persone sanno cosa aspettarsi e l’azienda può creare maggiore valore.”

3. Restringi i tuoi modelli per ridurre gli allucinazioni

Thierry Martin, responsabile senior per la strategia dei dati e dell’analisi presso Toyota Motors Europe, afferma che la sua principale preoccupazione con l’intelligenza artificiale generativa sono le allucinazioni.

Ha sperimentato personalmente questo tipo di problemi quando ha testato l’intelligenza artificiale generativa a fini di codifica.

Oltre alle esplorazioni personali, Martin afferma che le aziende devono prestare attenzione ai modelli di linguaggio ampio (LLMs) che utilizzano, agli input di cui necessitano e agli output che generano.

“Abbiamo bisogno di modelli di linguaggio ampio molto stabili”, afferma. “Molti dei modelli più popolari oggi sono addestrati su tante cose, come poesia, filosofia e contenuti tecnici. Quando si fa una domanda, c’è spazio per allucinazioni.”

Inoltre: 8 modi per ridurre le allucinazioni di ChatGPT

In un’intervista video one-to-one con ENBLE, Martin sottolinea che le aziende devono trovare modi per creare modelli di linguaggio più ristretti.

“Voglio stare all’interno della base di conoscenza che fornisco”, afferma. “Quindi, se faccio una domanda specifica al mio modello, mi darà una risposta corretta. Per questo, mi piacerebbe vedere modelli più correlati ai dati che fornisco.”

Martin è interessato a conoscere sviluppi innovativi, come la collaborazione di Snowflake con Nvidia, dove entrambe le società stanno creando una fabbrica di intelligenza artificiale che aiuta le aziende a trasformare i loro dati in modelli di intelligenza artificiale generativa personalizzati.

“Ad esempio, un LLM che è perfetto nel fare interrogazioni SQL del codice Python è qualcosa di interessante,” dice lui. “ChatGPT e tutti gli altri strumenti pubblici sono buoni per l’utente occasionale. Ma se connetti quel tipo di strumento ai dati aziendali, devi essere cauto.”

4. Progresso lento per temperare le aspettative

Bev White, CEO dello specialista in reclutamento Nash Squared, afferma che la sua grande preoccupazione è la realtà pratica dell’uso dell’IA generativa che potrebbe essere molto diversa dalla visione.

“C’è stata molta enfasi,” dice in una conversazione video con ENBLE. “Ci sono anche stati molti profeti di sventura che dicono che si perderanno posti di lavoro e che l’IA creerà disoccupazione di massa. E ci sono anche tutte le paure sulla sicurezza dei dati e la privacy.”

White afferma che è importante riconoscere che i primi 12 mesi di IA generativa sono stati caratterizzati da grandi aziende tecnologiche che corrono a perfezionare e aggiornare i loro modelli.

“Questi strumenti hanno già attraversato molte iterazioni — e non è per caso,” dice lei. “Le persone che usano la tecnologia stanno scoprendo vantaggi, ma devono anche fare attenzione ai cambiamenti che arrivano con ogni iterazione.”

Inoltre: I 3 rischi più grandi dell’IA generativa – e come affrontarli

White consiglia ai CIO e ad altri dirigenti di procedere con cautela. Non aver paura di fare un passo indietro, anche se sembra che tutti gli altri stiano correndo avanti.

“Penso che abbiamo bisogno di qualcosa di tangibile che possiamo usare come baluardo. I CISO nelle organizzazioni devono iniziare a pensare all’IA generativa — e le nostre prove suggeriscono che lo stiano facendo. Inoltre, la regolamentazione deve tenere il passo con il ritmo dei cambiamenti,” dice lei.

“Forse dobbiamo procedere un po’ più lentamente mentre capiamo cosa fare con la tecnologia. È come inventare un razzo sorprendente, ma non avere gli stabilizzatori e i sistemi di sicurezza intorno ad esso prima del lancio.”