Cinque modi per utilizzare l’IA in modo responsabile

5 modi per utilizzare l'IA responsabilmente

Così come i professionisti hanno scoperto che è difficile spostare i loro dati da un fornitore di cloud all’altro, così dovrebbero essere consapevoli dei potenziali costi mentre costruiscono i loro modelli di intelligenza artificiale e le relative infrastrutture IT di supporto.

L’inarrestabile crescita dell’intelligenza artificiale generativa (AI) e dell’automazione ha enormi implicazioni per i professionisti e le organizzazioni per cui lavorano.

I compiti operativi vengono automatizzati e i ruoli lavorativi vengono modificati. Tuttavia, l’impatto completo di questa rivoluzione sulle imprese, i dipendenti, i clienti e la società nel suo complesso è quasi impossibile da valutare.

Con l’adozione e l’adattamento dell’AI nel corso del decennio, gli effetti completi di questa trasformazione diventeranno più chiari. Al momento, un numero sempre maggiore di professionisti sta sperimentando queste tecnologie emergenti, come ChatGPT e altre.

Inoltre: I migliori chatbot AI: ChatGPT e altre alternative degne di nota

Mentre queste esplorazioni si svolgono, diventa sempre più importante l’AI responsabile, che Accenture definisce come la pratica di progettare, sviluppare e implementare l’AI con buone intenzioni.

Tuttavia, questa esigenza di responsabilità non viene necessariamente attuata: il consulente riporta che solo il 35% dei consumatori si fida di come le organizzazioni stanno implementando l’AI.

Quindi, mentre i professionisti iniziano a incrementare l’uso dell’AI, come possono assicurarsi che loro e le loro organizzazioni stiano utilizzando questa tecnologia emergente con responsabilità?

Questa è la priorità principale per Carter Cousineau, vice presidente della governance dei dati e dei modelli presso Thomson Reuters, specialista di notizie e informazioni, che aiuta la sua azienda a utilizzare l’AI e l’apprendimento automatico in modo responsabile.

Come altre grandi aziende, Thomson Reuters sta solo iniziando ad esplorare il potenziale di molte di queste tecnologie emergenti, soprattutto l’AI generativa.

Tuttavia, Cousineau afferma che una cosa è già chiara da questi primi passi: “L’AI responsabile deve essere incorporata nell’etica per l’intero ciclo di vita”.

Inoltre: L’attuale boom dell’AI amplificherà i problemi sociali se non agiamo ora

La sua visione sull’importanza dell’implementazione etica dell’AI non si basa solo sul suo periodo trascorso in Thomson Reuters.

In precedenza era Direttore Generale del Centro per l’Avanzamento dell’Intelligenza Artificiale Responsabile ed Etica presso l’Università di Guelph. I suoi interessi di ricerca spaziano da interazioni uomo-computer a AI affidabili.

Oltre ai suoi impegni accademici, Cousineau – che ha parlato con ENBLE al recente Snowflake Summit 2023 a Las Vegas – ha lavorato con start-up tecnologiche, organizzazioni non profit, piccole imprese e aziende Fortune 500.

Dal suo ingresso in Thomson Reuters nel settembre 2021, ha messo in pratica alcune delle cose che ha imparato durante le sue attività di ricerca.

“È stato entusiasmante entrare in un’azienda e pensare a come possiamo influenzare e cambiare la cultura per contribuire a creare fiducia”, afferma.

Inoltre: L’AI e le applicazioni avanzate stanno mettendo a dura prova le attuali infrastrutture tecnologiche

Dal momento in cui i dati vengono utilizzati fino alla dismissione di un modello, il suo team globale copre l’intero ciclo di vita dell’AI e si assicura che le informazioni e le intuizioni vengano utilizzate in modo ben governato ed etico.

Afferma che ci sono cinque cose fondamentali che i professionisti devono considerare se vogliono utilizzare l’AI in modo responsabile.

1. Prepararsi alle regolamentazioni

Dopo aver messo le basi per un’AI etica presso Thomson Reuters, Cousineau si assicura ora che i dipendenti rispettino questi principi ben consolidati in modo continuativo.

Riconosce, tuttavia, che diverse linee di business hanno requisiti diversi per l’AI e l’automazione. Inoltre, tali richieste cambiano quando vi è una maggiore pressione da parte dei legislatori esterni.

Sia che si tratti del Regolamento Generale sulla Protezione dei Dati, del Regolamento sull’AI dell’UE o di normative in attesa sull’automazione, il suo team mette in atto i giusti controlli e bilanci per aiutare il personale di Thomson Reuters a innovare con dati e modelli in modo flessibile ma anche sicuro e protetto.

“Esaminiamo tutte queste regolamentazioni e ci assicuriamo che, quando arrivano nuove norme, siamo pronti”, afferma.

Inoltre: Aggiornato il toolkit di etica dell’IA per includere ulteriori componenti di valutazione

2. Rimani aperto al cambiamento

Cousineau non è un fan delle imprese che creano una checklist standardizzata per l’IA e poi assumono che il lavoro sia fatto.

“I tuoi modelli – specialmente nell’IA generativa – continuano a imparare. I tuoi dati continuano a trasformarsi e ci sono diversi utilizzi di quei dati. Quindi, creare visibilità dei tuoi asset di modelli di dati è enorme.”

Lei dice che l’apertura al cambiamento in termini di obblighi legali è cruciale, ma c’è anche un punto in cui l’accento si sposta – e l’apertura diventa anche vantaggiosa dal punto di vista operativo.

“È importante che le tue squadre inizino a vedere e capire come costruire quella cultura di IA responsabile perché devono sapere di più [su] come quei modelli di dati vengono utilizzati attraverso una prospettiva di produttore o consumatore.”

Inoltre: Allarme di leadership: la polvere non si deposita mai e l’IA generativa può aiutare

3. Utilizza valutazioni dell’impatto dei dati

Se un modello viene utilizzato nella fase di prova del concetto di passaggio alla produzione, Cousineau afferma che Thomson Reuters verifica continuamente l’IA responsabile in tutti i casi d’uso.

Direttamente dai primi giorni dell’automazione, il suo team effettua valutazioni dell’impatto dei dati. Questo lavoro preliminare si è dimostrato cruciale man mano che sono emersi nuovi casi d’uso relativi all’IA generativa.

“Abbiamo collaborato con un consulente generale e il nostro approccio utilizza la logica di salto. In base al tuo caso d’uso, ti guiderà alle fasi appropriate o alle preoccupazioni etiche a cui dovrai rispondere e richiede il caso d’uso attuale,” dice lei.

“Questo approccio costruisce un quadro per soddisfare le esigenze di privacy, governance dei dati, governance dei modelli ed etica per il tuo caso d’uso. Ed è qualcosa che ci consente di reagire rapidamente. Quindi, quando otteniamo i risultati di quella valutazione dell’impatto dei dati, il nostro team lavora immediatamente per mitigare quei rischi all’interno di varie squadre – e i rischi sono molto specifici.”

Inoltre: Addestra modelli di IA con i tuoi dati per mitigare i rischi

4. Costruisci partnership affidabili

Cousineau afferma che Thomson Reuters collabora con una serie di individui e organizzazioni per garantire che la privacy, la sicurezza e la responsabilità siano al centro di tutti i casi d’uso di IA.

Queste partnership spaziano tra le linee di business e vanno oltre il firewall per includere rapporti con clienti e partner tecnologici, tra cui Snowflake.

“Per me, l’IA responsabile significa collaborare con organizzazioni fidate. Si tratta di costruire un’infrastruttura e creare quella cultura collaborativa,” dice lei.

“Questo lavoro consiste nel garantire che i tuoi modelli siano trasparenti, che tu possa spiegarli e che siano interpretabili e trattino le persone e i loro dati in modo equo. Si tratta anche di considerare la sostenibilità e la potenza di calcolo necessaria per alimentare i tuoi modelli.”

Inoltre: Nvidia si unisce a Snowflake per l’IA di modelli di linguaggio di grandi dimensioni

5. Sii consapevole dei costi finanziari

Infine, mentre inizi a sperimentare con l’IA, Cousineau afferma che è cruciale ricordare che accendere i sistemi può essere più facile che spegnerli.

Come i professionisti hanno scoperto che è difficile spostare i propri dati da un provider di cloud all’altro, così dovrebbero essere consapevoli dei potenziali costi mentre costruiscono i loro modelli di IA e le relative infrastrutture IT di supporto.

L’IA responsabile, quindi, comporta la considerazione dell’esposizione finanziaria a lungo termine.

Inoltre: Questi sono i miei 5 strumenti AI preferiti per il lavoro

“Sii consapevole della complessità dei costi,” dice lei. “Una volta che hai integrato l’IA generativa nel tuo caso d’uso – e è qualcosa che vuoi continuare a utilizzare in futuro – allora è molto difficile migrare da quel grande modello di linguaggio, nel caso tu voglia passare a un modello di linguaggio diverso, perché ha appreso da quel sistema. Quindi, il costo del lavoro di migrazione è molto complesso.”