Tutti vogliono un’intelligenza artificiale responsabile, ma poche persone stanno facendo qualcosa a riguardo

Pochi agiscono per l'intelligenza artificiale responsabile

Mentre quasi nove dirigenti su dieci sono d’accordo sul fatto che sia importante avere linee guida chiare sull’etica dell’intelligenza artificiale (IA) e sulla responsabilità aziendale, appena una manciata ammette di avere tali linee guida, come mostra un recente sondaggio.

Tali risultati suggeriscono che c’è confusione su quali approcci devono essere adottati per governare l’adozione dell’IA e i professionisti della tecnologia devono fare un passo avanti e guidare lo sviluppo sicuro ed etico delle loro iniziative basate sui dati.

Inoltre: Cinque modi per utilizzare l’IA in modo responsabile

I risultati provengono da un sondaggio basato sulle opinioni di 500 dirigenti aziendali pubblicato dalla società tecnologica Conversica, che afferma: “Un messaggio forte emerge dal sondaggio: la maggior parte dei partecipanti riconosce l’importanza fondamentale di linee guida ben definite per l’uso responsabile dell’IA all’interno delle aziende, specialmente quelle che hanno già adottato la tecnologia”.

Quasi tre quarti (73%) dei partecipanti hanno dichiarato che le linee guida sull’IA sono indispensabili. Tuttavia, solo il 6% ha stabilito linee guida etiche chiare per l’uso dell’IA e il 36% indica che potrebbe mettere in atto linee guida entro i prossimi 12 mesi.

Anche tra le aziende che utilizzano già l’IA, uno su cinque dei dirigenti ammette di avere conoscenze limitate o nulle sulle politiche legate all’IA della propria organizzazione. Più di un terzo (36%) ha dichiarato di essere solo “abbastanza familiare” con le preoccupazioni relative alle politiche.

Le linee guida e le politiche per affrontare l’IA responsabile dovrebbero includere la governance, dati di addestramento imparziali, rilevamento di pregiudizi, mitigazione dei pregiudizi, trasparenza, accuratezza e l’inclusione della supervisione umana, affermano gli autori del rapporto.

Inoltre: I migliori chatbot di intelligenza artificiale: ChatGPT e altre alternative degne di nota

Circa due terzi (65%) dei dirigenti intervistati hanno dichiarato di avere già o di pianificare di avere servizi basati sull’IA entro i prossimi 12 mesi. I casi d’uso principali per l’IA includono il potenziamento delle funzioni di coinvolgimento, come il servizio clienti e il marketing (citato dal 39%), e la produzione di insight analitici (35%).

Il sondaggio ha rilevato che le principali preoccupazioni riguardo agli output dell’IA sono l’accuratezza dei modelli di dati attuali, le informazioni false e la mancanza di trasparenza. Più di tre quarti (77%) dei dirigenti ha espresso preoccupazione riguardo all’IA che genera informazioni false.

I fornitori di IA non forniscono informazioni sufficienti per formulare linee guida, secondo i dirigenti aziendali, soprattutto per quanto riguarda la sicurezza dei dati e la trasparenza, e la creazione di politiche etiche solide.

Inoltre: L’attuale boom dell’IA amplificherà i problemi sociali se non agiamo ora

Circa due terzi (36%) dei partecipanti hanno dichiarato che le loro aziende hanno regole sull’uso di strumenti generativi di IA, come Chat GPT. Ma il 20% ha detto che le loro aziende stanno dando agli singoli dipendenti piena libertà per quanto riguarda l’uso degli strumenti di IA per il futuro prevedibile.

Il sondaggio di Conversica mostra che c’è una lacuna di leadership quando si tratta di rendere l’IA responsabile una realtà. Quindi, come possono i leader tecnologici e i professionisti delle linee di business fare un passo avanti per garantire che siano in atto pratiche di IA responsabili? Ecco alcune delle linee guida chiave condivise dal team di IA di Google:

  • Utilizzare un approccio di progettazione centrato sull’utente: “Il modo in cui gli utenti effettivi vivono il sistema è fondamentale per valutare l’impatto effettivo delle sue previsioni, raccomandazioni e decisioni. Progettare funzionalità con informazioni appropriate integrate: chiarezza e controllo sono cruciali per una buona esperienza utente. Modellare i potenziali feedback negativi all’inizio del processo di progettazione, seguito da test live specifici e iterazione per una piccola frazione del traffico prima della distribuzione completa”.
  • Interagire con un gruppo diversificato di utenti e scenari d’uso: “Incorporare il feedback prima e durante lo sviluppo del progetto. Questo permetterà di integrare una varietà di prospettive degli utenti nel progetto e di aumentare il numero di persone che traggono beneficio dalla tecnologia”.
  • Progettare il modello con obiettivi concreti di equità e inclusione: “Considerare come la tecnologia e il suo sviluppo nel tempo influenzeranno diversi casi d’uso: quali punti di vista sono rappresentati? Che tipo di dati sono rappresentati? Cosa viene tralasciato?”
  • Verificare il sistema per pregiudizi ingiusti: “Ad esempio, organizzare un gruppo di tester affidabili e diversificati che possano testare il sistema in modo avversario e incorporare una varietà di input avversari nei test unitari. Ciò può aiutare a identificare chi potrebbe subire impatti avversi inaspettati. Anche un basso tasso di errore può permettere un errore molto grave occasionale”.
  • Testare il sistema su casi difficili: “Ciò consentirà di valutare rapidamente le prestazioni del sistema su esempi che possono essere particolarmente dannosi o problematici ogni volta che si aggiorna il sistema. Come con tutti i set di test, è necessario aggiornare continuamente questo set man mano che il sistema evolve, vengono aggiunte o rimosse funzionalità e si ricevono più feedback dagli utenti”.
  • Testare, testare, testare: “Apprendere dalle migliori pratiche di testing dell’ingegneria del software e dell’ingegneria della qualità per assicurarsi che il sistema di IA funzioni come previsto e possa essere affidato. Effettuare test unitari rigorosi per testare ogni componente del sistema in modo isolato. Effettuare test di integrazione per capire come i singoli componenti di ML interagiscono con altre parti del sistema complessivo”.
  • Utilizzare un dataset di riferimento di alta qualità per testare il sistema e assicurarsi che continui a comportarsi come previsto: “Aggiornare regolarmente questo set di test in linea con gli utenti e i casi d’uso in evoluzione, e per ridurre la probabilità di addestramento sul set di test. Effettuare test utente iterativi per incorporare un insieme diversificato di esigenze degli utenti nei cicli di sviluppo”.
  • Applicare il principio di ingegneria della qualità di poka-yoke: “Inserire controlli di qualità in un sistema, in modo che i guasti accidentali non possano accadere o scatenino una risposta immediata, ad esempio, se una funzionalità importante manca inaspettatamente, il sistema di IA non produrrà una previsione”.

Le aziende potrebbero voler implementare l’IA rapidamente, ma è necessario fare attenzione affinché gli strumenti e i loro modelli siano accurati e equi. Mentre le aziende cercano di far avanzare l’IA, la tecnologia deve fornire risultati responsabili ogni volta.