Il 56% dei professionisti non è sicuro se le loro aziende abbiano linee guida etiche per l’uso dell’IA

Il 56% dei professionisti è incerto sulla presenza di linee guida etiche per l'utilizzo dell'IA nelle proprie aziende

Scala su un blocco

Anche se l’intelligenza artificiale (AI) esiste dal 1950, ha visto una crescita enorme nell’ultimo anno. I giganti della tecnologia hanno implementato l’AI nei loro prodotti e servizi, mentre le persone la utilizzano per rendere la loro vita un po’ più facile.

Secondo Deloitte, il 74% delle aziende intervistate nel suo secondo rapporto di Tecnologia, Fiducia ed Etica ha già iniziato a testare l’AI generativa, mentre il 65% l’ha già iniziata a utilizzare internamente. La crescente consapevolezza delle nuove capacità dell’AI ha portato alla domanda pressante su come le organizzazioni possano utilizzare questa tecnologia in modo etico.

Anche: L’etica dell’AI generativa: come possiamo sfruttare questa potente tecnologia

Deloitte ha intervistato 26 specialisti di diverse industrie per raccogliere informazioni su come i leader del settore stanno considerando le preoccupazioni sull’uso etico delle tecnologie emergenti, compresa l’AI generativa.

L’azienda ha quindi testato delle ipotesi e ha inviato un questionario di 64 domande a oltre 1.700 aziende e professionisti del settore tecnico per ottenere ulteriori informazioni.

Il rapporto, redatto da Beena Ammanath, direttore generale di Deloitte Consulting LLP e responsabile della pratica di Tecnologia, Fiducia ed Etica di Deloitte, fa riferimento alle tecnologie emergenti come segue: tecnologie cognitive (che includono l’AI generale e generativa e i chatbot), realtà digitale, esperienze ambientali, veicoli autonomi, calcolo quantistico, tecnologia dei registri distribuiti e robotica.

Secondo l’indagine, il 39% dei partecipanti, che includono leader aziendali e sviluppatori di tecnologie emergenti, pensava che le tecnologie cognitive avessero il maggior potenziale per il bene sociale, rispetto al 12% della realtà digitale e al 12% delle esperienze ambientali.

Anche: L’AI sta trasformando organizzazioni in tutto il mondo. Ecco come queste 6 aziende stanno facendo la differenza

Tuttavia, il 57% dei partecipanti all’indagine pensava anche che le tecnologie cognitive avessero il più grande potenziale per rischi etici seri.

La statistica più preoccupante è che oltre la metà dei partecipanti (56%) ha detto che la loro “azienda non ha principi etici o non è sicura di averne per guidare l’uso dell’AI generativa”.

Grafico sulle tecnologie emergenti di Deloitte

Rispetto al rapporto di Deloitte del 2022 sull’etica e la fiducia nelle tecnologie emergenti, il rapporto di quest’anno rivela che “le organizzazioni si trovano a combattere con nuove questioni etiche sollevate dall’adozione su vasta scala di questa tecnologia nuovamente.” Queste questioni sono legate alle preoccupazioni su come le imprese e le organizzazioni stanno utilizzando queste tecnologie.

Nonostante i numerosi vantaggi dell’AI, il 22% dei partecipanti era preoccupato per la privacy dei dati, mentre il 14% citava la trasparenza su come l’AI viene addestrata con i dati per produrre i suoi risultati.

Anche: 3 modi per garantire il miglior partner di AI per la tua azienda

L’avvelenamento dei dati, così come la proprietà intellettuale e il diritto d’autore, erano preoccupazioni che corrispondevano al 12% dei partecipanti all’indagine. L’avvelenamento dei dati è l'”inquinamento” dei set di dati di addestramento da parte di attori malintenzionati e può portare a risultati inaccurati prodotti dall’AI.

Grafico delle preoccupazioni sull'AI

Il rapporto di Deloitte ha anche descritto i tipi di danni che i partecipanti all’indagine ritengono possano sorgere quando le violazioni etiche non vengono prese sul serio.

Il danno alla reputazione è stata la maggiore fonte di preoccupazione per il 38% dei partecipanti, seguito dai danni umani come diagnosi errate o violazioni della privacy dei dati (27%), sanzioni normative come violazioni del copyright (17%), danni finanziari (9%) e insoddisfazione dei dipendenti (9%).

Questi danni sono evidenti nelle numerose cause legali che sono già state presentate a causa di violazioni della privacy, violazione del copyright e altre questioni legate all’uso non etico dell’AI.

Anche: Come l’intelligenza artificiale generativa può migliorare l’esperienza del cliente connesso

Quindi come possono le aziende assicurarsi di utilizzare l’IA in modo sicuro? Deloitte elenca un approccio a più passaggi per aiutare le aziende:

  • Esplorazione: Le aziende possono iniziare lasciando i titolari dei prodotti, i dirigenti aziendali e i praticanti di IA/ML esplorare l’IA generativa attraverso workshop per capire come potrebbe creare valore per le loro attività. In questo modo, le aziende possono riconoscere i costi e i benefici dell’incorporazione dell’IA nelle loro attività.
  • Fondamentale: Le aziende potrebbero acquistare o creare piattaforme di IA per implementare l’IA generativa nelle loro attività. Dei partecipanti al sondaggio, il 30% delle aziende ha scelto di utilizzare le capacità esistenti con le principali piattaforme di IA. Il 5% degli intervistati ha deciso di non utilizzare l’IA generativa.
  • Governance: Creare standard e protocolli per l’utilizzo dell’IA potrebbe ridurre al minimo gli impatti potenzialmente dannosi dell’IA, quindi le aziende dovrebbero stabilire quale tipo di principi etici intendono rispettare.
  • Formazione ed educazione: Le aziende potrebbero richiedere formazioni che illustrino i principi etici dell’utilizzo dell’IA. Inoltre, le formazioni tecniche che educano i dipendenti sull’utilizzo di una varietà di LLM potrebbero fornire alle aziende una maggiore orientamento sull’uso etico dell’IA.
  • Piloti: Gli ingegneri e i responsabili dei prodotti potrebbero condurre esperimenti su una varietà di casi d’uso per testare la prova di concetti e i programmi pilota, eliminando poi gli aspetti troppo rischiosi.
  • Implementazione: Le aziende dovrebbero redigere un piano per introdurre un prodotto appena migliorato sul mercato e assegnare la responsabilità dell’implementazione e del possesso del prodotto. L’azienda dovrebbe inoltre avere un team di esperti preparato ad affrontare eventuali problemi che potrebbero sorgere. La trasparenza è cruciale anche per questa fase, poiché le aziende dovrebbero spiegare come i dati degli utenti vengono inseriti nel modello, come il modello raggiunge il suo output e quanto è probabile che il modello deliri.
  • Audit: Secondo una persona intervistata, le aziende dovranno modificare le loro politiche a seconda dei rischi dell’utilizzo dell’IA. Questo potrebbe variare da azienda a azienda, poiché non tutte le organizzazioni incorporeranno l’IA per lo stesso caso d’uso.

“Più presto le aziende lavorano insieme per identificare i rischi e stabilire una governance fin dall’inizio, migliore potrebbe essere la loro capacità di contribuire a generare valore per gli stakeholder, elevare i loro marchi, creare nuovi mercati e contribuire alla costruzione di un mondo più equo”, ha dichiarato Ammanath.