Il 56% dei professionisti non è sicuro se le loro aziende abbiano linee guida etiche per l’uso dell’IA
Il 56% dei professionisti è incerto sulla presenza di linee guida etiche per l'utilizzo dell'IA nelle proprie aziende
Anche se l’intelligenza artificiale (AI) esiste dal 1950, ha visto una crescita enorme nell’ultimo anno. I giganti della tecnologia hanno implementato l’AI nei loro prodotti e servizi, mentre le persone la utilizzano per rendere la loro vita un po’ più facile.
Secondo Deloitte, il 74% delle aziende intervistate nel suo secondo rapporto di Tecnologia, Fiducia ed Etica ha già iniziato a testare l’AI generativa, mentre il 65% l’ha già iniziata a utilizzare internamente. La crescente consapevolezza delle nuove capacità dell’AI ha portato alla domanda pressante su come le organizzazioni possano utilizzare questa tecnologia in modo etico.
Anche: L’etica dell’AI generativa: come possiamo sfruttare questa potente tecnologia
Deloitte ha intervistato 26 specialisti di diverse industrie per raccogliere informazioni su come i leader del settore stanno considerando le preoccupazioni sull’uso etico delle tecnologie emergenti, compresa l’AI generativa.
L’azienda ha quindi testato delle ipotesi e ha inviato un questionario di 64 domande a oltre 1.700 aziende e professionisti del settore tecnico per ottenere ulteriori informazioni.
- Apple Vision Pro supporta un tasso di aggiornamento fino a 100Hz
- Samsung sconta il nuovo display ViewFinity S9 5K a $1,299.99 (scont...
- Il Regno Unito coglie l’opportunità di web3 semplificando le ...
Il rapporto, redatto da Beena Ammanath, direttore generale di Deloitte Consulting LLP e responsabile della pratica di Tecnologia, Fiducia ed Etica di Deloitte, fa riferimento alle tecnologie emergenti come segue: tecnologie cognitive (che includono l’AI generale e generativa e i chatbot), realtà digitale, esperienze ambientali, veicoli autonomi, calcolo quantistico, tecnologia dei registri distribuiti e robotica.
Secondo l’indagine, il 39% dei partecipanti, che includono leader aziendali e sviluppatori di tecnologie emergenti, pensava che le tecnologie cognitive avessero il maggior potenziale per il bene sociale, rispetto al 12% della realtà digitale e al 12% delle esperienze ambientali.
Anche: L’AI sta trasformando organizzazioni in tutto il mondo. Ecco come queste 6 aziende stanno facendo la differenza
Tuttavia, il 57% dei partecipanti all’indagine pensava anche che le tecnologie cognitive avessero il più grande potenziale per rischi etici seri.
La statistica più preoccupante è che oltre la metà dei partecipanti (56%) ha detto che la loro “azienda non ha principi etici o non è sicura di averne per guidare l’uso dell’AI generativa”.
Rispetto al rapporto di Deloitte del 2022 sull’etica e la fiducia nelle tecnologie emergenti, il rapporto di quest’anno rivela che “le organizzazioni si trovano a combattere con nuove questioni etiche sollevate dall’adozione su vasta scala di questa tecnologia nuovamente.” Queste questioni sono legate alle preoccupazioni su come le imprese e le organizzazioni stanno utilizzando queste tecnologie.
Nonostante i numerosi vantaggi dell’AI, il 22% dei partecipanti era preoccupato per la privacy dei dati, mentre il 14% citava la trasparenza su come l’AI viene addestrata con i dati per produrre i suoi risultati.
Anche: 3 modi per garantire il miglior partner di AI per la tua azienda
L’avvelenamento dei dati, così come la proprietà intellettuale e il diritto d’autore, erano preoccupazioni che corrispondevano al 12% dei partecipanti all’indagine. L’avvelenamento dei dati è l'”inquinamento” dei set di dati di addestramento da parte di attori malintenzionati e può portare a risultati inaccurati prodotti dall’AI.
Il rapporto di Deloitte ha anche descritto i tipi di danni che i partecipanti all’indagine ritengono possano sorgere quando le violazioni etiche non vengono prese sul serio.
Il danno alla reputazione è stata la maggiore fonte di preoccupazione per il 38% dei partecipanti, seguito dai danni umani come diagnosi errate o violazioni della privacy dei dati (27%), sanzioni normative come violazioni del copyright (17%), danni finanziari (9%) e insoddisfazione dei dipendenti (9%).
Questi danni sono evidenti nelle numerose cause legali che sono già state presentate a causa di violazioni della privacy, violazione del copyright e altre questioni legate all’uso non etico dell’AI.
Anche: Come l’intelligenza artificiale generativa può migliorare l’esperienza del cliente connesso
Quindi come possono le aziende assicurarsi di utilizzare l’IA in modo sicuro? Deloitte elenca un approccio a più passaggi per aiutare le aziende:
- Esplorazione: Le aziende possono iniziare lasciando i titolari dei prodotti, i dirigenti aziendali e i praticanti di IA/ML esplorare l’IA generativa attraverso workshop per capire come potrebbe creare valore per le loro attività. In questo modo, le aziende possono riconoscere i costi e i benefici dell’incorporazione dell’IA nelle loro attività.
- Fondamentale: Le aziende potrebbero acquistare o creare piattaforme di IA per implementare l’IA generativa nelle loro attività. Dei partecipanti al sondaggio, il 30% delle aziende ha scelto di utilizzare le capacità esistenti con le principali piattaforme di IA. Il 5% degli intervistati ha deciso di non utilizzare l’IA generativa.
- Governance: Creare standard e protocolli per l’utilizzo dell’IA potrebbe ridurre al minimo gli impatti potenzialmente dannosi dell’IA, quindi le aziende dovrebbero stabilire quale tipo di principi etici intendono rispettare.
- Formazione ed educazione: Le aziende potrebbero richiedere formazioni che illustrino i principi etici dell’utilizzo dell’IA. Inoltre, le formazioni tecniche che educano i dipendenti sull’utilizzo di una varietà di LLM potrebbero fornire alle aziende una maggiore orientamento sull’uso etico dell’IA.
- Piloti: Gli ingegneri e i responsabili dei prodotti potrebbero condurre esperimenti su una varietà di casi d’uso per testare la prova di concetti e i programmi pilota, eliminando poi gli aspetti troppo rischiosi.
- Implementazione: Le aziende dovrebbero redigere un piano per introdurre un prodotto appena migliorato sul mercato e assegnare la responsabilità dell’implementazione e del possesso del prodotto. L’azienda dovrebbe inoltre avere un team di esperti preparato ad affrontare eventuali problemi che potrebbero sorgere. La trasparenza è cruciale anche per questa fase, poiché le aziende dovrebbero spiegare come i dati degli utenti vengono inseriti nel modello, come il modello raggiunge il suo output e quanto è probabile che il modello deliri.
- Audit: Secondo una persona intervistata, le aziende dovranno modificare le loro politiche a seconda dei rischi dell’utilizzo dell’IA. Questo potrebbe variare da azienda a azienda, poiché non tutte le organizzazioni incorporeranno l’IA per lo stesso caso d’uso.
“Più presto le aziende lavorano insieme per identificare i rischi e stabilire una governance fin dall’inizio, migliore potrebbe essere la loro capacità di contribuire a generare valore per gli stakeholder, elevare i loro marchi, creare nuovi mercati e contribuire alla costruzione di un mondo più equo”, ha dichiarato Ammanath.