La maggior parte delle persone diffida dell’IA e desidera regolamentazione, secondo un nuovo sondaggio | ENBLE

Sondaggio La maggioranza diffida dell'IA e vuole regolamentazioni | ENBLE

Una nuova indagine ha scoperto che la maggior parte degli adulti americani non si fida degli strumenti di intelligenza artificiale (IA) come ChatGPT e si preoccupa del loro potenziale abuso. Ciò suggerisce che gli scandali frequenti legati a malware e disinformazione creati dall’IA stanno avendo un impatto e che il pubblico potrebbe essere sempre più favorevole all’idea di regolamentare l’IA.

L’indagine condotta dalla MITRE Corporation e da Harris Poll afferma che solo il 39% dei 2.063 adulti americani intervistati crede che la tecnologia dell’IA di oggi sia “sicura e protetta”, un calo del 9% rispetto all’ultima indagine condotta dalle due aziende nel novembre 2022.

Sanket Mishra / Pexels

Per quanto riguarda le preoccupazioni specifiche, l’82% delle persone si preoccupa dei deepfake e di “altri contenuti artificialmente manipolati”, mentre l’80% teme come questa tecnologia potrebbe essere utilizzata in attacchi malware. La maggioranza dei sondaggi si preoccupava dell’uso dell’IA nel furto di identità, nel raccolto di dati personali, nella sostituzione degli esseri umani sul posto di lavoro e altro ancora.

In effetti, l’indagine indica che le persone stanno diventando sempre più diffidenti nei confronti dell’impatto dell’IA in vari gruppi demografici. Mentre il 90% dei baby boomer si preoccupa dell’impatto dei deepfake, il 72% dei membri della Generazione Z è ansioso dello stesso argomento.

Sebbene i giovani siano meno sospettosi dell’IA – e sono più propensi a utilizzarla nella loro vita quotidiana – le preoccupazioni rimangono alte in diverse aree, tra cui se l’industria dovrebbe fare di più per proteggere il pubblico e se l’IA dovrebbe essere regolamentata.

Forte sostegno alla regolamentazione

Shutterstock

Il calo del sostegno agli strumenti di IA è probabilmente stato causato da mesi di storie negative sui generativi strumenti di IA e sulle controversie che coinvolgono ChatGPT, Bing Chat e altri prodotti. Con l’aumento di casi di disinformazione, violazioni dei dati e malware, sembra che il pubblico stia diventando meno incline al futuro imminente dell’IA.

Quando nell’indagine MITRE-Harris è stato chiesto se il governo dovrebbe intervenire per regolamentare l’IA, l’85% dei sondati si è espresso a favore dell’idea, un aumento del 3% rispetto all’ultima volta. L’85% ha anche concordato con l’affermazione che “Rendere l’IA sicura e protetta per l’uso pubblico deve essere uno sforzo nazionale che coinvolge l’industria, il governo e l’ambiente accademico”, mentre il 72% pensava che “Il governo federale dovrebbe dedicare più tempo e finanziamenti alla ricerca e allo sviluppo della sicurezza dell’IA”.

L’ansia diffusa riguardo all’uso dell’IA per migliorare gli attacchi malware è interessante. Recentemente abbiamo parlato con un gruppo di esperti di sicurezza informatica su questo stesso argomento e il consenso sembrava essere che, sebbene l’IA potesse essere utilizzata in malware, non è uno strumento particolarmente efficace al momento. Alcuni esperti ritenevano che la sua capacità di scrivere codice malware efficace fosse scarsa, mentre altri spiegavano che gli hacker erano probabilmente più propensi a trovare exploit migliori nei depositi pubblici piuttosto che chiedere aiuto all’IA.

Tuttavia, la crescente diffidenza verso tutto ciò che riguarda l’IA potrebbe finire per plasmare gli sforzi dell’industria e potrebbe spingere aziende come OpenAI a investire più denaro per proteggere il pubblico dai prodotti che rilasciano. E con un tale sostegno schiacciante, non sorprendetevi se i governi iniziano a promulgare regolamenti sull’IA prima piuttosto che dopo.