L’IA è eccellente nella programmazione, ma ci sono alcune enormi avvertenze

L'IA è brava a programmare, ma ci sono avvertenze enormi

Creare e testare codice con un semplice tocco di un pulsante attraverso modelli generativi di intelligenza artificiale (AI), come GitHub CoPilot o ChatGPT, sembra quasi troppo bello per essere vero. Così buono, infatti, che deve esserci uno svantaggio.

Mentre i professionisti del software stanno abbracciando l’AI come uno strumento potente per costruire, lanciare e aggiornare applicazioni, c’è anche nervosismo per le sue implicazioni sulla proprietà intellettuale e sulla sicurezza. Il codice generato dall’AI è rubato dalla proprietà intellettuale di qualcun altro? Il modello attinge a dati interni aziendali che dovrebbero essere mantenuti sicuri?

Inoltre: Come utilizzare ChatGPT per scrivere codice

I tecnologi riconoscono che l’adozione dell’AI richiede attenzione ai diritti, alla privacy, alla sicurezza, alla produttività e alla formazione, secondo un sondaggio di GitLab su 1.001 sviluppatori e dirigenti, condotto a giugno.

La maggior parte dei partecipanti (79%) ha espresso preoccupazione per il fatto che gli strumenti di intelligenza artificiale abbiano accesso a informazioni private o proprietà intellettuale. La preoccupazione principale era che informazioni sensibili, come i dati dei clienti, potessero essere esposte.

Le preoccupazioni sul copyright sono al primo posto nella lista delle preoccupazioni sull’utilizzo del codice generato dall’AI. Quasi la metà dei partecipanti (48%) ha citato la preoccupazione che il codice generato utilizzando l’AI potrebbe non essere soggetto alla stessa protezione del copyright del codice generato dall’uomo. Un altro 39% era preoccupato per le vulnerabilità di sicurezza con tale codice.

Inoltre: 6 competenze necessarie per diventare un ingegnere di AI

Tuttavia, i tecnologi sono ottimisti che questi problemi possano essere risolti e continuano a procedere avanti. Tra i partecipanti le cui organizzazioni utilizzano l’AI nello sviluppo software oggi, fino al 90% si sentiva sicuro nell’utilizzare l’AI nelle loro attività quotidiane sul lavoro. Inoltre, il 60% ha dichiarato di utilizzare l’AI quotidianamente e il 22% ha dichiarato di utilizzare l’AI diverse volte alla settimana. Più della metà (51%) ha valutato gli sforzi della propria organizzazione nell’incorporare l’AI nel ciclo di sviluppo del software come “molto” o “estremamente” di successo.

L’AI è vista come un investimento importante dal punto di vista dello sviluppo software. Tra i partecipanti le cui organizzazioni utilizzano o intendono utilizzare l’AI in futuro, l’83% ha dichiarato di avere o avrà un budget specificamente allocato all’AI per lo sviluppo del software. I benefici citati includono un miglioramento dell’efficienza (55%), tempi di ciclo più veloci (44%) e un aumento dell’innovazione (41%).

La formazione e le competenze sono emerse come un tema comune negli ostacoli e nelle preoccupazioni identificate dai partecipanti. L’81% ha dichiarato di aver bisogno di ulteriore formazione per utilizzare l’AI sul lavoro e l’87% ha affermato che le organizzazioni dovranno riqualificare i dipendenti per adattarsi ai cambiamenti che l’AI porterà. Una delle principali preoccupazioni riguardava la possibilità di introdurre un nuovo insieme di competenze da apprendere (42%), seguita dalla mancanza delle competenze appropriate per utilizzare l’AI o interpretare l’output dell’AI (34%).

Inoltre: 5 modi per esplorare l’uso di AI generativa sul lavoro

La conclusione è che l’AI non può sostituire la supervisione umana e l’innovazione. I professionisti più esperti “accettano l’AI come uno strumento di supporto per lo sviluppo delle competenze, ma non credono che possa sostituire completamente l’esperienza, la conoscenza e la risoluzione dei problemi dei professionisti esperti come loro”, affermano gli autori del sondaggio.

“In definitiva, si tratta di più che semplicemente umano contro macchina. Sfruttare l’esperienza dei membri del team umano insieme all’AI è il miglior – e forse l’unico – modo in cui le organizzazioni possono affrontare pienamente le preoccupazioni legate alla sicurezza e alla proprietà intellettuale.”

L’AI potrebbe essere in grado di generare codice più velocemente di un programmatore umano, “ma un membro del team umano deve verificare che il codice generato dall’AI sia privo di errori, vulnerabilità di sicurezza o problemi di copyright prima di andare in produzione”, hanno affermato.