Gli AI Chatbot stanno invadendo il tuo governo locale e stanno rendendo tutti nervosi

AI Chatbot invadono governo locale, rendendo nervosi.

Gli impiegati dell’Agenzia per la Protezione dell’Ambiente degli Stati Uniti hanno avuto l’accesso a ChatGPT bloccato, mentre il personale del Dipartimento di Stato degli Stati Uniti in Guinea lo ha utilizzato per redigere discorsi e post sui social media.

Il Maine ha vietato ai dipendenti del ramo esecutivo di utilizzare l’intelligenza artificiale generativa per il resto dell’anno per preoccupazioni legate alla sicurezza informatica dello stato. Nel vicino Vermont, i dipendenti governativi lo utilizzano per imparare nuovi linguaggi di programmazione e scrivere codice interno, secondo Josiah Raiche, direttore dell’intelligenza artificiale dello stato.

La città di San Jose, in California, ha redatto 23 pagine di linee guida sull’intelligenza artificiale generativa e richiede ai dipendenti municipali di compilare un modulo ogni volta che utilizzano strumenti come ChatGPT, Bard o Midjourney. A meno di un’ora di macchina a nord, il governo della contea di Alameda ha tenuto sessioni per informare i dipendenti sui rischi dell’intelligenza artificiale generativa, come la tendenza a fornire informazioni convincenti ma inaccurate, ma non ritiene ancora necessaria una politica formale.

“Siamo più concentrati su cosa puoi fare, non su cosa non puoi fare”, afferma Sybil Gurney, vice direttore delle informazioni della contea di Alameda. Il personale della contea sta “svolgendo gran parte del proprio lavoro scritto utilizzando ChatGPT”, aggiunge Gurney, e ha utilizzato Einstein GPT di Salesforce per simulare utenti per test di sistemi IT.

A tutti i livelli, i governi stanno cercando modi per sfruttare l’intelligenza artificiale generativa. Funzionari statali e cittadini hanno dichiarato a ENBLE che credono che la tecnologia possa migliorare alcune delle qualità più fastidiose della burocrazia semplificando la documentazione di routine e migliorando la capacità del pubblico di accedere e comprendere materiale governativo denso. Ma i governi, soggetti a rigide leggi sulla trasparenza, elezioni e un senso di responsabilità civica, affrontano anche una serie di sfide diverse dal settore privato.

“A tutti interessa la responsabilità, ma quando si è letteralmente il governo, il livello di attenzione è diverso”, afferma Jim Loter, direttore tecnologico ad interim della città di Seattle, che ha pubblicato linee guida preliminari sull’intelligenza artificiale generativa per i propri dipendenti ad aprile. “Le decisioni che prende il governo possono influenzare le persone in modi piuttosto profondi e … dobbiamo al nostro pubblico di essere equi e responsabili nelle decisioni che prendiamo e aperti sui metodi che informano tali decisioni”.

Il mese scorso, l’assistente sovrintendente di Mason City, Iowa, è stato messo sotto i riflettori nazionali per aver utilizzato ChatGPT come primo passo per determinare quali libri dovessero essere rimossi dalle biblioteche del distretto perché contenevano descrizioni di atti sessuali. Le rimozioni dei libri erano richieste da una legge statale recentemente promulgata.

Quel livello di controllo sugli ufficiali governativi è destinato a continuare. Nelle loro politiche sull’intelligenza artificiale generativa, le città di San Jose e Seattle e lo stato di Washington hanno tutti avvertito il personale che qualsiasi informazione inserita come prompt in uno strumento di intelligenza artificiale generativa diventa automaticamente soggetta a divulgazione ai sensi delle leggi sui registri pubblici.

Quell’informazione viene anche automaticamente inglobata nei database aziendali utilizzati per addestrare gli strumenti di intelligenza artificiale generativa e potenzialmente può essere restituita a un’altra persona che utilizza un modello addestrato sugli stessi dati. Infatti, uno studio dell’Istituto per l’Intelligenza Artificiale Centrata sull’Uomo dell’Università di Stanford pubblicato lo scorso novembre suggerisce che i modelli linguistici di grandi dimensioni che sono più accurati sono più inclini a rigurgitare interi blocchi di contenuto dai loro set di addestramento.

Questo è un particolare problema per le agenzie sanitarie e di giustizia penale.

Loter afferma che i dipendenti di Seattle hanno considerato l’utilizzo dell’intelligenza artificiale generativa per riassumere lunghi rapporti investigativi dell’Ufficio di Responsabilità della Polizia della città. Tali rapporti possono contenere informazioni pubbliche ma ancora sensibili.

Il personale della Corte Superiore della Contea di Maricopa, in Arizona, utilizza strumenti di intelligenza artificiale generativa per scrivere codice interno e generare modelli di documenti. Finora non lo hanno utilizzato per comunicazioni rivolte al pubblico, ma ritengono che abbia il potenziale per rendere i documenti legali più comprensibili per i non avvocati, afferma Aaron Judy, responsabile dell’innovazione e dell’intelligenza artificiale della corte. In teoria, il personale potrebbe inserire informazioni pubbliche su un caso giudiziario in uno strumento di intelligenza artificiale generativa per creare un comunicato stampa senza violare le politiche della corte, ma, dice, “probabilmente sarebbero nervosi”.

“Si sta utilizzando il contributo dei cittadini per addestrare il motore di guadagno di un’entità privata in modo che possano fare più soldi”, afferma Judy. “Non dico che sia una cosa negativa, ma alla fine della giornata dobbiamo essere tutti a nostro agio nel dire: ‘Sì, è quello che stiamo facendo'”.

Nelle linee guida di San Jose, l’utilizzo dell’intelligenza artificiale generativa per creare un documento per il consumo pubblico non è vietato esplicitamente, ma è considerato “ad alto rischio” a causa del potenziale della tecnologia di diffondere disinformazione e perché la città è precisa nel modo in cui comunica. Ad esempio, un grande modello linguistico chiesto di scrivere un comunicato stampa potrebbe utilizzare la parola “cittadini” per descrivere le persone che vivono a San Jose, ma la città utilizza solo la parola “residenti” nelle sue comunicazioni, perché non tutti nella città sono cittadini statunitensi.

Compagnie di tecnologia civica come Zencity hanno aggiunto strumenti di AI generativa per scrivere comunicati stampa governativi alle loro linee di prodotto, mentre i giganti tecnologici e le principali società di consulenza, tra cui Microsoft, Google, Deloitte e Accenture, stanno proponendo una varietà di prodotti di AI generativa a livello federale.

Le prime politiche governative sull’AI generativa sono state emanate da città e stati, e gli autori di alcune di queste politiche hanno dichiarato a ENBLE che sono desiderosi di apprendere da altre agenzie e migliorare i loro standard. Alexandra Reeve Givens, presidente e CEO del Center for Democracy and Technology, afferma che la situazione è pronta per una “leadership chiara” e “orientamenti specifici e dettagliati da parte del governo federale”.

L’ufficio federale di gestione e bilancio è previsto che rilasci le sue linee guida preliminari sull’uso dell’AI da parte del governo federale in estate.

La prima ondata di politiche sull’AI generativa emanate da agenzie cittadine e statali sono misure temporanee che i funzionari dicono saranno valutate nei prossimi mesi e ampliate. Tutte vietano ai dipendenti di utilizzare informazioni sensibili e non pubbliche nelle richieste e richiedono un certo livello di controllo umano e revisione del lavoro generato dall’AI, ma ci sono anche differenze significative.

Ad esempio, le linee guida a San Jose, Seattle, Boston e nello stato di Washington richiedono che i dipendenti dichiarino l’uso dell’AI generativa nel loro prodotto di lavoro, mentre le linee guida del Kansas non lo richiedono.

Albert Gehami, responsabile della privacy di San Jose, afferma che le regole nella sua città e in altre evolveranno significativamente nei prossimi mesi man mano che i casi d’uso diventeranno più chiari e i funzionari pubblici scopriranno le differenze tra l’AI generativa e le tecnologie già diffuse.

“Quando lavori con Google, inserisci qualcosa e ottieni una serie di punti di vista diversi, e abbiamo avuto 20 anni di esperienza per imparare come usare questa responsabilità”, dice Gehami. “Tra 20 anni, probabilmente avremo capito come utilizzare l’AI generativa, ma non voglio che la nostra città impieghi 20 anni per capirlo.”