La Cina chiude un numero record di violazioni dei dati personali, propone una legge sul riconoscimento facciale

China closes record number of personal data breaches, proposes facial recognition law

La Cina ha chiuso un numero record di violazioni dei dati personali e sta cercando il feedback del pubblico sulle bozze di leggi per regolare l’uso dei dati di riconoscimento facciale.

Negli ultimi tre anni, la polizia cinese ha chiuso 36.000 casi di violazioni dei dati personali, detenendo lungo il percorso 64.000 sospetti, secondo il Ministero della Sicurezza Pubblica. Gli arresti sono stati parte degli sforzi del governo dal 2020 per regolare Internet, che ha visto anche più di 30 milioni di schede SIM e 300 milioni di account Internet “illegali” sequestrati, riporta il media di proprietà statale Global Times, citando il ministero in una conferenza stampa giovedì.

Inoltre: L’IA può scoprire la tua password ascoltando i clic della tastiera

La polizia stava indagando su un numero crescente di casi criminali che coinvolgevano violazioni dei dati personali negli ultimi anni, che avevano come obiettivo diverse industrie tra cui sanità, educazione, logistica ed e-commerce.

I casi criminali segnalati che coinvolgono l’intelligenza artificiale (IA) erano anche in aumento, ha detto il ministero, citando un incidente nell’aprile 2023 in cui un’azienda nella provincia di Fujian ha perso 4,3 milioni di yuan ($596.510) a causa di hacker che hanno utilizzato l’IA per alterare i loro volti.

Fino ad oggi, le agenzie di applicazione della legge hanno risolto 79 casi che coinvolgono “cambiamenti di volto con l’IA”.

Inoltre: Non siamo pronti per l’impatto dell’IA generativa sulle elezioni

Con il riconoscimento facciale ora ampiamente utilizzato insieme ai progressi compiuti nella tecnologia dell’IA, i funzionari governativi hanno notato l’emergere di casi che sfruttano tali dati. In tali casi, i criminali informatici utilizzerebbero foto, in particolare quelle presenti sulle carte d’identità, insieme a nomi personali e numeri di identificazione per facilitare la verifica del riconoscimento facciale.

I dipartimenti di sicurezza pubblica della Cina stanno lavorando con strutture statali per condurre valutazioni di sicurezza del riconoscimento facciale e di altre tecnologie pertinenti, nonché per identificare potenziali rischi nei sistemi di verifica del riconoscimento facciale, secondo il ministero.

Con gli ecosistemi criminali informatici ampiamente collegati, che vanno dal furto alla rivendita dei dati al riciclaggio di denaro, i funzionari governativi cinesi hanno affermato che questi criminali hanno stabilito un significativo mercato “sotterraneo dei big data” che rappresenta seri rischi per i dati personali e l'”ordine sociale”.

Proposte di leggi nazionali per regolare il riconoscimento facciale

La Cyberspace Administration of China (CAC) ha pubblicato inizialmente questa settimana bozze di leggi che trattavano specificamente la tecnologia di riconoscimento facciale. Secondo il Global Times, è stata la prima volta che venivano proposte regolamentazioni nazionali per la tecnologia.

Inoltre: Zoom è coinvolta in un disastro sulla privacy dell’IA

Le regole proposte richiederanno il consenso esplicito o scritto dell’utente prima che le organizzazioni possano raccogliere e utilizzare informazioni personali facciali. Le aziende dovranno anche indicare il motivo e l’entità dei dati che stanno raccogliendo e utilizzare i dati solo per lo scopo dichiarato.

Senza il consenso dell’utente, nessuna persona o organizzazione è autorizzata a utilizzare la tecnologia di riconoscimento facciale per analizzare dati personali sensibili, come etnia, credo religioso, razza e stato di salute. Ci sono eccezioni per l’uso senza consenso, principalmente per mantenere la sicurezza nazionale e la sicurezza pubblica, nonché per salvaguardare la salute e la proprietà delle persone in caso di emergenza.

Le organizzazioni che utilizzano la tecnologia devono avere misure di protezione dei dati per prevenire l’accesso non autorizzato o le violazioni dei dati, afferma il documento del CAC.

Le bozze di legge indicano inoltre che ogni persona o organizzazione che conserva più di 10.000 set di dati di riconoscimento facciale deve notificare le autorità governative cibernetiche pertinenti entro 30 giorni lavorativi.

Inoltre: L’IA generativa e il quarto perché: costruire fiducia con il tuo cliente

Le regole proposte stabiliscono le condizioni in cui i sistemi di riconoscimento facciale dovrebbero essere utilizzati, inclusi come elaborano i dati facciali personali e per quali scopi.

Le bozze di legge stabiliscono inoltre che le aziende devono dare priorità all’uso di strumenti di riconoscimento non biometrici alternativi se questi forniscono risultati equivalenti alla tecnologia basata sulla biometria.

Il pubblico ha un mese di tempo per inviare commenti sulle bozze di legge.

A gennaio, la Cina ha attuato regolamentazioni volte a prevenire l’abuso della tecnologia di “sintesi profonda”, inclusi deepfake e realtà virtuale. Chiunque utilizzi questi servizi deve etichettare le immagini di conseguenza e astenersi dall’utilizzare la tecnologia per attività che violano le regole locali.

Inoltre: 4 modi per rilevare l’esagerazione dell’IA generativa rispetto alla realtà

Le leggi temporanee entreranno in vigore anche la prossima settimana per gestire i servizi di intelligenza artificiale generativa nel paese. Queste regolamentazioni delineano varie misure che mirano a facilitare lo sviluppo sano della tecnologia, proteggendo nel contempo gli interessi nazionali e pubblici e i diritti legali dei cittadini e delle imprese, ha dichiarato il governo cinese. 

Ad esempio, gli sviluppatori di IA generativa dovranno assicurarsi che i loro processi di pre-addestramento e ottimizzazione del modello siano effettuati nel rispetto della legge. Questi includono l’utilizzo di dati provenienti da fonti legittime che rispettino i diritti di proprietà intellettuale. Nel caso in cui vengano utilizzati dati personali, il consenso dell’individuo deve essere ottenuto o deve essere effettuato in conformità con le normative esistenti. Devono essere adottate anche misure per migliorare la qualità dei dati di addestramento, inclusa la loro accuratezza, obiettività e diversità. 

In base alle leggi temporanee, i fornitori di servizi di IA generativa assumono la responsabilità legale delle informazioni generate e della loro sicurezza. Dovranno firmare accordi di livello di servizio con gli utenti del loro servizio, in tal modo chiarificando i diritti e gli obblighi di ciascuna parte.