L’IA porta nuove capacità e rischi alla sicurezza dei dati sanitari

L'IA e i rischi per la sicurezza dei dati sanitari

La protezione dei dati è un aspetto critico per gestire correttamente l’ambiente IT di un’organizzazione sanitaria. I dati sanitari rimangono uno dei principali obiettivi dei criminali informatici a causa del livello di sensibilità dei loro dati di sistema. I dataset mirati sono le informazioni personalmente identificabili (PII), le informazioni finanziarie e le informazioni sulla salute.

Queste organizzazioni possono rafforzare i loro sistemi introducendo aggiornamenti periodici e applicazioni come parte della loro strategia DevSecOps. Velocità, affidabilità e sicurezza sono tutti aspetti critici di un approccio DevSecOps di successo. Gli strumenti e i processi utilizzati per perseguire questo obiettivo determinano il livello di successo.

Tuttavia, nonostante il costante rilascio di nuovi strumenti, i recenti progressi nell’intelligenza artificiale (IA) stanno ricevendo grande attenzione. Ad esempio, l’IA generativa e i grandi modelli di linguaggio (LLM) stanno aiutando i lavoratori di varie industrie ad accelerare i processi e a scaricare compiti manuali, migliorando continuamente i loro programmi.

I programmatori stanno scoprendo che gli strumenti di intelligenza artificiale possono produrre rapidamente linee di codice con poche semplici istruzioni. Questa tecnologia è ancora molto giovane, quindi non è chiaro quanto successo avranno questi sforzi, ma ciò non impedisce a molti team di sviluppo di utilizzare gli strumenti di intelligenza artificiale.

Le aziende sanitarie devono mantenere un rigoroso controllo sulla loro infrastruttura IT. Quindi, come si integrano gli strumenti di intelligenza artificiale nei loro requisiti?

Le AI generative e gli strumenti LLM possono aumentare significativamente il tempo di commercializzazione, ma quali sono i rischi? È possibile raggiungere i livelli di controllo necessari per i team di DevSecOps sanitari?

Esaminiamo dove si trova attualmente questa tecnologia, cosa significa per i team di InfoSec e come utilizzare in modo sicuro questi nuovi strumenti potenti.

Come funzionano l’IA generativa e gli strumenti LLM

Sia l’IA generativa che gli strumenti LLM lavorano con istruzioni. Un utente può fare domande o richiedere una funzione e lo strumento genera una risposta. Queste risposte vengono modificate con ulteriori domande o istruzioni per adattarsi meglio all’utente.

Tuttavia, c’è una differenza tra l’IA generativa e gli LLM. L’IA generativa descrive qualsiasi tipo di intelligenza artificiale che utilizza comportamenti appresi per produrre contenuti unici. Genera immagini e testo e comprende modelli di linguaggio estesi e altri tipi di intelligenza artificiale.

D’altra parte, gli LLM sono versioni altamente raffinate dell’IA generativa. Sono addestrati su grandi quantità di dati, producono risposte simili a quelle umane e sono più applicabili alle pratiche DevOps. Gli utenti possono immettere comandi che chiedono al programma di creare un flusso o un trigger, ad esempio, quindi l’LLM può produrre codice applicabile alla richiesta dell’utente per il programma.

Scegliere il modello giusto

Esistono diverse varianti di modelli di IA tra cui scegliere. I modelli open source basati su versioni precedenti vengono addestrati con nuovi materiali di origine ogni giorno. Modelli più grandi e popolari come Google Bard e Chat GPT di Open AI sono le versioni più conosciute di grandi modelli di linguaggio in uso.

Questi strumenti vengono addestrati su siti web, articoli e libri. Le informazioni contenute in questo testo di origine influenzano le risposte alle richieste degli utenti e indicano come il programma formula le sue risposte.

L’architettura degli strumenti di IA generativa è costruita con più livelli di meccanismi per aiutarli a comprendere le relazioni e le dipendenze tra parole e frasi, consentendo loro di essere più conversazionali.

I dati inseriti in un modello di IA influenzano le risposte. Questi sistemi vengono perfezionati nel tempo imparando dalle interazioni con gli utenti e dai nuovi materiali di origine. Ulteriori addestramenti e perfezionamenti renderanno questi strumenti più accurati e affidabili.

Imparare dai dati inseriti dagli utenti è un ottimo modo per velocizzare il processo di apprendimento degli strumenti di IA generativa e LLM. Tuttavia, questo approccio può introdurre rischi per la sicurezza dei dati per i team di DevSecOps. Ma prima di approfondire i rischi, vediamo cosa possono ottenere i team implementando strumenti di IA generativa.

Cosa possono fare l’IA generativa e LLM per DevOps?

Il set di strumenti disponibili per i programmatori sta diventando sempre più specializzato. Strumenti come Einstein GPT hanno il potenziale per cambiare il modo in cui guardiamo allo sviluppo software e consentono alle organizzazioni sanitarie di ridurre il tempo di commercializzazione delle loro pratiche di sviluppo software.

Ecco alcune delle modalità in cui gli strumenti LLM possono beneficiare i team di DevOps.

  1. Aumenta la velocità di rilascio

La velocità è un vantaggio significativo per i team di DevOps. La capacità di introdurre rapidamente un aggiornamento o un’applicazione affidabile rende l’organizzazione più flessibile e in grado di rispondere alle problematiche emergenti. Le organizzazioni sanitarie che introducono frequentemente rilasci tempestivi sono leader nel settore e hanno maggiori probabilità di ottenere successo.

Gli strumenti LLM aiutano gli sviluppatori a scrivere grandi porzioni di codice in una frazione del tempo che impiegherebbero per scriverlo autonomamente. Mettere la fase di sviluppo del ciclo di vita dell’applicazione sulla via veloce con la scrittura automatizzata consente di produrre risultati molto più rapidamente.

  1. Riduci i processi manuali

I membri del nostro team sono i nostri maggiori asset, ma gli errori umani sono inevitabili. Introdurre nuovi strumenti automatizzati nel pipeline DevOps contribuisce notevolmente a ridurre gli errori e ottimizzare le operazioni. Questo vale tanto per gli strumenti LLM quanto per gli strumenti standard DevOps come l’analisi statica del codice e l’automazione CI/CD.

La capacità dei programmatori di inserire istruzioni e far svolgere al tool LLM una grande percentuale della scrittura del codice aumenta notevolmente la produttività.

I compiti manuali e ripetitivi portano a errori. Ma quando i programmatori possono affidare gran parte della scrittura a un LLM, tutto ciò che devono fare è verificare il codice prima di commetterlo al progetto.

  1. Fornire Materiale di Riferimento

La confusione porta a perdite di tempo. La produttività diminuisce quando i programmatori non riescono a trovare la risposta a una domanda o si trovano di fronte a un errore confuso. L’IA generativa e gli strumenti LLM forniscono contesto e risposte a domande specifiche in tempo reale.

Spiegazioni dettagliate per la documentazione dei linguaggi di programmazione, l’identificazione degli errori e i modelli di utilizzo sono tutti disponibili a portata di mano dei programmatori.

La risoluzione dei problemi diventa semplificata, consentendo al team di tornare al lavoro anziché perdere tempo nella risoluzione dei problemi. Gli strumenti LLM suggeriscono soluzioni e strategie di debug per mantenere gli aggiornamenti in programma.

Potenziali Rischi per la Sicurezza dei Dati Associati all’IA

Le risposte alle query degli LLM sono diverse ogni volta. E sebbene ciò possa funzionare bene in un contesto di conversazione, può causare problemi ai programmatori che utilizzano questa tecnologia per scrivere codice. Un codice difettoso porta a vulnerabilità per la sicurezza dei dati. Per settori regolamentati come l’assistenza sanitaria, ogni potenziale vulnerabilità deve essere esaminata.

Ci sono ancora molte domande su come l’utilizzo di questi strumenti si svilupperà, ma ecco alcune considerazioni chiave:

  1. Risultati Non Affidabili

L’IA generativa e gli strumenti LLM sono molto rapidi nella produzione dei risultati, ma i risultati potrebbero non essere di alta qualità. Tutti i risultati, che si tratti di una risposta a una domanda sulla storia o di una riga di codice, provengono dai dati di input. Se quei dati di origine contengono errori, anche i risultati forniti dallo strumento LLM conterranno errori.

I team DevOps hanno standard che si aspettano che i loro programmatori raggiungano. Il codice prodotto dagli strumenti LLM non aderisce automaticamente a queste linee guida.

Le prestazioni del codice risultante potrebbero non essere perfette. È semplicemente una risposta a un input. E sebbene questi strumenti rappresentino un enorme avanzamento rispetto a qualsiasi altro strumento basato su query che abbiamo visto in passato, non sono ancora perfetti.

  1. Preoccupazioni di Conformità

Strumenti come Einstein GPT sono così nuovi che ci sono molte domande su come influenzeranno il pipeline DevOps. Quando si tratta di conformità normativa con le normative sulla sicurezza dei dati, settori come l’assistenza sanitaria devono ottenere alcune risposte prima di poter utilizzare questi strumenti in modo sicuro e fiducioso.

Ad esempio, cosa succede al codice generato da uno strumento LLM? Viene archiviato in un repository pubblico? In tal caso, ciò causerebbe una grande preoccupazione per la conformità riguardo al codice sorgente non protetto. Cosa succederebbe se questo codice fosse utilizzato nell’ambiente di produzione di un’organizzazione sanitaria?

Questi strumenti sono addestrati su informazioni pubbliche provenienti da GitHub per la conoscenza dello sviluppo. È impossibile sapere esattamente cosa è stato utilizzato per questo addestramento, il che significa che potrebbero esserci rischi per la sicurezza. Ciò significa che chiunque riceva risposte con codice non sicuro condividerà lo stesso rischio per la sicurezza.

I settori regolamentati devono essere particolarmente attenti a questi strumenti. Le organizzazioni sanitarie gestiscono informazioni estremamente sensibili. Il livello di controllo necessario per settori regolamentati semplicemente non è possibile in questo momento con gli strumenti LLM e l’IA generativa.

  1. Sfide di Implementazione

Gli strumenti LLM aumentano il ritmo con cui i programmatori producono codice. Rimuovono l’ingorgo dalla fase di sviluppo della produzione di un aggiornamento, ma quell’ingorgo si sposterà più in là. C’è un punto di svolta tra muoversi velocemente e muoversi troppo velocemente. Sarà difficile mantenere il controllo.

Un’infrastruttura circostante di strumenti DevOps automatizzati può aiutare a alleviare la pressione dello sviluppo accelerato, ma se i sistemi non sono già in atto, sarà troppo impegnativo affrontarli tutti in una volta. Questi strumenti sono già disponibili e i programmatori li utilizzano perché facilitano il loro lavoro. La direzione potrebbe chiedere ai team di evitare di utilizzare questi strumenti, ma sarà difficile limitarne l’uso.

Come Prevenire Questi Problemi

Questi strumenti stanno rapidamente diventando popolari. Man mano che nuovi strumenti LLM continuano ad essere lanciati, i team DevOps non hanno molto tempo per prepararsi. Questo significa che le organizzazioni sanitarie devono iniziare a prepararsi oggi per stare al passo con le potenziali vulnerabilità associate a questi strumenti.

Ecco alcune cose che possono aiutarti a evitare i possibili svantaggi degli strumenti LLM e dell’IA generativa.

  1. Rafforza il tuo flusso di lavoro DevOps

Un flusso di lavoro DevOps ottimizzato comprenderà una serie di strumenti automatizzati e una comunicazione aperta tra i team dei diversi dipartimenti. Consentire ai membri del team di utilizzare strumenti automatizzati garantisce una copertura totale del progetto e riduce i processi manuali.

Questi fattori saranno sempre più necessari man mano che gli strumenti LLM accelerano la velocità di scrittura del codice. Sfruttare questa velocità è fondamentale per garantire che tutti i controlli di qualità si concludano senza creare problemi più avanti nel flusso di lavoro.

L’implementazione e il perfezionamento dell’utilizzo di questi strumenti preparano i team al successo man mano che gli strumenti LLM diventano ampiamente disponibili. Le aziende del settore sanitario devono essere in grado di controllare il proprio flusso di lavoro DevOps. Un’infrastruttura DevOps circostante fornisce il supporto necessario per raggiungere tale controllo.

  1. Scansiona il codice con l’analisi statica del codice

Il codice prodotto dagli strumenti LLM non è affidabile. Ciò significa che il tuo team deve dedicare più tempo alla fase di sviluppo posteriore per assicurarsi che eventuali errori vengano corretti prima che il codice venga unito al repository principale.

L’analisi statica del codice è un aspetto indispensabile dello strumentario DevOps di un’organizzazione sanitaria. Questo strumento automatizzato controlla ogni riga di codice rispetto a regole interne per segnalare eventuali problemi che potrebbero causare bug ed errori se lasciati intatti.

E se potrebbe sembrare allettante accontentarsi di uno strumento generico di analisi statica del codice, semplicemente non forniscono la copertura necessaria per ottenere una qualità del codice costantemente elevata e una conformità normativa.

  1. Offri una formazione continua

Il primo fattore di perdita dei dati è l’errore umano. Questo viene mitigato affidandosi a strumenti automatizzati che riducono il lavoro manuale e offrendo formazione ai nuovi e ai vecchi membri del team. Gli strumenti LLM sono potenti, ma i loro benefici sono uguali ai loro rischi, che dipendono tutti dal modo in cui vengono utilizzati.

Per garantire un’implementazione di successo, comunica le migliori pratiche al tuo team e definisci chiaramente le aspettative della tua organizzazione. Queste migliori pratiche includono considerazioni come la verifica delle strutture corrette per ogni pezzo di codice proveniente da uno strumento LLM, il backup dei dati di sistema critici e l’evitare l’uso di strumenti non autorizzati. Le aziende del settore sanitario in particolare devono fare attenzione a come il loro team interagisce con la piattaforma, data la sensibilità dei dati che possiedono.

La giusta attenzione inizia oggi

Gli strumenti di IA generativa e LLM continueranno a diffondersi sempre di più. L’uso di questi strumenti potrebbe portare molti potenziali grandi vantaggi, ma ci sono anche rischi significativi. Le aziende del settore sanitario devono essere intenzionali nella costruzione del loro approccio DevOps e, senza eccezioni, testare ogni riga di codice proveniente da uno strumento LLM.

Immagine in primo piano: Tima Miroshnichenko; Pexels; Grazie!