La rivoluzione in tempo reale è qui, ma è distribuita in modo disuguale.

The real-time revolution is here, but it is unevenly distributed.

Se ascolti abbastanza conferenze, presentazioni di fornitori e pronunciamenti di analisti, puoi essere perdonato per pensare che ogni organizzazione al mondo possa ora percepire e rispondere, in tempo reale, agli eventi avvenuti in millisecondi.

Anche se questo non è ancora il caso, c’è una buona ragione per la ricerca di informazioni in tempo reale. Tutte le nuove cose interessanti che stanno emergendo – intelligenza artificiale, analisi predittive, sistemi embedded, applicazioni di streaming, monitoraggio in tempo reale della posizione e sistemi di allarme – dipendono tutte dalla tecnologia in tempo reale per funzionare. Tuttavia, il tempo reale è ancora molto in fase di sviluppo.

Anche le indagini di settore mostrano come il tempo reale sia più un sogno che una realtà. Ad esempio, nella gestione della catena di approvvigionamento, mentre il 77% dei dirigenti cerca attivamente la visibilità in tempo reale delle spedizioni, solo il 25% la utilizza attualmente, secondo un’indagine di Tive. Allo stesso modo, solo il 23% delle imprese in un’indagine di Unisphere Research e ChaosSearch indica che le informazioni sono disponibili agli utenti finali in tempo reale.

La frammentarietà delle capacità in tempo reale potrebbe in realtà andare bene per la maggior parte delle situazioni. “La maggior parte delle aziende non ha bisogno di dati in tempo reale”, afferma Nick Amabile, CEO di DAS42. Dipende se il requisito è operativo o analitico. “I sistemi operativi spesso richiedono dati in tempo reale per casi d’uso legati alla sicurezza delle informazioni – come il monitoraggio delle minacce alla sicurezza, gli sforzi di personalizzazione nel marketing, la logistica, le tendenze di spedizione, l’ottimizzazione dei costi, il miglioramento dell’esperienza del cliente, il rilevamento delle frodi e le strategie di trading”, afferma Amabile.

Anche le esigenze analitiche, d’altra parte, possono avere un certo grado di latenza. “Per i casi d’uso analitici, definiamo innanzitutto un SLA per la latenza accettabile”, afferma Amabile. “Forse la generazione di rapporti rivolta agli utenti deve essere in tempo reale, ma i rapporti per i dirigenti possono essere vecchi di ore. Ad esempio, spesso gli stakeholder richiedono dati e rapporti in tempo reale per casi d’uso in cui l’elaborazione batch può ancora essere accettabile.”

I manager potrebbero anche voler essere selettivi su cosa diventa in tempo reale, poiché ciò comporta anche costosi aggiornamenti dell’infrastruttura. “Esiste una grande disparità nel livello di prontezza per le implementazioni in tempo reale tra diverse organizzazioni”, afferma Tyson Trautmann, VP di ingegneria per Fauna. “Le organizzazioni più grandi, e in particolare quelle nei settori orientati alla tecnologia come finanza, e-commerce e servizi tecnologici, spesso dispongono di infrastrutture robuste capaci di gestire dati in tempo reale. Ma queste capacità sono state spesso costruite aggiungendo strati complessi su prodotti legacy che non supportavano nativamente i dati in tempo reale.” Ciò comporta anche un “alto onere operativo”, aggiunge.

Vale la pena lo sforzo e la spesa per fare il passaggio? “L’infrastruttura e la complessità nella costruzione, nell’esecuzione e nell’operazione dei sistemi in tempo reale spesso non sono in linea con i benefici del passaggio dal batch al vero tempo reale”, afferma Amabile. “Spesso, il quasi tempo reale è altrettanto prezioso quanto il vero tempo reale per la maggior parte dei casi d’uso.”

Dato che il tempo reale significa anche spostare i dati analitici a velocità fulminea dalla fonte al sistema, è necessario prestare attenzione per garantire che questi dati siano verificati e affidabili. “La crescita dei dati ha creato grandi quantità di complessità per le aziende da governare, gestire e valutare, spesso con ampi set di dati provenienti da diverse fonti”, afferma Sam Pierson, vice presidente senior presso Qlik. “È fondamentale che le organizzazioni abbiano una forte strategia e infrastruttura dati per garantire che i dati più freschi, provenienti da fonti valide e affidabili, siano quelli utilizzati in tempo reale, altrimenti le decisioni rischiano di portare a risultati errati.”

Le problematiche sulla qualità dei dati devono essere affrontate fin dall’inizio. “Con i dati in tempo reale, spesso c’è meno tempo per pulire e preparare i dati prima dell’utilizzo”, afferma Trautmann. “Ciò può portare a decisioni basate su dati incompleti o inesatti, che potenzialmente portano a risultati scadenti.”

La questione della fiducia nel tempo reale “sta assumendo ancora più importanza in un mondo in cui l’IA generativa sta crescendo in interesse e utilizzo”, afferma Pierson. “Poter fidarsi dei dati che vengono forniti ai dipendenti, sapendo con certezza che sono validi e appropriati per come vengono utilizzati, è essenziale per mantenere la conformità normativa e la sicurezza e governance dei dati, consentendo al contempo decisioni immediate che producono l’impatto giusto.”

Un sistema real-time o di streaming ben funzionante e affidabile “richiede un’architettura complessa, un’infrastruttura e competenze di programmazione al di là delle competenze tipiche di un team di data science o di data engineering”, sostiene Amabile. “Inoltre, ci sono molte altre considerazioni che devono essere prese in considerazione riguardo al rilascio e al deployment, al monitoraggio e al logging, alla governance, alla sicurezza e all’integrazione tra applicazioni aziendali, applicazioni rivolte ai clienti e sistemi di analisi.”

La buona notizia è che ci sono strumenti e piattaforme che rendono il real-time più reale, anche per organizzazioni di dimensioni più ridotte o di medie dimensioni con budget IT limitati. Negli ultimi dieci anni, “l’emergere di nuove offerte di infrastrutture in tempo reale ha permesso a un’ampia gamma di organizzazioni di sfruttare le capacità in tempo reale”, afferma Trautmann.

“I fornitori di servizi cloud come Amazon Web Services, Google Cloud e Microsoft Azure hanno introdotto servizi gestiti appositamente per l’elaborazione in tempo reale, tra cui servizi di streaming dei dati e analisi in tempo reale”, afferma. “La diffusione di database distribuiti, in-memory e time-series risponde al bisogno di carichi di lavoro efficienti dei dati in tempo reale. Le offerte open-source come Apache Kafka, Apache Flink e Apache Storm hanno ulteriormente arricchito l’ecosistema di elaborazione dei dati in tempo reale.”

Inoltre: Generative AI e la quarta domanda: creare fiducia con il tuo cliente

Inoltre, “la crescita del computing edge ha potenziato anche l’elaborazione in tempo reale, in particolare per le applicazioni IoT, mentre il potenziale della tecnologia 5G per una latenza inferiore e una maggiore capacità di gestione dei dati apre nuovi fronti per le applicazioni in tempo reale”, aggiunge Trautmann.

Tuttavia, “l’adozione delle infrastrutture di dati in tempo reale oggi è distribuita in modo disomogeneo”, afferma Pierson. “Spesso osserviamo divari tra industrie più orientate alla tecnologia, che tendono ad adottare prima i modelli in tempo reale, rispetto a settori come l’e-commerce e la finanza, che potrebbero richiedere più tempo. La maggior parte delle organizzazioni ha inoltre una miriade di tecnologie di gestione dei dati e fornitori di cloud, creando complessità e complicazioni nell’accesso e nella fornitura dei dati in tempo reale. La governance e le normative sulla privacy sono un ulteriore fattore di complicazione.”