Ripensare la Tecnologia AI, Fiducia e Sicurezza

Il potenziale della tecnologia di reinventare costantemente la ruota potrebbe portare a trascurare le lezioni apprese dagli altri. Tuttavia, i nuovi imprenditori sono spesso più veloci nel capire da soli rispetto ai loro predecessori.

La sicurezza del design è fornita da ENBLE.

Benvenuti nell’ENBLE Exchange, la vostra dose settimanale di notizie sulle startup e sui mercati! 🎉 Ispirata dalla rubrica quotidiana ENBLE+, questa newsletter mira a fornire preziose intuizioni direttamente nella vostra casella di posta ogni sabato. Se non l’avete ancora fatto, iscrivetevi qui per unirvi al divertimento. 😉

La tecnologia ha sempre avuto un talento per reinventare la ruota. Ma a volte, nella sua ricerca dell’innovazione, dimentica di imparare le lezioni del passato. Fortunatamente, i nuovi fondatori si stanno mettendo al passo più velocemente che mai. Mentre navigano nel paesaggio in continua evoluzione della tecnologia, stanno scoprendo verità che un tempo venivano trascurate. Applausi a loro! 👏

IA, fiducia e sicurezza: navigare l’anno delle elezioni

Il 2022 non è solo un anno olimpico e un anno bisestile, ma è anche un anno di elezioni, e non solo negli Stati Uniti! Oltre 60 paesi, tra cui il Parlamento europeo, si stanno preparando per le elezioni nazionali. Ciò che interessa a noi appassionati di tecnologia è come queste elezioni influenzeranno l’industria tecnologica. Diverse forze politiche hanno spesso prospettive diverse su questioni importanti, come la regolamentazione dell’IA. Ma anche prima che vengano fatti i voti, le aziende tecnologiche hanno un ruolo da svolgere nel garantire l’integrità di queste elezioni.

Quando Mark Zuckerberg ha creato Facebook per la prima volta, assicurare l’integrità delle elezioni era probabilmente l’ultima cosa nella sua mente. Ma ora, mentre Meta e altri giganti della tecnologia affrontano la responsabilità della fiducia e della sicurezza, è diventata una sfida inevitabile. Devono combattere la disinformazione, la frode, l’incitamento all’odio, il materiale di abuso sessuale minorile (CSAM) e altro ancora.

Ironia della sorte, l’IA, che è progettata per migliorare la nostra vita, sta rendendo questa sfida più difficile. Non si tratta solo dell’aumento dei deepfake e del maggior numero di attori malevoli resi possibili dalla tecnologia dell’IA. Secondo Lotan Levkowitz, socio generale di Grove Ventures, anche le tradizionali misure di fiducia e sicurezza stanno diventando sempre più complesse a causa dei progressi degli algoritmi dell’IA:

“Tutte queste piattaforme di fiducia e sicurezza hanno questo database di condivisione di hash, quindi posso caricare ciò che viene considerato contenuto dannoso e condividerlo con le mie comunità. Oggi, posso addestrare modelli per cercare di aggirare questi sistemi. Gen AI sta rendendo il lavoro classico di fiducia e sicurezza più arduo.”

Dall’idea secondaria alla posizione di primo piano: l’evoluzione di fiducia e sicurezza

Mentre i forum online avevano già imparato qualcosa sulla moderazione dei contenuti, Facebook non aveva una mappa da seguire quando è stato creato. Quindi, è comprensibile che ci abbia messo del tempo ad affrontare la sfida. Tuttavia, documenti interni di Meta risalenti addirittura al 2017 rivelano una riluttanza ad adottare misure che potrebbero proteggere meglio i bambini, una rivelazione sconcertante.

Recentemente, Mark Zuckerberg, insieme ad altri quattro CEO della tecnologia, ha testimoniato in un’audizione del Senato statunitense sulla sicurezza online dei bambini. Vale la pena notare che Discord, inizialmente un’app di social gaming, è stato incluso anche nell’audizione. Questo ci ricorda che le minacce alla fiducia e alla sicurezza possono provenire da diverse piattaforme online, mettendo gli utenti a rischio. Sorge la domanda: le nuove aziende impareranno dagli errori dei giganti della tecnologia già affermati?

Non è garantito. I fondatori spesso operano secondo principi di base, il che ha vantaggi e svantaggi. La curva di apprendimento per la moderazione dei contenuti è ripida, ma c’è speranza. OpenAI, un giocatore più giovane nel settore, sta formando una nuova squadra dedicata allo studio della sicurezza dei bambini, una mossa influenzata, almeno in parte, dall’attenzione che ha ricevuto.

Startups che si fanno avanti: fiducia e sicurezza come servizio

Alcune startup non aspettano che i problemi bussino alla loro porta. ActiveFence, uno dei principali fornitori di soluzioni di fiducia e sicurezza abilitate dall’IA, sta assistendo a un aumento delle richieste. Noam Schwartz, CEO di ActiveFence, rivela:

“Le aziende che non sono ancora state lanciate o che si trovano nelle prime fasi stanno cercando l’esperienza del nostro team. Stanno integrando misure di sicurezza nella progettazione del loro prodotto, seguendo il concetto di ‘sicurezza mediante design’. Proprio come la sicurezza e la privacy sono considerazioni cruciali, le misure di sicurezza dovrebbero essere una parte integrante dello sviluppo delle funzionalità.”

ActiveFence non è da solo in questo settore, spesso descritto come “fiducia e sicurezza come servizio”. Altre startup stanno emergendo, ma ActiveFence spicca come una delle più grandi, soprattutto dopo l’acquisizione di Spectrum Labs a settembre. È incoraggiante vedere che i loro clienti includono non solo grandi nomi preoccupati per le crisi PR e le critiche politiche, ma anche squadre più piccole nelle prime fasi. L’intero settore tecnologico ha l’opportunità di imparare dagli errori del passato.

Con i rapidi progressi nella tecnologia dell’AI, le sfide della fiducia e della sicurezza nel mondo digitale stanno solo aumentando. Tuttavia, le menti brillanti del mondo tecnologico stanno rispondendo alla sfida con soluzioni innovative. Insieme, possiamo plasmare un’industria tecnologica che non solo abbraccia l’innovazione ma anche dà priorità alla sicurezza e al benessere dei suoi utenti.

Quindi, con le elezioni all’orizzonte e la fiducia e la sicurezza al primo posto, marciare avanti, armati delle migliori pratiche e conoscenze acquisite, per costruire un futuro in cui la tecnologia ci avvicini garantendo la nostra sicurezza.

💡 Ulteriori informazioni

Per approfondire gli argomenti trattati in questo articolo, dai un’occhiata alle seguenti fonti:

  1. TechCrunch: NSA buying Americans’ internet browsing records without a warrant
  2. TechCrunch: UE propone la criminalizzazione dei deepfake di abuso sessuale su minori generati da AI
  3. TechCrunch: L’UE nel 2021 rinvia il Regno Unito alla Corte di Giustizia per la condivisione dei dati di Facebook
  4. TechCrunch: OrCam Hear è una piattaforma di isolamento vocale pratica ed efficace per le persone con problemi di udito
  5. TechCrunch: OpenAI forma un nuovo team per studiare la sicurezza dei minori

🗣️ Parliamone!

Cosa ne pensi dell’incrocio tra AI, fiducia e sicurezza? Come possiamo garantire l’integrità delle elezioni nell’era digitale? Condividi le tue opinioni ed esperienze nei commenti qui sotto! E non dimenticare di premere quel pulsante di condivisione e spargere la voce sui social media 📣