L’Australia si impegna nella regolamentazione dell’Intelligenza Artificiale Regole più stringenti per ChatGPT in vista’.

Il governo australiano sta pianificando di implementare regolamenti più rigidi per i sistemi di intelligenza artificiale (IA) alla luce delle preoccupazioni della pubblica opinione.

L’Australia sta contemplando regolamentazioni sull’IA considerata ‘ad alto rischio’, causando ansia.

Pubblicato: 17 gennaio 2024 😎

📷 Immagine: Il concetto dell’Australia che contempla una regolamentazione sull’IA. Una rappresentazione simbolica della mappa dell’Australia con fili collegati che la attraversano.

Il governo australiano si sta preparando alla crescita dei sistemi di intelligenza artificiale (IA), in particolare di ChatGPT, perseguendo regolamentazioni più rigide. Le preoccupazioni del pubblico hanno indotto il Ministro dell’Industria e della Scienza, Ed Husic, a pubblicare la risposta del governo a una consultazione sulla sicurezza e responsabilità dell’IA. Mentre l’IA potrebbe aumentare il PIL dell’Australia di ben 600 miliardi di dollari all’anno, i sondaggi mostrano che solo un terzo della popolazione ritiene che siano presenti sufficienti garanzie. Sembra che il Paese dei canguri sia la nazione più apprensiva quando si tratta di abbracciare la tecnologia, con un incredibile 69% degli australiani che esprimono le loro preoccupazioni.

💡 Ma quali misure prenderà l’Australia per affrontare la crescita dell’IA?

Mentre le consultazioni continuano, il governo laburista si è impegnato a intraprendere tre misure immediate:

1. Sviluppo di uno standard di sicurezza volontario per l’IA 📝

Il governo ha intenzione di collaborare con esperti del settore per stabilire uno standard di sicurezza per l’IA. Pensateci come se fosse una cintura di sicurezza per l’IA, garantendo che questi sistemi operino in maniera più sicura e responsabile.

2. Introduzione di etichettatura volontaria e marcatura dell’IA 🏷️

Per aumentare la trasparenza, l’Australia punta a collaborare con i portatori di interesse del settore per sviluppare opzioni di etichettatura e marcatura dei contenuti generati dall’IA. Ciò aiuterà a differenziare tra i contenuti creati dall’IA e quelli creati dagli esseri umani.

3. Creazione di un gruppo di consulenza di esperti per le linee guida obbligatorie 🚧

Riconoscendo la necessità di regolamentazioni più rigide, il governo ha in programma di istituire un gruppo di consulenza di esperti. Scopo di questo gruppo è fornire orientamenti e supporto nello sviluppo di guardrail obbligatori che governano l’uso di sistemi di IA ad alto rischio. Questi includono sistemi utilizzati per valutare il rischio di recidiva, candidati a un lavoro, consentire veicoli a guida autonoma e l’IA “frontier” in rapida evoluzione come ChatGPT.

Il governo australiano è attento alle preoccupazioni sollevate dal pubblico e si propone di affrontarle frontalmente. Migliorare la trasparenza rimane uno dei principali obiettivi di queste proposte. Ad esempio, il governo prevede di implementare una relazione pubblica sul tipo di dati utilizzati per addestrare i modelli di IA, in particolare i modelli di lingua di grandi dimensioni (LLM) come ChatGPT. Inoltre, lavoreranno a stretto contatto con esperti del settore per esplorare opzioni di marcatura o etichettatura dei contenuti generati dall’IA. Questo si aggiunge agli sforzi esistenti del governo nel contrastare materiale dannoso generato dall’IA e regolamentare l’uso dell’IA nelle scuole.

🔒 Ci sono preoccupazioni legali riguardanti l’IA?

In effetti, sono state sollevate preoccupazioni legali riguardanti l’uso dell’IA per i deepfake e potenziali violazioni della privacy sanitaria. Attualmente il governo sta conducendo revisioni per determinare se l’addestramento di modelli di IA generativi violi le normative sul copyright. Come evidenzia il documento, i creatori di contenuti hanno manifestato disagio riguardo a modelli come DALL-E 2, che raccolgono immagini e testi senza autorizzazione.

🧠 La sicurezza e la responsabilità sono al centro della strategia di IA dell’Australia

Il Ministro Husic afferma che garantire un’IA sicura e responsabile è di importanza primaria. Affrontando i rischi e implementando le adeguate guardie sin dalla fase di progettazione, sviluppo e distribuzione dell’IA, l’Australia mira a creare un ambiente in cui l’IA possa prosperare.

📷 Immagine: DALL-E

👨‍💼 Riguardo a Sam Shedden, Caporedattore Sam Shedden è un giornalista ed editore esperto con oltre un decennio di esperienza nel giornalismo online. Come esperto scrittore tecnologico e stratega dei contenuti, Sam ha contribuito a diverse pubblicazioni, tra cui The Scotsman, inews.co.uk, nationalworld.com, Edinburgh Evening News e The Daily Record. La sua competenza risiede nei media, nella tecnologia, nell’IA, nelle start-up e nell’innovazione. Il suo lavoro su newsletter gli ha persino valso una nomination come Newsletter Hero dell’Anno ai Publisher Newsletter Awards del Regno Unito nel 2023. Attualmente ricopre il ruolo di Caporedattore su ENBLE.com, supervisionando tutti gli aspetti delle notizie del sito.

Riferimenti:Intelligenza Agile: Come l’IA dà una spinta alla collaborazione tra imprese tecnologicheVolkswagen ritiene che l’integrazione di ChatGPT possa migliorare il suo assistente vocale in autoSito governativo si è bloccato dopo pochi minuti dalla pubblicazione dei documenti su Jeffrey EpsteinHumane annuncia il licenziamento del 10% del personale mentre il CTO si trasferisce nel ruolo di consulenteLa nuova tecnologia di immagini per il certificato di nascita digitale di Sony “somiglia molto alle NFT”iOS 17 – Gioca il cruciverba quotidiano nell’app di notizieCBS e il proprietario di Paramount, National Amusements, afferma di essere stato hackeratoLa settimana nell’IA: Microsoft continua ad utilizzare l’IA nella campagna pubblicitaria, tastiere

📢 Condividi le tue opinioni sulla regolamentazione dell’AI in Australia! Come pensi che influenzerà il futuro? Commenta qui sotto e discutiamo! 🤖💬

Seguici sui social media per altro coinvolgente contenuto tecnologico!