💡 IA etica lancio del programma di certificazione addestrato in modo equo per sostenere la raccolta etica dei dati

Ed Newton-Rex si dimette da Startup Stability AI a causa di preoccupazioni etiche riguardanti la raccolta dei dati di addestramento. Lancia Fairly Trained, un'organizzazione non-profit per contrastare lo scraping web da parte delle startup

L’esecutivo di AI si trasforma in un crociato di AI, difendendo i diritti degli artisti

Mentre il mondo dell’intelligenza artificiale (AI) continua a espandersi, crescono anche le preoccupazioni riguardo alle pratiche etiche dell’industria. Ed Newton-Rex, ex capo progettista AI di TikTok, ha lanciato un’organizzazione no profit chiamata Fairly Trained. Questa organizzazione mira ad affrontare il problema etico associato ai modelli di AI generativi fornendo alle aziende uno strumento decisionale noto come Certificazione L.

🔍 Il problema: Sourcing etico dei dati di addestramento

Uno dei principali problemi con i modelli di AI è il sourcing dei dati di addestramento. Molte aziende si affidano alla raccolta di dati senza la necessaria licenza o consenso, il che solleva preoccupazioni riguardo al trattamento equo dei creatori. Newton-Rex riconosce questo problema e mira a fornire migliori strumenti decisionali per coloro che desiderano utilizzare modelli di AI generativi con un’etica di sourcing dei dati.

🌟 Presentazione di Fairly Trained e la Certificazione L

Fairly Trained offre un programma di certificazione per le aziende di AI che concedono in licenza i loro dati di addestramento. Simile alle etichette di certificazione “fair trade” che si trovano sul caffè, la Certificazione L indica che i dati di addestramento di un’azienda sono stati esplicitamente concessi in licenza, sono di dominio pubblico, sono offerti con una licenza aperta appropriata o appartengono all’azienda stessa. Nove aziende, tra cui Bria AI e LifeScore Music, hanno ricevuto la certificazione, mentre altre sono in fase di completamento.

💰 Il costo della certificazione

Per ottenere la Certificazione L, le aziende devono pagare una quota che varia da $500 a $6,000 a seconda delle dimensioni. Sebbene alcuni possano considerare questo un costo aggiuntivo, le aziende che hanno completato il processo di certificazione hanno enfatizzato la sua importanza. Yair Adato, CEO di Bria AI, confronta i modelli costruiti su dati non autorizzati alle piattaforme di condivisione di file peer-to-peer come Napster e The Pirate Bay. Al contrario, i dati con licenza consentono alle aziende di operare in conformità, simile a Spotify e altre piattaforme di streaming legittime.

🌐 Impatto e sviluppi futuri

Anche se il programma di certificazione di Fairly Trained è un passo nella giusta direzione, è ancora nelle prime fasi e il movimento per cambiare le pratiche di scraping dei dati dell’industria dell’AI sta guadagnando slancio. Attualmente, Fairly Trained è un’operazione condotta da un solo uomo, Ed Newton-Rex, ma ha ricevuto il supporto di gruppi commerciali come l’Associazione degli editori americani e l’Associazione degli editori di musica indipendenti, così come aziende come Universal Music Group.

Fairly Trained non è l’unica organizzazione che lavora per standardizzare l’etichettatura dei prodotti AI con informazioni sulle loro fonti di dati. Un altro esempio è l’Iniziativa sull’Autorità dei Contenuti, guidata da Adobe, che si concentra sul tracciamento dell’autenticità delle immagini.

❓ Q&A: Risposta alle domande aggiuntive dei lettori

D: Perché è importante il sourcing etico dei dati per i modelli di AI? R: Il sourcing etico dei dati garantisce che i creatori vengano trattati equamente, poiché il loro lavoro è debitamente concesso in licenza e i loro diritti sono rispettati. Aiuta anche a prevenire il data scraping non autorizzato, che può portare a questioni legali e compromettere l’integrità dei modelli di AI.

D: Come possono beneficiare le aziende dall’ottenimento della Certificazione L? R: Le aziende certificate possono dimostrare il loro impegno nel sourcing etico dei dati, proteggendosi da possibili problemi legali e costruendo fiducia con i consumatori. Inoltre, fare parte di un movimento verso una maggiore responsabilità e equità nel settore dell’AI può migliorare la loro reputazione e attirare partner e clienti con mentalità simili.

🔎 Approfondimenti e riferimenti

  1. Link1 – Titolo dell’articolo
  2. Link2 – Titolo dell’articolo
  3. Link3 – Titolo dell’articolo
  4. Link4 – Titolo dell’articolo
  5. Link5 – Titolo dell’articolo

🙌 Partecipa e condividi

Cosa ne pensi di Fairly Trained e del programma di certificazione L? Credi che il sourcing etico dei dati diventerà una pratica standard nell’industria dell’AI? Condividi le tue opinioni e discutiamone!

📣 Non dimenticare di condividere questo articolo sui tuoi social media preferiti per diffondere la parola sull’importanza delle pratiche etiche dell’IA! Insieme, possiamo creare un’industria dell’IA più responsabile e equa.