AI e tu Big Tech afferma che la regolamentazione dell’IA è necessaria, Microsoft affronta i rischi del copyright

AI e Big Tech sostengono la necessità della regolamentazione dell'IA; Microsoft affronta i rischi del copyright.

In un’azione che non sorprenderà nessuno, i leader tecnologici che si sono riuniti in incontri a porte chiuse a Washington, DC, questa settimana per discutere della regolamentazione dell’IA con legislatori e gruppi industriali hanno concordato la necessità di leggi che disciplinino la tecnologia generativa dell’IA. Tuttavia, non sono riusciti a concordare su come affrontare tali regolamenti.

“Il senatore democratico Chuck Schumer, che ha definito l’incontro ‘storico’, ha detto che i partecipanti hanno vagamente approvato l’idea di regolamentazioni, ma che c’era poca concordanza su come dovrebbero essere queste regole”, ha riportato The Guardian. “Schumer ha detto che ha chiesto a tutti nella stanza – compresi più di 60 senatori, quasi una ventina di dirigenti tecnologici, sostenitori e scettici – se il governo dovrebbe avere un ruolo nella supervisione dell’intelligenza artificiale, e che ‘ogni singola persona ha alzato la mano, anche se avevano opinioni diverse'”.

Suppongo che “opinioni diverse” sia un modo nuovo per dire “il diavolo sta nei dettagli”.

I CEO e i leader tecnologici presenti a ciò che Schumer ha chiamato il Forum AI Insight includevano Sam Altman di OpenAI, Sundar Pichai di Google, Mark Zuckerberg di Meta, il co-fondatore di Microsoft Bill Gates e Elon Musk, proprietario di X/Twitter. Altri presenti erano il CEO della Motion Picture Association Charles Rivkin; l’ex capo di Google Eric Schmidt; il co-fondatore del Center for Humane Technology Tristan Harris; Deborah Raji, ricercatrice presso l’Università della California, Berkeley; la presidente AFL-CIO Elizabeth Shuler; Randi Weingarten, presidente dell’American Federation of Teachers; Janet Murguía, presidente del gruppo per i diritti civili e l’attivismo Latino UnidosUS; e Maya Wiley, presidente e CEO della Leadership Conference on Civil and Human Rights, ha detto The Guardian.

“Regolamentare il rischio dell’IA, non gli algoritmi dell’IA”, ha dichiarato il CEO di IBM Arvind Krishna in una dichiarazione. “Non tutti gli utilizzi dell’IA comportano lo stesso livello di rischio. Dovremmo regolamentare gli utilizzi finali: quando, dove e come vengono utilizzati i prodotti dell’IA. Questo aiuta a promuovere sia l’innovazione che la responsabilità”.

Oltre a discutere su come le elezioni statunitensi del 2024 potrebbero essere protette dalle informazioni errate alimentate dall’IA, il gruppo ha parlato con 60 senatori di entrambi i partiti su se dovrebbe esserci un’agenzia indipendente per l’IA e su “come le aziende potrebbero essere più trasparenti e su come gli Stati Uniti possono rimanere avanti rispetto alla Cina e ad altri paesi”, ha riportato The Guardian.

La AFL-CIO ha sollevato anche la questione dei diritti dei lavoratori a causa dell’impatto diffuso che si prevede che l’IA abbia sul futuro di tutti i tipi di lavoro. La capo della AFL-CIO Shuler, in una dichiarazione seguita all’incontro, ha detto che sono necessari lavoratori per aiutare a “sfruttare l’intelligenza artificiale per creare salari più alti, buoni posti di lavoro sindacali e un futuro migliore per questo paese… Gli interessi delle persone che lavorano devono essere la Stella Polare del Congresso. I lavoratori non sono vittime del cambiamento tecnologico – siamo la soluzione”.

Nel frattempo, altri hanno criticato l’incontro per chi non c’era e hanno sottolineato che le opinioni dei leader tecnologici che traggono vantaggio dalla tecnologia genAI dovrebbero essere pesate rispetto ad altre opinioni.

“La metà delle persone nella stanza rappresenta settori che trarranno profitto da regolamentazioni lasche sull’IA”, ha detto Caitlin Seeley George, direttore delle campagne e della gestione del gruppo per i diritti digitali Fight for the Future, a The Guardian. “Le aziende tecnologiche hanno gestito il gioco dell’IA abbastanza a lungo e sappiamo dove ciò ci porterà”.

Nel frattempo, la Casa Bianca ha anche annunciato questa settimana che un totale di 15 importanti aziende tecnologiche hanno aderito ad un impegno volontario per garantire che i sistemi di intelligenza artificiale siano sicuri e trasparenti sul loro funzionamento. Oltre alle sette aziende che hanno aderito inizialmente a luglio – OpenAI, Microsoft, Meta, Google, Amazon, Anthropic e Inflection AI – l’amministrazione Biden ha dichiarato che altre otto aziende si sono unite. Sono Adobe, Salesforce, IBM, Nvidia, Palantir, Stability AI, Cohere e Scale AI.

“Il presidente è stato chiaro: sfruttare i benefici dell’IA, gestire i rischi e muoversi velocemente – molto velocemente”, ha detto Jeff Zients, capo di gabinetto della Casa Bianca, in una dichiarazione, secondo il Washington Post. “E stiamo facendo proprio questo, collaborando con il settore privato e utilizzando tutti gli strumenti a nostra disposizione per realizzare questo obiettivo”.

Tuttavia, rimane un impegno volontario e si ritiene che non “vada così lontano come le disposizioni di una serie di progetti di legge regolatori presentati da membri del Congresso nelle ultime settimane, e potrebbe essere utilizzato come ragione per rallentare la legislazione più incisiva”, ha riferito Axios a luglio.

Ecco altre notizie sull’IA che meritano attenzione.

Google lancia il Progetto Futuri Digitali per studiare l’IA

Google ha annunciato questa settimana il Progetto Futuri Digitali, “un’iniziativa che mira a riunire una serie di voci per promuovere sforzi volti a comprendere e affrontare le opportunità e le sfide dell’intelligenza artificiale (IA). Attraverso questo progetto, supporteremo i ricercatori, organizzeremo incontri e favoriremo il dibattito sulle soluzioni di politica pubblica per promuovere lo sviluppo responsabile dell’IA”.

L’azienda ha anche annunciato che avrebbe destinato 20 milioni di dollari in sovvenzioni a “think tank e istituzioni accademiche leader in tutto il mondo per facilitare il dialogo e l’indagine su questa importante tecnologia.” (Sembra un numero grande fino a quando non si ricorda che Alphabet/Google ha riportato un profitto di 18,4 miliardi di dollari nel secondo trimestre del 2023 da solo.)

Google afferma che il primo gruppo di sovvenzioni è stato assegnato all’Aspen Institute, al Brookings Institution, alla Carnegie Endowment for International Peace, al Center for a New American Security, al Center for Strategic and International Studies, all’Istituto per la Sicurezza e la Tecnologia, al Leadership Conference Education Fund, al MIT Work of the Future, al R Street Institute e a SeedAI.

A parte le sovvenzioni, ottenere l’IA corretta è una cosa davvero grande per Google, che sta ora combattendo per la dominanza del mercato dell’IA contro il ChatGPT di OpenAI e il Bing basato su ChatGPT di Microsoft. Il CEO di Alphabet, Sundar Pichai, ha detto ai suoi 180.000 dipendenti in una lettera del 5 settembre per celebrare il 25º anniversario di Google che “l’IA sarà il più grande cambiamento tecnologico che vedremo nelle nostre vite. È più grande del passaggio dal desktop al mobile e potrebbe essere più grande di internet stesso. È una riconfigurazione fondamentale della tecnologia e un acceleratore incredibile dell’ingegno umano.”

Quando gli è stato chiesto da ENBLE se era troppo cauto negli investimenti in IA di Google e se avrebbe dovuto rilasciare Google Bard prima che OpenAI rilasciasse ChatGPT nell’ottobre 2022, Pichai ha essenzialmente detto che sta giocando la partita lunga. “Il fatto è che avremmo potuto fare di più dopo che le persone avrebbero visto come funziona. Non avrà davvero importanza nei prossimi cinque o dieci anni.”

Adobe aggiunge l’IA al suo set di strumenti creativi, incluso Photoshop

Firefly, la famiglia di strumenti AI generativi di Adobe, è uscita dalla fase di beta testing. Ciò significa che “i creativi ora hanno il via libera per usarlo per creare immagini in Photoshop, provare effetti di testo stravaganti sul sito web di Firefly, ricolorare immagini in Illustrator e ravvivare poster e video realizzati con Adobe Express,” riferisce Stephen Shankland di ENBLE.

Adobe includerà crediti per utilizzare Firefly in quantità variabili a seconda del piano di abbonamento a Creative Cloud che si sta pagando. Shankland ha riferito che se si dispone dell’abbonamento completo a Creative Cloud, che offre accesso a tutti i software di Adobe al costo di 55 dollari al mese, è possibile produrre fino a 1000 creazioni AI al mese. Se si ha un abbonamento a una singola app, per utilizzare Photoshop o Premiere Pro al costo di 21 dollari al mese, sono possibili 500 creazioni AI al mese. Gli abbonamenti ad Adobe Express, un’app mobile multiuso che costa 10 dollari al mese, includono 250 utilizzi di Firefly.

Ma attenzione: Adobe aumenterà i prezzi degli abbonamenti di circa il 9% al 10% a novembre, citando l’aggiunta di Firefly e altre funzionalità di intelligenza artificiale, insieme a nuovi strumenti e app. Quindi sì, tutto quel divertimento con l’IA ha un prezzo.

Microsoft offre aiuto agli sviluppatori di IA per la protezione del copyright

Le preoccupazioni sul copyright e la proprietà intellettuale emergono spesso quando si parla di IA, poiché la legge è ancora in evoluzione per quanto riguarda chi possiede l’output generato dall’IA e se i chatbot dell’IA hanno raccolto contenuti con copyright da internet senza il permesso dei proprietari.

Ciò ha portato Microsoft a dichiarare che gli sviluppatori che pagano per utilizzare i suoi servizi commerciali di IA “Copilot” per la creazione di prodotti di intelligenza artificiale riceveranno protezione contro eventuali cause legali, con l’azienda che li difenderà in tribunale e pagherà i risarcimenti. Microsoft ha dichiarato di offrire questa protezione perché l’azienda, e non i suoi clienti, dovrebbe trovare il modo giusto per affrontare le preoccupazioni dei proprietari di copyright e di proprietà intellettuale mentre il mondo dell’IA evolve. Microsoft ha anche affermato di aver “incorporato filtri e altre tecnologie progettate per ridurre la probabilità che i Copilot restituiscano contenuti che violano i diritti d’autore.”

“Poiché i clienti si chiedono se possono utilizzare i servizi Copilot di Microsoft e l’output che generano senza preoccuparsi di eventuali reclami di copyright, stiamo fornendo una risposta semplice: sì, potete farlo, e se siete sfidati per motivi di copyright, noi assumeremo la responsabilità dei potenziali rischi legali coinvolti,” ha scritto l’azienda in un post del blog.

“Questo nuovo impegno estende il nostro supporto esistente per l’indennità di proprietà intellettuale ai servizi commerciali Copilot e si basa sui nostri precedenti impegni nei confronti dei clienti di IA,” continua il post. “In particolare, se un terzo intenta una causa a un cliente commerciale per violazione del copyright nell’utilizzo dei Copilot di Microsoft o dell’output che generano, difenderemo il cliente e pagheremo l’importo di eventuali sentenze o transazioni negative risultanti dalla causa, purché il cliente abbia utilizzato le guide e i filtri di contenuto che abbiamo integrato nei nostri prodotti.”

Gli studenti accedono a ChatGPT e trovano un amico su Character.ai

Dopo un’enorme impennata di traffico quando OpenAI ha rilasciato ChatGPT lo scorso ottobre, il traffico verso il chatbot è diminuito nei mesi successivi con l’arrivo di chatbot AI concorrenti come Google Bard e Microsoft Bing. Ma ora che le vacanze estive sono finite, sembra che gli studenti stiano guidando un aumento del traffico per ChatGPT, secondo stime pubblicate da Similarweb, un’azienda di dati digitali e analisi.

“ChatGPT continua a essere uno dei siti web più grandi al mondo, registrando 1,4 miliardi di visite in tutto il mondo ad agosto, rispetto a 1,2 miliardi di visite per il motore di ricerca Bing di Microsoft, ad esempio. Da zero prima del lancio alla fine di novembre, chat.openai.com ha raggiunto 266 milioni di visitatori a dicembre, è cresciuto ulteriormente del 131% il mese successivo e ha raggiunto il picco di 1,8 miliardi di visite a maggio. Similarweb classifica openai.com al 28° posto al mondo, soprattutto grazie alla forza di ChatGPT.”

Ma uno dei siti AI che ha guadagnato ancora più visitatori è il concorrente di ChatGPT Character.ai, che invita gli utenti a personalizzare i loro chatbot come personalità famose o personaggi di finzione e a farli rispondere con quella voce. In pratica, puoi avere una conversazione con un chatbot che si maschera da personaggio famoso come Cristiano Ronaldo, Taylor Swift, Albert Einstein o Lady Gaga o da personaggio di finzione come Super Mario, Tony Soprano o Abraham Lincoln.

“Connettersi con il mercato dei giovani è un modo affidabile per trovare un vasto pubblico e, in base a questa misura, il concorrente di ChatGPT Character AI ha un vantaggio”, ha dichiarato Similarweb. “Il sito web character.ai attira circa il 60% del suo pubblico dalla fascia d’età 18-24 anni, un numero che ha resistito bene durante l’estate. Character.AI ha anche trasformato gli utenti del sito web in utenti della sua app mobile in misura maggiore rispetto a ChatGPT, che ora è disponibile anche come app.”

La ragione “potrebbe essere semplicemente perché Character AI è un compagno giocoso, non solo un aiuto per i compiti”, ha affermato la società di ricerca.

Termine AI della settimana: sicurezza dell’AI

Con tutte le discussioni sulla regolamentazione dell’AI e su come la tecnologia debba essere “sicura”, ho pensato fosse utile condividere un paio di esempi di come viene caratterizzata la sicurezza dell’AI.

Il primo è una spiegazione diretta dal glossario AI di CNBC: Come parlare di AI come un esperto:

Sicurezza dell’AI: Descrive la paura a lungo termine che l’AI progredirà così rapidamente che un’AI superintelligente potrebbe danneggiare o addirittura eliminare l’umanità.”

Il secondo proviene da un white paper della Casa Bianca chiamato “Garantire un’AI sicura, sicura e affidabile”. Questo illustra gli impegni volontari che le 15 aziende tecnologiche hanno firmato per garantire che i loro sistemi non facciano del male alle persone.

Sicurezza: Le aziende hanno il dovere di assicurarsi che i loro prodotti siano sicuri prima di introdurli nel pubblico. Ciò significa testare la sicurezza e le capacità dei loro sistemi AI, sottoporli a test esterni, valutare i loro potenziali rischi biologici, di sicurezza informatica e sociali e rendere pubblici i risultati di tali valutazioni.”

Nota degli editori: ENBLE sta utilizzando un motore AI per aiutare a creare alcune storie. Per maggiori informazioni, vedi questo post.