I bambini stanno tornando a scuola. Anche ChatGPT lo sta facendo.

I bambini e ChatGPT stanno tornando a scuola.

L’inverno scorso, la presentazione del sofisticato chatbot di OpenAI ha mandato in crisi gli educatori. Si temeva che l’IA generativa avrebbe favorito la diffusione di frodi e plagio, e addirittura reso obsoleta l’inglese nelle scuole superiori. Le università hanno discusso di aggiornare le politiche anti-plagio. Alcuni distretti scolastici hanno vietato l’accesso a ChatGPT dalle loro reti. Ora, un nuovo anno scolastico si presenta con nuove sfide e, per alcuni, nuove opportunità.

Quasi un anno dopo l’entusiasmo iniziale per l’IA generativa, l’allarme tra gli educatori si è trasformato in pragmatismo. Molti studenti si sono resi conto della tendenza della tecnologia a “allucinare” o inventare informazioni. David Banks, cancelliere delle scuole pubbliche di New York City, ha scritto che il distretto è ora “deciso a abbracciare” l’IA generativa, nonostante l’abbia vietata dalle reti scolastiche l’anno scorso. Molti insegnanti si concentrano ora su compiti che richiedono pensiero critico, utilizzando l’IA per avviare nuove conversazioni in classe e diventando cauti riguardo agli strumenti che dichiarano di poter individuare i trucchi dell’IA.

Le istituzioni e gli educatori si trovano ora in una posizione scomoda, non solo a dover fare i conti con una tecnologia che non hanno richiesto, ma anche a dover considerare qualcosa che potrebbe ridefinire radicalmente il loro lavoro e il mondo in cui i loro studenti cresceranno.

Lisa Parry, preside di una scuola K-12 e insegnante di AP English Language and Composition nella rurale Arlington, South Dakota, afferma di “accogliere con cautela” l’IA generativa in questo anno scolastico. È ancora preoccupata di come ChatGPT, che non è bloccato nelle reti scolastiche, potrebbe favorire la frode. Ma sottolinea anche che il plagio è sempre stato una preoccupazione per gli insegnanti, motivo per cui ogni anno fa scrivere ai suoi studenti i primi compiti in classe per valutare le loro capacità.

Quest’anno, Parry ha in programma di far utilizzare ai suoi studenti di inglese ChatGPT come “un motore di ricerca potenziato” per aiutarli a ideare argomenti per gli esami. “ChatGPT ha un grande potere per fare del bene, ma ha anche il potere di minare ciò che stiamo cercando di fare dal punto di vista accademico”, afferma. “Ma non voglio gettare il bambino con l’acqua sporca.”

Il pensiero di Parry è in linea con l’idea che ChatGPT possa fare per la scrittura e la ricerca ciò che una calcolatrice ha fatto per la matematica: aiutare gli studenti nelle parti più noiose del lavoro e consentire loro di ottenere di più. Ma gli educatori si stanno anche confrontando con la tecnologia prima che qualcuno capisca davvero quali lavori o compiti potrebbe automatizzare, o prima che ci sia un consenso su come utilizzarla al meglio. “Ci insegnano diverse tecnologie man mano che emergono”, afferma Lalitha Vasudevan, professore di tecnologia ed educazione al Teachers College della Columbia University. “Ma in realtà non abbiamo idea di come si svilupperanno”.

La corsa per individuare i frodatori, con o senza IA generativa, continua. Turnitin, il popolare strumento anti-plagio, ha sviluppato uno strumento di rilevamento dell’IA che evidenzia quali parti di un testo potrebbero essere state generate dall’IA. Tra aprile e luglio, Turnitin ha analizzato più di 65 milioni di lavori e ha scoperto che il 10,3% di quelle consegne conteneva scrittura generata dall’IA in potenzialmente oltre il 20% del lavoro, con circa il 3,3% delle consegne segnalate come potenzialmente generato dall’IA all’80%. Ma tali sistemi non sono infallibili: Turnitin afferma che il rilevatore ha un tasso di falsi positivi del 4% nel determinare se una frase è stata scritta da un’intelligenza artificiale.

A causa di questi falsi positivi, Turnitin raccomanda anche agli educatori di conversare con gli studenti anziché bocciarli o accusarli di plagio. “Dovrebbe essere solo un’informazione per l’insegnante per decidere cosa fare”, afferma Annie Chechitelli, chief product officer di Turnitin. “Non è perfetto”.

Le limitazioni dello strumento di Turnitin nel rilevare lavori generati dall’IA riflettono le limitazioni stesse dell’IA generativa. Come ChatGPT, che è stato addestrato utilizzando contenuti prelevati dal web, il sistema di Turnitin è stato addestrato su lavori presentati dagli studenti e scrittura generata dall’IA. Queste consegne includono lavori di apprendimento dell’inglese e di gruppi sottorappresentati, come studenti di college storici per afroamericani, nel tentativo di ridurre i pregiudizi. Ci sono preoccupazioni che gli strumenti di rilevamento dell’IA possano segnalare erroneamente alcuni stili di scrittura o vocabolari come generati dall’IA se sono addestrati troppo pesantemente su saggi di studenti di un determinato background, come studenti bianchi di madrelingua inglese o studenti ad alto reddito.

Ma ci sono ancora rischi di pregiudizi. Gli studenti di lingua inglese potrebbero essere più propensi a essere segnalati; uno studio recente ha rilevato un tasso di falsi positivi del 61,3% quando i test di lingua inglese come lingua straniera (TOEFL) sono stati analizzati da sette diversi strumenti di rilevamento dell’IA. Lo strumento di rilevamento di Turnitin non è stato utilizzato nello studio. Gli errori possono derivare in parte dal fatto che gli studenti di lingua inglese e l’IA hanno qualcosa in comune: entrambi utilizzano frasi meno complesse e un vocabolario meno sofisticato. I rilevatori “non funzionano molto bene”, afferma James Zou, professore di informatica e scienze dei dati biomedici presso l’Università di Stanford, che ha lavorato alla ricerca. “Possono portare a pericolose accuse contro gli studenti”.

“Stiamo nascondendo questo sotto il tappeto, o lo affronteremo?”

Di conseguenza, alcune scuole si stanno opponendo agli strumenti che cercano di individuare il lavoro generato dall’IA. Il Teaching Center dell’Università di Pittsburgh ha recentemente dichiarato di non approvare alcun strumento di rilevamento dell’IA, a causa della mancanza di affidabilità, e ha disattivato lo strumento di rilevamento dell’IA in Turnitin. Anche la Vanderbilt University ha annunciato ad agosto che disabiliterà il rilevatore di AI.

Anche OpenAI, il creatore di ChatGPT, ha deciso che non può valutare in modo efficace se un testo sia stato scritto dal suo chatbot o meno. A luglio, l’azienda ha chiuso uno strumento chiamato AI Classifier, lanciato solo alcuni mesi prima a gennaio, citando un basso tasso di accuratezza nel determinare l’origine del testo. OpenAI ha dichiarato all’epoca che sta continuando a cercare un modo migliore per rilevare l’IA nel linguaggio. L’azienda ha rifiutato di commentare ulteriormente l’inesattezza dello strumento o quali sono i suoi piani per il futuro.

Con i sistemi AI non all’altezza del compito, alcuni educatori probabilmente useranno altri mezzi per prevenire le frodi. La supervisione in diretta, in cui un osservatore guarda qualcuno che completa un test o un compito tramite webcam, è diventata molto popolare durante la pandemia e non è scomparsa; il software di monitoraggio, che tiene traccia di ciò che gli studenti fanno sui loro dispositivi, è ancora in uso. Entrambi però presentano significative preoccupazioni per la privacy.

L’AI generativa stupisce per la sua capacità di rigurgitare internet, ma non è il miglior pensatore critico. Alcuni insegnanti stanno progettando piani di lezione specificamente con questo in mente. Gli educatori potrebbero provare a dare i loro compiti a un chatbot e vedere cosa viene generato, dice Emily Isaacs, direttore esecutivo dell’Office for Faculty Excellence presso la Montclair State University nel New Jersey. Se un chatbot può facilmente produrre un lavoro decente, potrebbe significare che il compito ha bisogno di essere adeguato.

Questo gioco del gatto e del topo non è nulla di nuovo. Isaacs afferma che la sfida posta dall’IA generativa è simile a copiare da libri o internet. Il compito degli educatori, afferma, è convincere gli studenti che “imparare vale la pena”.

David Joyner, professore presso il Georgia Institute of Technology, incoraggia i suoi studenti a considerare l’IA come uno strumento di apprendimento, non come un sostituto dell’apprendimento. A maggio, Joyner, che insegna al College of Computing, ha aggiunto una politica di chatbot AI al suo programma.

In un thread su X, precedentemente noto come Twitter, descrivendo la sua bozza di linguaggio di politica, paragona l’utilizzo di un chatbot AI a lavorare con un compagno: “Sei libero di discutere le tue idee e lavorare con altre persone, sia all’interno che all’esterno della classe, così come con assistenti basati sull’IA”, ha scritto. Ma, come nel caso dell’interazione con un compagno di classe, il lavoro presentato deve comunque essere del proprio studente. “Gli studenti dovranno imparare come usare queste cose”, dice Joyner. Quindi spetta a lui creare compiti “durevoli” contro le frodi assistite dall’IA, ma anche guidare i suoi studenti nell’uso efficace dell’IA.

Anche gli insegnanti delle scuole medie si sentono spinti a preparare i loro studenti per un mondo sempre più plasmato dall’IA. Quest’anno, Theresa Robertson, insegnante di STEM in una scuola pubblica nei sobborghi di Kansas City, nel Missouri, guiderà i suoi studenti di sesta elementare attraverso conversazioni su cosa sia l’IA e come potrebbe cambiare il modo in cui lavorano e vivono. “A un certo punto, devi decidere: dobbiamo nascondere questo sotto il tappeto o affrontarlo? Come esporre ora i ragazzi ad esso e lavorare sull’aspetto etico e farli davvero capire?” afferma.

Non esiste ancora un consenso o una “migliore pratica” per insegnare in un mondo post-ChatGPT. Negli Stati Uniti, le linee guida per gli insegnanti sono frammentarie. Mentre il Dipartimento dell’Istruzione degli Stati Uniti ha pubblicato una relazione con raccomandazioni sull’IA nell’insegnamento e nell’apprendimento, i distretti scolastici decideranno in definitiva se gli studenti potranno accedere a ChatGPT in classe quest’anno. Di conseguenza, i maggiori distretti scolastici degli Stati Uniti adottano posizioni molto diverse: lo scorso inverno, il distretto scolastico unificato di Los Angeles ha bloccato ChatGPT e non ha cambiato la sua politica. Ma a Chicago e New York, le scuole pubbliche attualmente non bloccano l’accesso a ChatGPT.

Gli insegnanti stanno ancora riprendendosi dall’ultimo grande evento che ha sconvolto l’istruzione: la pandemia di Covid-19. Jeromie Whalen, insegnante di comunicazione e produzione multimediale delle scuole superiori e dottorando presso l’Università del Massachusetts Amherst che studia le esperienze dei docenti delle scuole K-12 nell’uso della tecnologia, afferma che molti educatori sono diffidenti nei confronti di ChatGPT. “Stiamo ancora recuperando dalla didattica remota di emergenza. Stiamo ancora affrontando queste lacune di apprendimento”, dice Whalen. Per gli insegnanti esausti, incorporare ChatGPT nella pianificazione delle lezioni è meno un’opportunità eccitante e più un altro compito in una lista di cose da fare interminabile.

Tuttavia, vi è un pericolo nel vietare completamente ChatGPT. Noemi Waight, docente associata di educazione scientifica presso l’Università di Buffalo, studia come gli insegnanti di scienze delle scuole K-12 utilizzino la tecnologia. Sottolinea che, sebbene lo strumento ponga una maggiore responsabilità sugli insegnanti, vietare ChatGPT nelle scuole pubbliche nega agli studenti l’opportunità di imparare dalla tecnologia. Gli studenti a basso reddito e gli studenti di colore, che sono in modo sproporzionato più dipendenti dai dispositivi scolastici e dall’accesso a Internet, sarebbero i più danneggiati, approfondendo la divisione digitale. “Dovremo essere molto vigili riguardo all’aspetto equo e orientato alla giustizia dell’IA”, dice.

Per altri insegnanti, l’IA generativa sta aprendo nuove conversazioni. Bill Selak, direttore della tecnologia presso la Hillbrook School di Los Gatos, California, ha iniziato a utilizzare ChatGPT per generare spunti per Midjourney, un generatore di immagini AI, dopo la sparatoria di massa alla Covenant School di Nashville nel marzo 2023. Selak afferma di non essere un illustratore naturale e stava cercando un modo per elaborare il suo dolore per la sparatoria nella scuola. Midjourney gli ha fornito un’immagine che ha aiutato a canalizzare quella situazione, e ha deciso di proporre l’idea a due classi di quinta elementare nella scuola in cui lavora.

Le due classi hanno scelto ciascuna un argomento importante: il razzismo in America e il cambiamento climatico. Selak afferma di aver lavorato con ciascuna classe per generare uno spunto con ChatGPT sugli argomenti, poi li ha alimentati a Midjourney e ha perfezionato i risultati. Midjourney ha fornito agli studenti tre volti di colori diversi per lo spunto sul razzismo e un altro che mostrava tre diverse scene all’aperto con case e ciminiere, collegate da una strada. Gli studenti hanno quindi discusso il simbolismo di ogni immagine.

L’IA generativa ha permesso agli studenti di elaborare e discutere queste grandi e emotive idee in modi che un compito di scrittura potrebbe non avere, afferma Selak. “È stata un’opportunità per loro di impegnarsi in modo non tipico in queste grandi conversazioni”, dice Selak. “Sembra davvero che abbia amplificato la creatività umana in un modo che non mi aspettavo”.