Come utilizzare l’IA per parlare con le balene e salvare la vita sulla Terra

Using AI to communicate with whales and save life on Earth

Prima che Michelle Fournet si trasferisse in Alaska all’improvviso, quando era poco più che ventenne, non aveva mai visto una balena. Ha preso un lavoro su una barca per avvistare le balene e, ogni giorno in cui era in mare, guardava le grandi forme che si muovevano sotto la superficie. Per tutta la sua vita, si è resa conto che il mondo naturale era lì fuori e lei lo stava perdendo. “Non sapevo nemmeno di essere priva di qualcosa”, ricorda. In seguito, da studentessa universitaria di biologia marina, Fournet si chiedeva cos’altro stava perdendo. Le megattere che stava imparando a conoscere si rivelavano solo parzialmente. E se potesse sentire cosa stavano dicendo? Ha immerso un idrofono in acqua, ma l’unico suono che arrivava era il rumore meccanico delle barche. Le balene erano rimaste in silenzio nel mezzo di tutto quel fracasso. Proprio come Fournet aveva scoperto la natura, stava assistendo al suo ritirarsi. Ha deciso di aiutare le balene. Per farlo, doveva imparare ad ascoltarle.

Fournet, ora docente presso l’Università del New Hampshire e direttrice di un collettivo di scienziati della conservazione, ha passato l’ultimo decennio a costruire un catalogo dei vari cinguettii, gridi e gemiti che le megattere emettono nella loro vita quotidiana. Le balene hanno vocabolari enormi e diversificati, ma c’è una cosa che dicono tutte, che siano maschi o femmine, giovani o vecchie. Per le nostre misere orecchie umane, suona un po’ come un rombo di pancia seguito da una goccia d’acqua: “whup”.

Fournet pensa che il richiamo “whup” sia il modo in cui le balene si annunciano l’una all’altra. Un modo per dire “sono qui”. L’anno scorso, come parte di una serie di esperimenti per testare la sua teoria, Fournet ha guidato una piccola imbarcazione in Alaska nel Frederick Sound, dove le megattere si radunano per nutrirsi di nuvole di krill. Ha trasmesso una sequenza di richiami “whup” e ha registrato cosa facevano le balene in risposta. Poi, tornata sulla spiaggia, si è messa le cuffie e ha ascoltato l’audio. I suoi richiami sono usciti. Le voci delle balene risuonavano nell’acqua: “whup, whup, whup”. Fournet lo descrive così: le balene hanno sentito una voce dire “Io sono, io sono qui, io sono me”. E hanno risposto: “Anch’io sono, io sono qui, io sono me”.

I biologi utilizzano questo tipo di esperimento, chiamato “playback”, per studiare cosa spinge un animale a comunicare. I “playback” di Fournet finora hanno utilizzato registrazioni di veri richiami “whup”. Il metodo è imperfetto, però, perché le megattere sono molto attente a chi stanno parlando. Se una balena riconosce la voce della balena nella registrazione, come influisce sulla sua risposta? Parla con un compagno in modo diverso rispetto a uno sconosciuto? Come biologo, come fai a essere sicuro di inviare un richiamo “whup” neutrale?

Una risposta è crearne uno proprio. Fournet ha condiviso il suo catalogo di richiami delle megattere con il Progetto Specie Terrestri, un gruppo di tecnologi e ingegneri che, con l’aiuto dell’intelligenza artificiale, si propongono di sviluppare un richiamo “whup” sintetico. E non si limitano a emulare la voce di una megattera. La missione di questa organizzazione no-profit è aprire le orecchie umane al chiacchiericcio dell’intero regno animale. In 30 anni, dicono, i documentari naturalistici non avranno bisogno di una narrazione rilassante alla Attenborough, perché il dialogo degli animali sullo schermo avrà i sottotitoli. E proprio come gli ingegneri di oggi non hanno bisogno di conoscere il mandarino o il turco per costruire un chatbot in quelle lingue, presto sarà possibile costruirne uno che parla “Megattera” – o “Colibrì”, o “Pipistrello”, o “Ape”.

L’idea di “decodificare” la comunicazione animale è audace, forse incredibile, ma un momento di crisi richiede misure audaci e incredibili. Ovunque ci siano umani, ovvero ovunque, gli animali stanno scomparendo. Le popolazioni di fauna selvatica nel mondo sono diminuite in media di quasi il 70% negli ultimi 50 anni, secondo una stima – e questa è solo la parte della crisi che gli scienziati hanno misurato. Migliaia di specie potrebbero scomparire senza che gli umani ne sappiano nulla.

Per decarbonizzare l’economia e preservare gli ecosistemi, non abbiamo certamente bisogno di parlare con gli animali. Ma più conosciamo la vita delle altre creature, meglio possiamo prenderci cura di quelle vite. E gli esseri umani, essendo umani, prestano più attenzione a coloro che parlano la nostra lingua. L’interazione che il Progetto Specie Terrestri vuole rendere possibile, dice Fournet, “aiuta una società che è disconnessa dalla natura a riconnettersi con essa”. La migliore tecnologia dà agli esseri umani un modo per abitare il mondo più pienamente. In questa luce, parlare con gli animali potrebbe essere la sua applicazione più naturale fino ad oggi.

Gli esseri umani hanno sempre saputo come ascoltare altre specie, ovviamente. Pescatori di ogni epoca hanno collaborato con balene e delfini a reciproco vantaggio: un pesce per loro, un pesce per noi. Nell’Australia del XIX secolo, un gruppo di orche era noto per radunare balene di Beringia in una baia vicino a un insediamento di balenieri, quindi colpire le loro code per avvertire gli umani di preparare gli arpioni. (In cambio del loro aiuto, le orche potevano scegliere i loro tagli preferiti, le labbra e la lingua.) Nel frattempo, nelle acque gelide di Beringia, il popolo Inupiat ascoltava e parlava alle balene di Groenlandia prima delle loro cacce. Come scrive la storica ambientale Bathsheba Demuth nel suo libro Floating Coast, gli Inupiat pensavano alle balene come vicini che occupavano “il loro paese” e che a volte decidevano di offrire le loro vite agli umani, se gli umani lo meritavano.

I cacciatori di balene commerciali avevano un approccio diverso. Vedevano le balene come contenitori galleggianti di grasso e fanoni. L’industria baleniera americana della metà del XIX secolo, e poi l’industria baleniera globale nel secolo successivo, ha quasi annientato diverse specie, causando una delle più grandi perdite di vita animale selvatica mai causate dagli esseri umani. Negli anni ’60, sono state uccise 700.000 balene, segnando il picco della morte dei cetacei. Poi, è successo qualcosa di straordinario: abbiamo sentito le balene cantare. Durante un viaggio alle Bermuda, i biologi Roger e Katy Payne incontrarono un ingegnere navale statunitense di nome Frank Watlington, che diede loro registrazioni che aveva fatto di strane melodie catturate in profondità sotto l’acqua. Per secoli, i marinai avevano raccontato storie di canti sinistri che provenivano dallo scafo di legno delle loro barche, se fossero provenuti da mostri o sirene non lo sapevano. Watlington pensava che i suoni provenissero dalle balene di Groenlandia. Salvatele, disse ai Payne. E loro lo fecero, pubblicando un album intitolato Songs of the Humpback Whale, che rese famose queste balene che cantavano. Poco dopo, prese piede il movimento Salva le Balene. Nel 1972, gli Stati Uniti approvarono il Marine Mammal Protection Act; nel 1986, la caccia commerciale alle balene fu vietata dalla Commissione internazionale per la caccia alle balene. In appena due decenni, le balene si trasformarono nell’immaginario collettivo in giganti del mare cognitivamente complessi e gentili.

Roger Payne, morto all’inizio di quest’anno, parlava spesso della sua convinzione che più il pubblico potesse conoscere “cose curiose e affascinanti” sulle balene, più le persone si sarebbero preoccupate di ciò che accadeva loro. Secondo lui, la scienza da sola non avrebbe mai cambiato il mondo, perché gli esseri umani non rispondono ai dati; rispondono alle emozioni, a ciò che li fa piangere di stupore o rabbrividire di gioia. Era favorevole al turismo naturalistico, ai giardini zoologici e agli spettacoli di delfini in cattività. Per quanto compromesso possa essere il trattamento dei singoli animali in questi luoghi, credeva che l’estinzione di una specie fosse molto peggio. Da allora, i conservazionisti hanno continuato a sostenere l’idea che il contatto con gli animali possa salvarli.

Da questa premessa, Earth Species sta facendo il salto immaginativo che l’IA possa aiutarci a fare il primo contatto con gli animali. I fondatori dell’organizzazione, Aza Raskin e Britt Selvitelle, sono entrambi architetti della nostra era digitale. Raskin è cresciuto nella Silicon Valley; suo padre ha avviato il progetto Macintosh di Apple negli anni ’70. All’inizio della sua carriera, Raskin ha contribuito a costruire Firefox e nel 2006 ha creato lo scorrimento infinito, probabilmente la sua eredità più grande e controversa. Pentito, ha successivamente calcolato le ore umane collettive che la sua invenzione aveva sprecato e ha ottenuto una cifra superiore a 100.000 vite umane alla settimana.

Raskin trascorreva a volte del tempo in una startup chiamata Twitter, dove ha incontrato Selvitelle, un dipendente fondatore. Sono rimasti in contatto. Nel 2013, Raskin ha sentito una notizia alla radio su scimmie gelada in Etiopia il cui linguaggio aveva cadenze simili al linguaggio umano. Così simili, infatti, che il capo scienziato a volte sentiva una voce che gli parlava, si girava e rimaneva sorpreso di trovare una scimmia lì. L’intervistatore ha chiesto se ci fosse un modo per capire cosa stavano cercando di dire. Non c’era, ma Raskin si chiedeva se fosse possibile trovare una risposta con l’apprendimento automatico. Ha sollevato l’idea con Selvitelle, che aveva un interesse per il benessere degli animali.

Per un po’ l’idea era solo un’idea. Poi, nel 2017, nuove ricerche hanno dimostrato che le macchine potevano tradurre tra due lingue senza essere addestrate preventivamente su testi bilingue. Google Translate aveva sempre imitato il modo in cui un essere umano potrebbe usare un dizionario, solo più velocemente e su scala. Ma questi nuovi metodi di apprendimento automatico hanno bypassato completamente la semantica. Trattavano le lingue come forme geometriche e trovavano dove si sovrapponevano le forme. Se una macchina poteva tradurre qualsiasi lingua in inglese senza bisogno di comprenderla prima, pensò Raskin, poteva fare lo stesso con il movimento ondulatorio di una scimmia gelada, l’infrasuono di un elefante, la danza di una ape. Un anno dopo, Raskin e Selvitelle hanno fondato Earth Species.

Raskin crede che la capacità di intercettare gli animali stimolerà una svolta paradigmatica altrettanto significativa storicamente come la rivoluzione copernicana. Gli piace dire che “l’IA è l’invenzione dell’ottica moderna”. Con ciò intende che proprio come i miglioramenti al telescopio hanno permesso agli astronomi del XVII secolo di percepire nuove stelle e finalmente spostare la Terra dal centro del cosmo, l’IA aiuterà gli scienziati ad ascoltare ciò che le loro orecchie da sole non possono: che gli animali parlano significativamente, e in modi più numerosi di quanto possiamo immaginare. Che le loro abilità e le loro vite non sono inferiori alle nostre. “Questa volta guarderemo verso l’universo e scopriremo che l’umanità non è al centro”, dice Raskin.

Raskin e Selvitelle hanno trascorso i primi anni incontrando biologi e partecipando a ricerche sul campo. Hanno presto capito che il bisogno più ovvio e immediato di fronte a loro non era quello di incitare una rivoluzione. Era quello di ordinare i dati. Vent’anni fa, un ricercatore di primati si sarebbe messo sotto un albero e avrebbe tenuto un microfono in aria finché il suo braccio non si fosse stancato. Ora i ricercatori possono attaccare un biologger portatile a un albero e raccogliere un flusso continuo di audio per un anno. I molti terabyte di dati che ne risultano sono più di quanti gli studenti di dottorato potrebbero sperare di affrontare. Ma se si alimentano tutti questi materiali ad algoritmi di apprendimento automatico addestrati, il computer può scansionare i dati e segnalare le chiamate degli animali. Può distinguere un suono da un fischio. Può distinguere la voce di una scimmia dalla voce di suo fratello. Almeno, questa è la speranza. Questi strumenti hanno bisogno di più dati, ricerca e finanziamenti. Earth Species ha una forza lavoro di 15 persone e un budget di qualche milione di dollari. Si sono alleati con diverse dozzine di biologi per cominciare a fare progressi su questi compiti pratici.

Un progetto iniziale ha affrontato una delle sfide più significative nella ricerca sulla comunicazione animale, nota come il problema del cocktail party: quando un gruppo di animali parla tra loro, come si fa a capire chi sta dicendo cosa? In mare aperto, scuole di delfini di mille individui chiacchierano tutti insieme; gli scienziati che li registrano si ritrovano con un audio denso di fischi e clic come uno stadio di applausi. Anche l’audio di soli due o tre animali spesso è inutilizzabile, dice Laela Sayigh, un’esperta di fischi di delfini tursiopi, perché non si può capire dove uno smette di parlare e un altro inizia. (I video non aiutano, perché i delfini non aprono la bocca quando parlano.) Earth Species ha usato l’ampio database di fischi caratteristici di Sayigh, quelli paragonati ai nomi, per sviluppare un modello di rete neurale che potesse separare le voci sovrapposte degli animali. Quel modello era utile solo in condizioni di laboratorio, ma la ricerca è fatta per essere costruita su. Un paio di mesi dopo, Google AI ha pubblicato un modello per districare i canti degli uccelli selvatici.

Sayigh ha proposto uno strumento che può fungere da allarme di emergenza per spiaggiamenti di massa di delfini, che tendono a ripetersi in certi luoghi nel mondo. Vive a Cape Cod, nel Massachusetts, uno di questi punti caldi, dove spesso una dozzina di volte all’anno gruppi di delfini si disorientano, nuotano accidentalmente verso la riva e muoiono. Fortunatamente, potrebbe esserci un modo per prevedere questo prima che accada, dice Sayigh. Ipotizza che quando i delfini sono stressati, emettono fischi caratteristici più del solito, proprio come qualcuno perso in una tempesta di neve potrebbe chiamare in preda al panico. Un computer addestrato ad ascoltare questi fischi potrebbe inviare un allarme che spinge i soccorritori a deviare i delfini prima che raggiungano la spiaggia. Nel Salish Sea – dove, nel 2018, una madre orca che trainava il corpo del suo cucciolo affamato ha suscitato simpatia globale – c’è un sistema di allarme, costruito da Google AI, che ascolta le orche residenti e devia le navi dal loro percorso.

Per i ricercatori e i conservazionisti, le potenziali applicazioni dell’apprendimento automatico sono praticamente illimitate. E Earth Species non è l’unico gruppo che lavora sulla decodifica della comunicazione animale. Payne ha trascorso gli ultimi mesi della sua vita come consulente per il Project CETI, un’organizzazione no-profit che ha costruito una base in Dominica quest’anno per lo studio della comunicazione delle balene. “Immagina solo cosa sarebbe possibile se comprendessimo cosa si dicono gli animali l’uno all’altro; cosa occupa i loro pensieri; cosa amano, temono, desiderano, evitano, odiano, affascina e tesoro”, ha scritto su Time nel giugno.

Molti degli strumenti che Earth Species ha sviluppato finora offrono più lavoro preliminare che utilità immediata. Tuttavia, in questo campo nascente c’è molta ottimismo. Con sufficienti risorse, mi hanno detto diversi biologi, la decodifica è scientificamente realizzabile. Questo è solo l’inizio. La vera speranza è colmare il divario di comprensione tra l’esperienza di un animale e la nostra, per quanto vasto – o ristretto – possa essere.

Ari Friedlaender ha qualcosa di cui Earth Species ha bisogno: tantissimi dati. Friedlaender studia il comportamento delle balene all’UC Santa Cruz. Ha iniziato come “tag guy”: la persona che si equilibra sul bordo di una barca mentre insegue una balena, tiene in mano un lungo palo con un biologger attaccato all’estremità con una ventosa e attacca il biologger sulla schiena di una balena quando riemerge in superficie. Questo è più difficile di quanto sembri. Friedlaender ha dimostrato di essere abile – “Ho giocato a sport al college”, spiega – ed è presto iniziato a viaggiare per i mari in spedizioni di marcatura.

Le etichette utilizzate da Friedlaender catturano una notevole quantità di dati. Ogni registrazione non solo registra la posizione GPS, la temperatura, la pressione e il suono, ma anche video ad alta definizione e i dati dell’accelerometro a tre assi, la stessa tecnologia che un Fitbit utilizza per contare i tuoi passi o misurare quanto profondamente stai dormendo. Presi insieme, i dati illustrano, nei minimi dettagli cinematografici, una giornata nella vita di una balena: ogni respiro e ogni immersione, i suoi attraversamenti attraverso campi di meduse e meduse, i suoi incontri con leoni marini che volteggiano.

Friedlaender mi mostra un’animazione che ha realizzato dai dati di una etichetta. In essa, una balena scende e fa un giro nell’acqua, percorrendo un percorso tridimensionale multicolore come se fosse su una pista di Mario Kart sottomarina. Un’altra animazione raffigura diverse balene che soffiano reti di bolle, una strategia alimentare in cui nuotano in cerchi intorno a gruppi di pesci, intrappolano i pesci al centro con una parete di bolle, poi si tuffano, con la bocca spalancata. Osservando i movimenti delle balene, noto che mentre la maggior parte di esse ha tracciato una spirale ordinata, una balena ha prodotto un groviglio di zigzag maldestri. “Probabilmente un giovane animale”, dice Friedlaender. “Quella non ha ancora capito le cose.”

I dati multifacetati di Friedlaender sono particolarmente utili per Earth Species perché, come ogni biologo ti dirà, la comunicazione animale non è puramente verbale. Coinvolge gesti e movimenti tanto quanto le vocalizzazioni. Insieme a un’ampia gamma di dati, Earth Species si avvicina sempre di più allo sviluppo di algoritmi che possono funzionare in tutto lo spettro del regno animale. Il lavoro più recente dell’organizzazione si concentra sui modelli fondamentali, lo stesso tipo di calcolo che alimenta l’IA generativa come ChatGPT. All’inizio di quest’anno, Earth Species ha pubblicato il primo modello fondamentale per la comunicazione animale. Il modello può già ordinare in modo accurato i richiami delle balene beluga e Earth Species ha intenzione di applicarlo a specie tanto disparate come gli oranghi (che belano), gli elefanti (che inviano rumori sismici attraverso il terreno) e i ragni saltatori (che vibrano le gambe). Katie Zacarian, CEO di Earth Species, descrive il modello in questo modo: “Tutto è un chiodo e lui è un martello”.

Un’altra applicazione dell’IA di Earth Species è la generazione di richiami animali, come una versione audio di GPT. Raskin ha realizzato un canto di pochi secondi di un uccello chiffchaff. Se sembra che si stia anticipando la decodifica, è perché l’IA, come si scopre, è migliore a parlare che a capire. Earth Species sta scoprendo che gli strumenti che sta sviluppando probabilmente avranno la capacità di parlare con gli animali anche prima di poterli decodificare. Potrebbe presto essere possibile, ad esempio, dare un comando a un’IA con un suono “whup” e farla continuare una conversazione in Humpback, senza che gli osservatori umani sappiano cosa stanno dicendo né la macchina né la balena.

Nessuno si aspetta che un simile scenario si verifichi effettivamente; sarebbe scientificamente irresponsabile, per una cosa. I biologi che lavorano con Earth Species sono motivati dalla conoscenza, non dal dialogo per il semplice gusto di farlo. Felix Effenberger, un consulente anziano per la ricerca sull’IA presso Earth Species, mi ha detto: “Non credo che avremo un traduttore inglese-delfino, capito? Dove metti l’inglese nel tuo smartphone e poi fa i suoni del delfino e il delfino va a prenderti qualche riccio di mare. L’obiettivo è scoprire prima i modelli di comunicazione di base”.

Quindi, a che cosa assomiglierà – suonerà – parlare con gli animali? Non è necessario che sia una conversazione libera per essere sorprendente. Parlare agli animali in modo controllato, come con i “whup” riprodotti da Fournet, è probabilmente essenziale affinché gli scienziati cerchino di comprenderli. Dopotutto, non proveresti a imparare il tedesco andando a una festa a Berlino e sedendo mutamente in un angolo.

Gli appassionati di uccelli già utilizzano app per catturare melodie dall’aria e identificare quale specie sta cantando. Con un’IA come interprete animale, immagina cosa potresti imparare di più. Lo inviti a riprodurre il suono di due capodogli che si incontrano e produce un “whup”. Lo inviti a riprodurre il suono di un vitello che parla con sua madre e produce un sussurro. Lo inviti a riprodurre il suono di un maschio innamorato e produce una canzone.

ILLUSTRAZIONE: AGNES JONAS

Nessuna specie di balena è mai stata portata all’estinzione dagli esseri umani. Questa è appena una vittoria. I numeri sono solo una misura della biodiversità. Le vite degli animali sono ricche di tutto ciò che dicono e fanno, di cultura. Mentre le popolazioni di megattere si sono riprese dal loro punto più basso di mezzo secolo fa, quali canzoni, quali pratiche hanno perso nel frattempo? Le balene blu, cacciate fino a rappresentare solo l’1% della loro popolazione, potrebbero aver perso praticamente tutto.

Christian Rutz, un biologo dell’Università di St. Andrews, ritiene che una delle compiti essenziali della conservazione sia preservare i modi di essere non umani. “Non stai chiedendo, ‘Sei qui o non sei qui?'”, dice. “Stai chiedendo, ‘Sei qui e felice, o infelice?'”

Rutz sta studiando come la comunicazione dei corvi hawaiani sia cambiata dal 2002, quando sono diventati estinti in natura. Circa 100 di questi straordinari uccelli – una delle poche specie conosciute a utilizzare strumenti – sono ancora vivi in cattività protetta, e i conservazionisti sperano di poterli reintrodurre in natura in futuro. Ma questi corvi potrebbero non essere ancora pronti. Ci sono alcune prove che gli uccelli in cattività abbiano dimenticato un vocabolario utile, comprese le chiamate per difendere il proprio territorio e avvertire dei predatori. Rutz sta lavorando con Earth Species per creare un algoritmo in grado di analizzare registrazioni storiche dei corvi selvatici estinti, estrarre tutte le chiamate dei corvi e etichettarle. Se scoprissero che le chiamate sono state effettivamente perse, i conservazionisti potrebbero generare quelle chiamate per insegnarle agli uccelli in cattività.

Rutz è attento a dire che generare chiamate sarà una decisione presa con attenzione, quando il momento lo richiede. In un articolo pubblicato su Science a luglio, ha elogiato l’utilità straordinaria del machine learning. Ma avverte che gli esseri umani dovrebbero riflettere attentamente prima di intervenire nelle vite degli animali. Proprio come il potenziale dell’IA rimane sconosciuto, potrebbe comportare rischi che vanno oltre ciò che possiamo immaginare. Rutz cita ad esempio le nuove canzoni composte ogni anno dalle megattere che si diffondono in tutto il mondo come singoli di successo. Se queste balene prendessero una frase generata dall’IA e la incorporassero nella loro routine, gli esseri umani starebbero alterando una cultura millenaria. “Penso che questo sia uno dei sistemi che dovrebbe essere vietato, almeno per ora”, mi ha detto. “Chi ha il diritto di fare una chiacchierata con una megattera?”

Non è difficile immaginare come l’IA che comunica con gli animali potrebbe essere utilizzata in modo sbagliato. I balenieri del XX secolo hanno impiegato la nuova tecnologia del loro tempo, emettendo sonar a una frequenza che spingeva le balene in superficie nel panico. Ma gli strumenti dell’IA sono buoni o cattivi solo in base a ciò che gli esseri umani fanno con essi. Tom Mustill, un documentarista della conservazione e l’autore di How to Speak Whale, suggerisce di dare alle ricerche sul decodificare gli animali le stesse risorse dei progetti scientifici più celebrati, come il Large Hadron Collider, il Progetto Genoma Umano e il Telescopio Spaziale James Webb. “Con così tante tecnologie”, mi ha detto, “spetta solo alle persone che le hanno sviluppate fare ciò che vogliono finché il resto del mondo non raggiunge lo stesso livello. Questo è troppo importante per lasciarlo accadere.”

Miliardi di dollari vengono canalizzati verso le aziende di IA, gran parte dei quali a servizio dei profitti aziendali: scrivere email più velocemente, creare foto stock in modo più efficiente, consegnare pubblicità in modo più efficace. Nel frattempo, i misteri del mondo naturale rimangono. Una delle poche cose di cui gli scienziati sono certi è quanto non sappiano. Quando chiedo a Friedlaender se passare così tanto tempo a inseguire le balene gli abbia insegnato molto su di loro, mi dice che talvolta si fa un semplice test: dopo che una balena scompare sotto la superficie, cerca di prevedere dove riemergerà. “Chiudo gli occhi e dico: ‘Ok, ho messo 1.000 tag nella mia vita, ho visto tutti questi dati. La balena sarà da quella parte’. E la balena è sempre da un’altra parte”, dice. “Non ho idea di cosa stiano facendo questi animali.”

Se potessi parlare con una balena, cosa diresti? Chiederesti a White Gladis, l’orca assassina elevata allo status di meme quest’estate per affondare yacht al largo della costa iberica, cosa l’ha spinta a scatenare la sua furia – divertimento, illusione, vendetta? Diresti a Tahlequah, l’orca madre che piange la morte del suo piccolo, che anche tu hai perso un figlio? Payne ha detto una volta che se avesse la possibilità di parlare con una balena, gli piacerebbe sentire i suoi pettegolezzi normali: amori, litigi, infedeltà. Inoltre: “Mi scuso sarebbe una buona parola da dire”.

Poi c’è quel vecchio problema filosofico spinoso. La questione dell’umwelt, e cosa significa essere un pipistrello, o una balena, o te stesso. Anche se potessimo parlare con una balena, capiremmo quello che dice? O la sua percezione del mondo, l’intero ordine della sua coscienza, sarebbe così aliena da essere incomprensibile? Se le macchine traducono le lingue umane come forme che si sovrappongono, forse l’inglese è un donut e il linguaggio delle balene è il buco.

Forse, prima di poter parlare con una balena, devi sapere com’è avere il corpo di una balena. È un corpo 50 milioni di anni più vecchio del nostro corpo. Un corpo modellato per il mare, per muoversi senza sforzo attraverso profondità opprimenti, per contrastare il freddo con la sua enorme massa. Come balena, scegli quando respirare, o non farlo. Perlopiù tratteni il respiro. A causa di questo, non puoi odorare o gustare. Non hai mani per toccare le cose. I tuoi occhi funzionano, ma la luce solare penetra male l’acqua. Di solito non riesci nemmeno a distinguere la tua coda attraverso la nebbia.

Viveresti in una nuvola di oscurità senza speranza se non fosse per le tue orecchie. Il suono si propaga più lontano e più velocemente attraverso l’acqua che attraverso l’aria, e il tuo mondo è illuminato da esso. Per te, ogni angolo oscuro dell’oceano risuona di suoni. Senti il pizzicore della pioggia in superficie, il fruscio delle krill, le esplosioni dei trivellatori di petrolio. Se sei una balena cachalot, passi metà della tua vita nel buio profondo del mare, cacciando calamari ad orecchio. Usi anche il suono per parlare, proprio come fanno gli esseri umani. Ma la tua voce, invece di dissiparsi istantaneamente nella sottile sostanza dell’aria, persiste. Alcune balene possono urlare più forte di un motore a getto, le loro chiamate si propagano per 10.000 miglia attraverso il fondo dell’oceano.

Ma com’è essere te, una balena? Quali pensieri pensi, quali sentimenti provi? Queste sono cose molto più difficili da conoscere per gli scienziati. Alcuni indizi provengono dall’osservazione di come parli con la tua specie. Se nasci in un gruppo di orche, unito e xenofobo, una delle prime cose che tua madre e tua nonna ti insegnano è il nome del tuo clan. Appartenere deve sentirsi essenziale. (Ricorda Keiko, l’orca che ha recitato nel film Free Willy: quando è stato rilasciato nelle sue acque native alla fine della sua vita, non è riuscito a riunirsi alla compagnia delle balene selvatiche e è invece tornato a morire tra gli esseri umani.) Se sei una femmina di balena cachalot, fai clic con i tuoi compagni di clan per coordinare chi sta guardando il cucciolo di chi; nel frattempo, i cuccioli cinguettano. Vivi in movimento, nuotando costantemente verso nuove acque, coltivando un atteggiamento nervoso e vigile. Se sei un capodoglio maschio, trascorri il tuo tempo cantando da solo nelle acque polari ghiacciate, lontano dal tuo compagno più vicino. Dedurre la solitudine, però, sarebbe un errore umano. Per una balena la cui voce attraversa gli oceani, forse la distanza non significa solitudine. Forse, mentre canti, sei sempre in conversazione.

Michelle Fournet si chiede: Come possiamo sapere se le balene vorrebbero parlare con noi comunque? Quello che ama di più delle balene gobbe è la loro indifferenza. “Questo animale è lungo 40 piedi e pesa 75.000 libbre, e non gliene importa niente di te”, mi ha detto. “Ogni respiro che fa è più grandioso di tutta la mia esistenza.” Anche Roger Payne ha osservato qualcosa di simile. Considerava le balene l’unico animale capace di un’impresa altrimenti impossibile: far sentire gli umani piccoli.

Una mattina presto a Monterey, in California, sono salito su una barca per avvistare le balene. L’acqua era grigio ardesia con creste bianche. Stormi di piccoli uccelli sfrecciavano sulla superficie. Sono apparse tre balene gobbe, con le spalle che si arrotondavano fuori dall’acqua. Hanno mostrato la coda, il che è stato apprezzato dai fotografi del gruppo. La linea frastagliata della coda può essere utilizzata, come un’impronta digitale, per distinguere le balene individuali.

In seguito, ho caricato una foto di una delle balene su Happywhale. Il sito identifica le balene utilizzando un algoritmo di riconoscimento facciale modificato per le code. La balena gobba che ho inviato, una con la coda ricoperta di barnacole, è tornata come CRC-19494. Diciassette anni fa, questa balena era stata avvistata al largo della costa occidentale del Messico. Da allora, si era spostata su e giù per il Pacifico tra Baja e Monterey Bay. Per un attimo, sono rimasto impressionato dal fatto che questo sito potesse pescare così facilmente un animale dall’oceano e consegnarmi un nome. Ma d’altra parte, cosa sapevo io di questa balena? Era una madre, un padre? Questa balena su Happywhale era effettivamente felice? L’intelligenza artificiale non aveva risposte. Ho cercato il profilo della balena e ho trovato una galleria di foto, da diverse angolazioni, di una coda ricoperta di barnacole. Per ora, era tutto quello che potevo sapere.


Questo articolo appare nell’edizione di ottobre 2023. Iscriviti ora.

Facci sapere cosa ne pensi di questo articolo. Invia una lettera al direttore a mail@ENBLE.com.