AGI – Capire il linguaggio dei delfini è da sempre una sfida difficilissima e affascinante per gli scienziati tra fischi, impulsi, versi molto acuti e, a volte, ritmati. Ma cosa accadrebbe se potessimo non solo ascoltare i delfini, ma anche decodificare i loro pattern comunicativi al punto da generare risposte realistiche? In occasione del National Dolphin Day, Google annuncia insieme ai ricercatori del Georgia Institute of Technology e al Wild Dolphin Project (WDP) importanti progressi su DolphinGemma: un modello di intelligenza artificiale di nuova generazione, progettato per imparare la struttura delle vocalizzazioni dei delfini e generare nuove sequenze sonore simili a quelle reali. Una vera svolta nella ricerca sulla comunicazione interspecie, che porta l’AI a perlustrare territori ancora inesplorati del nostro legame con il mondo marino.
Un progetto basato su decenni di osservazioni
È un progetto, quello dedicato ai delfini, che parte da lontano. E lo spiega proprio un lungo post pubblicato sul blog del colosso tech americano. Capire davvero una specie richiede contesto profondo, e questo è esattamente ciò che il WDP offre. Dal 1985, questo progetto porta avanti la più longeva ricerca subacquea sui delfini al mondo, studiando una comunità di delfini maculati dell’Atlantico (Stenella frontalis), intorno alle Bahamas, attraverso più generazioni. Il loro approccio non è invasivo con l’obiettivo di muoversi ‘step by step’ entrando in punta di piedi nel loro mondo e “alle loro condizioni”. Il risultato, tuttavia, è un dataset incredibilmente ricco e variopinto: decenni di registrazioni video e audio subacquee, abbinate all’identità dei singoli delfini, alle loro storie di vita e ai comportamenti osservati. Storie, tante, approfondite.
L’aiuto di DolphinGemma
Analizzare la comunicazione naturale dei delfini – complessa, dinamica e ricca di sfumature – è come detto una sfida titanica. Per farlo gli scienziati devono affinare le loro tecniche, aggiornare i loro strumenti, sperimentare continuamente. Grazie al dataset etichettato del WDP, Google ha potuto addestrare DolphinGemma, un modello AI che sfrutta tecnologie audio avanzate e che ha accelerato il processo di studio. Nello specifico, utilizza il cosiddetto tokenizer SoundStream per rappresentare in modo efficiente i suoni dei delfini, poi processati attraverso un’architettura progettata per gestire sequenze complesse. Il modello, con circa 400 milioni di parametri, è stato ottimizzato per funzionare direttamente sugli smartphone Pixel usati dal WDP durante le immersioni.
DolphinGemma nasce sulla scia della famiglia Gemma, la collezione di modelli AI open-source di Google, basati sulla stessa ricerca che alimenta i ben noti modelli Gemini. È un modello audio-in, audio-out: analizza le sequenze naturali dei suoni dei delfini, ne identifica pattern e struttura, e predice il suono più probabile che seguirà, proprio come i modelli linguistici fanno con le parole umane.
Un nuovo linguaggio condiviso?
Durante questa stagione di ricerca, DolphinGemma sarà utilizzato direttamente sul campo. Il suo contributo sarà immediato: identificare pattern ricorrenti, cluster sonori e sequenze affidabili, aiutando i ricercatori a scoprire strutture e possibili significati nella comunicazione naturale dei delfini. Un compito che, come ricorda Google, finora richiedeva anni di lavoro umano. Ma c’è di più: i ricercatori stanno anche affiancando DolphinGemma a suoni sintetici creati appositamente per riferirsi a oggetti amati dai delfini (come alghe o accessori da gioco). L’obiettivo a lungo termine è sviluppare un vocabolario condiviso per facilitare una vera e propria interazione comunicativa tra uomo e delfino.
Oltre all’analisi della comunicazione naturale, il WDP ha anche un altro compito: sviluppare l’interazione bidirezionale in tempo reale tramite tecnologia. Nasce così il sistema CHAT (Cetacean Hearing Augmentation Telemetry), realizzato con il supporto delll’università di Georgia Tech. CHAT è un computer subacqueo pensato non per decifrare direttamente il linguaggio naturale dei delfini, ma per costruire un vocabolario condiviso e semplice, basato su fischi artificiali. Il sistema associa a ogni oggetto (come alghe sargassi, erbe marine o sciarpe colorate usate dai ricercatori) un fischio sintetico unico, diverso dai suoni naturali dei delfini.
Mostrando come questi suoni siano collegati a oggetti interessanti, i ricercatori sperano che i delfini, da sempre estremamente curiosi, imparino a imitare quei fischi per fare determinate richieste e intavolare una forma, anche abbozzata, di comunicazione. Man mano che la comprensione dei suoni naturali cresce, anche questi potranno essere integrati nel sistema CHAT, rendendo sempre più sfumata la linea tra ascolto e conversazione.
Clicca qui e iscriviti al nostro canale Whatsapp! Le notizie, in tempo reale, dell’Agenzia Italia ora anche sul tuo smartphone
Fonte : Agi