Hvorfor forsøge at forstå Gen Z-slang, når det måske er nemmere at kommunikere med dyr? I dag præsenterede Google DolphinGemma, en open-source AI-model designet til at afkode delfiners kommunikation ved at analysere deres klik, fløjt og pulser. Meddelelsen faldt sammen med Den Nationale Delfindag. Modellen, skabt i samarbejde med Georgia Tech og Wild Dolphin Project (WDP), lærer strukturen af delfiners vokaliseringer og kan generere delfinlignende lydsekvenser. Gennembruddet kunne hjælpe med at fastslå, om delfiners kommunikation når op på sprogligt niveau eller ej. Trænet på verdens længst kørende havundersøgelsesprojekt med delfiner, DolphinGemma udnytter årtiers omhyggeligt mærket lyd- og videodata indsamlet af WDP siden 1985. Projektet har studeret plettede atlanterhavsdelfiner på Bahamas over generationer ved hjælp af en ikke-invasiv tilgang, de kalder “I Deres Verden, På Deres Vilkaar”. “Ved at identificere tilbagevendende lydmønstre, klynger og pålidelige sekvenser kan modellen hjælpe forskerne med at afsløre skjulte strukturer og potentielle betydninger inden for delfiners naturlige kommunikation – en opgave, der tidligere krævede enorm menneskelig indsats,” sagde Google i sin meddelelse. AI-modellen, der indeholder cirka 400 millioner parametre, er lille nok til at køre på Pixel-telefoner, som forskerne bruger på marken. Den behandler delfinlyde ved hjælp af Googles SoundStream-tokenizer og forudsiger efterfølgende lyde i en sekvens, på samme måde som menneskelige sprogmodeller forudsiger det næste ord i en sætning. DolphinGemma fungerer ikke isoleret. Den fungerer sammen med CHAT (Cetacean Hearing Augmentation Telemetry) systemet, som forbinder syntetiske fløjt med specifikke objekter, som delfiner nyder, såsom sargassum, søgræs eller tørklæder, og potentielt etablerer et fælles vokabular for interaktion. “På sigt kan disse mønstre, suppleret med syntetiske lyde skabt af forskerne for at henvise til objekter, som delfiner kan lide at lege med, etablere et fælles vokabular med delfinerne til interaktiv kommunikation,” ifølge Google. Feltforskere bruger i øjeblikket Pixel 6-telefoner til realtidsanalyse af delfinlyde. Holdet planlægger at opgradere til Pixel 9-enheder til sommerens forskningssæson i 2025, som vil integrere højttaler- og mikrofonfunktioner og samtidig køre både dybe læringsmodeller og skabelonmatchningsalgoritmer. Skiftet til smartphone-teknologi reducerer dramatisk behovet for specialhardware, en afgørende fordel for havforskning. DolphinGemmas forudsigende evner kan hjælpe forskerne med at forudsige og identificere potentielle imitationer tidligere i vokaliseringsserier, hvilket gør interaktionerne mere flydende. Forståelse af det, der ikke kan forstås DolphinGemma deltager i adskillige andre AI-initiativer med det formål at knække koden for dyrekommunikation. Earth Species Project (ESP), en nonprofitorganisation, udviklede for nylig NatureLM, en lydsprogmodel, der er i stand til at identificere dyrearter, omtrentlig alder og om lyde angiver nød eller leg – ikke egentlig sprog, men stadig måder at etablere noget primitiv kommunikation på. Modellen, trænet på en blanding af menneskesprog, miljølyde og dyres vokaliseringer, har vist lovende resultater selv med arter, den ikke tidligere har stødt på. Projekt CETI repræsenterer et andet betydeligt arbejde på dette område. Ledet af forskere, herunder Michael Bronstein fra Imperial College London, fokuserer det specifikt på kommunikation hos kaskelothvaler og analyserer deres komplekse klikmønstre, der bruges over lange afstande. Holdet har identificeret 143 klikkombinationer, der måske danner en slags fonetisk alfabet, som de nu studerer ved hjælp af dybe neurale netværk og naturprocesningsteknikker. Mens disse projekter fokuserer på at afkode dyrelyde, har forskere på New York University ladet sig inspirere af spædbarns udvikling til AI-læring. Deres Child’s View for Contrastive Learning model (CVCL) lærte sprog ved at se verden gennem et spædbarns perspektiv ved hjælp af optagelser fra et hovedmonteret kamera båret af et spædbarn fra 6 måneder til 2 år gammel. NYU-holdet fandt, at deres AI kunne lære effektivt fra naturalistisk data på samme måde som menneskelige spædbørn gør, i skarp kontrast til traditionelle AI-modeller, der kræver billioner af ord til træning. Google har planer om at dele en opdateret version af DolphinGemma denne sommer og potentielt udvide dens anvendelighed ud over plettede atlanterhavsdelfiner. Modellen kan dog kræve finjustering til forskellige arters vokaliseringer. WDP har fokuseret intensivt på at korrelere delfinlyde med specifikke adfærdsmønstre, herunder signaturfløjt, som mødre og kalve bruger til at genforenes, burst-pulse “skvæk” under konflikter, og klik “brummen” brugt under parring eller når de jagter hajer. “Vi lytter ikke bare længere,” noterede Google. “Vi begynder at forstå mønstrene inden for lydene, og baner vejen for en fremtid, hvor kløften mellem menneskelig og delfinkommunikation måske bare bliver en smule mindre.” Redigeret af Sebastian Sinclair og Josh Quittner.
Google lancerer kunstig intelligens til at afkode delfinsprog, kører på Pixel-telefoner.
