O Google iniciou uma parceria notável com a Projeto Dolphin selvagem (WDP) e pesquisadores da Georgia Tech, aplicando suas capacidades de alcance da tecnologia de alcance da Standing. A colaboração apresenta dolphingemma , um modelo de IA projetado para analisar décadas de dados acústicos coletados a partir de dolfins selvagens. O sistema usa telefones do Google Pixel para análise em campo, com o objetivo de identificar padrões nas vocalizações de golfinhos e potencialmente abrigar o caminho para formas básicas de interação entre espécies. Desde 1985, o WDP realiza pesquisas subaquáticas sobre uma comunidade específica de golfinhos manchados do Atlântico nas Bahamas, registrando meticulosamente gravações de áudio e vídeo juntamente com observações comportamentais em gerações. ouvido durante brigas ou clique em “Buzzes” associados ao namoro ou à perseguição de tubarões. No entanto, compreender totalmente a estrutura e o significado potencial continua sendo um desafio considerável. Como Herzing observou em comentários compartilhados com ars Technica , “não sabemos se os animais tenham palavras. src=”https://winbuzzer.com/wp-content/uploads/2025/04/wild-dolphin-project-dolphingemma-flighicial.jpg”>

Decoding dolphin sons com ai

O modelo é baseado no Google Gemma Arquitetura-uma família de modelos relativamente leves e geralmente abertos distintos da maior e proprietária da série Gemini. Ele emprega a tecnologia SoundStream do Google, um codec de áudio neural eficiente provavelmente usado para converter os sons de golfinhos complexos de alta frequência em um formato tokenizado adequado para processamento de IA. texto. Essa análise de padrões pode ajudar os pesquisadores a detectar regularidades anteriormente não reconhecidas na comunicação com golfinhos. Interface de computador desenvolvida anteriormente pela WDP e Georgia Tech. Experimentos de bate-papo envolvem associar novos apitos sintéticos interpretados por pesquisadores com objetos específicos (como lenços ou sargassum), testando se os golfinhos aprendem a imitar os sons a fazer solicitações. O ruído, permitindo que os pesquisadores respondam mais rapidamente, reforcem qualquer aprendizado observado. A Alphafold, seu sistema de IA, reconhecida por estruturas de proteínas com precisão, é amplamente utilizada pelos pesquisadores e contribuiu para um Prêmio Nobel de Química em 2024 para o CEO DeepMind Demis Hassabis e o pesquisador líder John Scients. literatura. Antes, em outubro de 2024, Hassabis havia falado sobre o papel potencial da IA ​​no planejamento e previsão de resultados experimentais. O DeepMind também demonstrou recursos avançados de raciocínio com modelos como o alfageometria2, que combinam redes neurais com lógica simbólica para resolver problemas complexos de geometria em um nível de elite. espécies cetáceas. Esse compromisso com a abertura é interessante quando visto contra tendências recentes. Os exemplos dados incluíram a natureza proprietária dos modelos de robótica Gemini e a não liberação de alfageometria2.

O histórico de liberação do AlphaFold 3 também fornece contexto relevante. Inicialmente lançado em maio de 2024 com o acesso limitado a uma interface da web, uma reação significativa da comunidade de pesquisa precedeu o eventual fonte aberta do código em novembro de 2024. No entanto, esse lançamento foi sob uma licença não comercial e o acesso ao crucial Modelo ainda requer um aplicativo Os modelos de IA, que o Google posicionam como mais abertos (semelhantes ao TXGEMMA Toolkit lançado abertamente a partir de março), pode explicar sua transjetória de liberação diferente em comparação com os Core Gemini ou modelos especializados como o alfageometria2. No entanto, as especificidades do lançamento do Dolphingemma neste verão serão observadas de perto. Quaisquer padrões estruturais ou hipóteses gerados pela IA devem ser rigorosamente verificados em relação às observações e potencialmente testados em outros experimentos. A próxima temporada de campo de verão de 2025, implantando o sistema de bate-papo atualizado com o Dolphingemma nos telefones Pixel 9, será o primeiro teste do mundo real dessa nova abordagem assistida pela AA para ouvir na vida social complexa dos golfinhos.