Conferência de E/S 2025 do Google, concluindo 21 de maio de 2025, firmemente estabelecida a IA Gemini como a pedra angular de sua estratégia de produto. A Companhia detalhou uma integração abrangente de seus modelos avançados de inteligência artificial em todo o seu ecossistema. Os principais anúncios abrangem a criação de aplicativos assistidos pela AI, uma pesquisa mais interativa e agente do Google e novos recursos de IA nos aplicativos de espaço de trabalho. Para os desenvolvedores, o Google está introduzindo um conjunto de ferramentas de IA para acelerar fluxos de trabalho e democratizar o acesso a modelos sofisticados. Isso promove um paradigma de “codificação da vibração”, onde os aplicativos são cada vez mais provocados à existência. Afirmando:”A oportunidade com a IA é realmente tão grande quanto é”. O aplicativo Gemini AI Chatbot agora atende mais de 400 milhões de usuários mensais ativos, anunciou uma figura que Pichai anunciou no evento, indicando amplo envolvimento existente do usuário com a IA do Google. O impacto econômico nos editores e criadores também continua sendo uma preocupação importante. Os observadores do setor monitorarão a abordagem do Google para esses ajustes sociais. Ferramentas como o novo detector de sintídeos representam um esforço para abordar questões de conteúdo gerado pela IA. O agente de codificação autônomo, Google Jules, entrou em uma versão beta pública global. Alimentado pelo modelo Gemini 2.5 Pro, o Google descreve Jules não apenas como um co-piloto ou companheiro de conclusão de código, mas como uma IA que”lê seu código, entende sua intenção e começa a trabalhar”. Ele se integra diretamente ao Github, clones CodeBases em máquinas virtuais seguras do Google Cloud e automatiza tarefas como a correção de bugs. O vice-presidente do Google Labs, Josh Woodward, observou a tendência em que”as pessoas estão descrevendo aplicativos existentes”, destacando a mudança em direção ao desenvolvimento imediato e assistido por A. Tulsee Doshi, diretor sênior da Gemini Models, do Google, disse que Jules”pode ​​enfrentar tarefas complexas em grandes bases de código que costumavam levar horas, como atualizar uma versão mais antiga do Node.js”

Código Gemini Code Exits visualize, trazendo o contexto de contexto de grau corporativo e o Github-Integrated Refaturing. O Código de Código Gemini apresenta desempenho de codificação avançado; e ajuda os desenvolvedores a se destacarem em tarefas como criar aplicativos da Web visualmente convincentes, juntamente com a transformação e edição do código. O Stitch utiliza os modelos Gemini 2.5 AI-com usuários capazes de selecionar entre Gemini 2.5 Pro e Gemini 2.5 Flash-para gerar elementos da interface do usuário e o código HTML/CSS correspondente de SOLDs. acessível.”Embora não seja uma substituição completa do figma, o Stitch permite exportações para um refinamento adicional de seu Site de pontos . A Firebase AI Logic oferece um novo kit de ferramentas para integrar modelos Gemini em aplicativos. Isso inclui acesso ao lado do cliente à API do desenvolvedor de Gêmeos, que o Google chama de “a maneira mais fácil de começar com a IA generativa.”

O Firebase Studio, que já viu mais de 1,5 milhão de espaços de trabalho criados, agora suporta o design do figuring através de um . O Google acredita que a IA no dispositivo é ideal para casos de uso priorizando baixa latência, custo e privacidade. O Imagen 4 promete um texto mais nítido de qualidade geral e texturas intrincadas e o VEO 3 podem criar diálogos sincronizados com sincronização labial e som ambiente. E os assistentes evoluem com Gêmeos

A Pesquisa do Google está passando por uma transformação radical com o lançamento dos EUA de um”modo AI”aprimorado para pesquisa do Google, alimentado pelo modelo Gemini 2.5. Este modo de IA atualizado introduz”Pesquisa profunda”de pesquisas abrangentes e”Search Live”para interação baseada em câmera em tempo real usando os recursos do Project Astra.

Projeto ASTRA Graduou-se da demonstração conceitual para o roteiro do produto: o agente agora pode ver, planejar e agir proativamente em aplicativos de busca, gêmeos e terceiros, graças a uma nova camada de execução apoiada por VM. O Google sinalizou que o Astra sustentará o envio de óculos Android XR com parceiros como monstros suaves. O recurso de visão geral anterior do Google aumentou o uso do Google para consultas relevantes em mais de 10% em mercados-chave como os EUA e a Índia. No entanto, esses avanços continuam a alimentar as preocupações do editor sobre os impactos no tráfego do site.

O próprio Mariner do Projeto recebeu atualizações importantes. O agente experimental de IA, projetado para navegar e interagir com sites, agora opera com VMs baseadas em nuvem e pode gerenciar até dez tarefas simultaneamente. O Google DeepMind descreve sua capacidade principal como observando o navegador, interpretando metas, planejamento e atuação. As funcionalidades do Project Mariner serão integradas à API Gemini e do Vertex AI. O Google revelou”Deep Think”, um modo de raciocínio experimental para Gemini 2.5 Pro, projetado para a solução complexa de problemas.

Google Deepmind detalhou que esse recurso visa elevar os recursos analíticos do modelo. O modelo flash focado de velocidade focado na velocidade também recebeu aprimoramentos de desempenho. A Geotab, uma empresa de gerenciamento de frota, observada em uma declaração compartilhada pelo Google através da Google Blog A série Gemini 2.5 agora também possui saída de áudio nativo através da API ao vivo , ativando mais conversas com IA naturais. Ocorrendo nas ferramentas de comunicação e produtividade do Google. O Google Meet introduziu a tradução de fala em tempo real alimentada pela Gemini AI, projetada para preservar as autênticas qualidades vocais do falante. O recurso está inicialmente disponível para assinantes do Google AI Pro e Ultra. Os usuários do Gmail também podem antecipar respostas inteligentes personalizadas ainda este ano, um recurso que analisará e-mails anteriores e direcionará arquivos para refletir o estilo de comunicação do usuário. Sundar Pichai descreveu a experiência do Google Beam como”muito natural e uma experiência de conversação profundamente imersiva”. O sistema foi submetido a testes extensos com cerca de 100 parceiros, incluindo WeWork e T-Mobile, desde 2021.

Notebooklm, o assistente de pesquisa da AI do Google, lançou aplicativos móveis dedicados e em breve apresentará”Viagens de vídeo”Transforming Notes em apresentações visuais, de acordo com o Google. Plano”Google AI Ultra”. O investimento significativo do Google na IA também é evidenciado por revelações do testemunho de teste antitruste, indicando que a empresa está pagando à Samsung”enormes somas de dinheiro”pela pré-instalação de Gêmeos. Esta ferramenta tem como objetivo identificar a mídia criada pela AI, verificando as marcas d’água incorporadas da IA. O Google afirmou que a marca d’água foi projetada para ser robusta. No entanto, a empresa reconhece que seu sistema não é infalível. 

No entanto, o Synthid será importante em meio ao aumento do escrutínio regulatório sobre a verificação de conteúdo de IA do governo dos EUA e da União Europeia. Os educadores podem acessar esses recursos através da API Gemini e das personas dedicadas”tutor”que estão sendo lançadas ainda este ano.

Categories: IT Info