Google, en su conferencia de E/S 2025, mejoró significativamente su plataforma de desarrollador de Firebase con nuevas herramientas con IA, lanzando en particular Firebase AI Logic y el generador de interfaz de usuario de puntada experimental. Estas introducciones tienen como objetivo simplificar la integración de la IA y acelerar la creación de aplicaciones, reflejando la estrategia de Google para incrustar la IA generativa en todo el ciclo de vida del desarrollo y atender la tendencia de”codificación de vibos”. Este movimiento está listo para hacer que la IA sofisticada sea más accesible para una gama más amplia de desarrolladores.
Firebase AI Logic, una evolución de Vertex Ai en Firebase, ofrece un kit de herramientas para integrar los modelos Gemini de Google en el lado del cliente del lado del lado href=”https://firebase.blog/posts/2025/05/building-ai-apps”Target=”_ Blank”> Firebase Blog Public . La plataforma ahora proporciona acceso del lado del cliente a la API de desarrollador de Gemini, actualmente en vista previa con un nivel sin costo, que el blog de Firebase describe como”la forma más fácil de comenzar con la IA generativa”. Esto se ejecuta junto con la API Gemini de Vertex AI Generalmente disponible, que sigue siendo la opción para las necesidades de grado empresarial.
Las mejoras adicionales del lado del cliente incluyen en el dispositivo híbrido experimental (Gemini Nano en Chrome) y la inferencia de nubes (también en Vista previa), un SDK un SDK para la Unidad, la generación de imágenes con Gemini y la generación de imágenes de IA mejoradas. For server-side work, Genkit for Node.js now supports dynamic model lookup for the latest Gemini models, a feature DevClass highlighted as beneficial for reducing fricción en la adopción de avances de IA. Google también está ampliando el soporte del idioma de Genkit para incluir GO (Beta) y Python (Alpha) genkit go y python soporte .
coser el diseño de la interfaz de usuario con ai
Complementando la logia de AI de la base de fuego, Google Labs introdujo href=”https://stitch.withgoogle.com/”Target=”_ Blank”> Stitch , una herramienta experimental que utiliza las capacidades multimodales de Gemini 2.5 Pro para generar diseños de interfaz de usuario y código frontendal a partir de indicaciones de texto o imagen. Stitch tiene como objetivo optimizar los flujos de trabajo entre el diseño y el desarrollo mediante la creación de interfaces visuales a partir del lenguaje natural o las marcas alámbricas cargadas. Los usuarios pueden elegir entre los modelos Gemini 2.5 Pro y Gemini 2.5 Flash. Stitch admite la iteración rápida, permite pegar diseños directamente a la FIGMA y exporta el código de frontend funcional.
Kathy Korevec, gerente de productos de Google, dijo a TechCrunch que Stitch es donde los desarrolladores”pueden venir y hacer su iteración inicial, y luego puede seguir desde allí”. Ella elaboró aún más su visión, afirmando que su objetivo es hacer que este siguiente nivel de pensamiento de diseño y construcción de software”súper, súper fácil y accesible para las personas… para hacer el siguiente nivel de pensamiento de diseño o el siguiente nivel de construcción de software para ellos”. Sin embargo, Stitch no pretende ser una plataforma de diseño completa como Figma o Adobe XD. Si bien Stitch es rápido para los primeros borradores, los diseños complejos se benefician de la exportación de figma para un refinamiento detallado. El uso de Gemini 2.5 Pro de Stitch lo convierte en una herramienta notable para acelerar la prototipos iniciales de la aplicación web.
adoptar la”codificación de ambientes”y las mejoras de herramientas más amplias
Estos anuncios se alinean con la creciente tendencia de la”codificación de la vibra”, una tendencia intuitiva intuitiva y intuitada. Jeanine Banks, vicepresidente y gerente general del desarrollador X en Google, comentó a
También declaró que con Firebase AI Logic, Google está”Combinando [capacidades de IA] y mejorandolos para que los desarrolladores puedan tener una ventanilla única para integrar todo tipo de modelos de IA”. Esta estrategia se extiende a Firebase Studio, que se lanzó el 9 de abril. En I/O, Firebase Studio obtuvo soporte de importación de Figma a través de una asociación con builder.io y recomendaciones mejoradas de integración de backend. Firebase Studio, un entorno de código OSS, el proyecto Farged IDX y presenta un”agente de prototipos de aplicaciones”. Si bien estas herramientas tienen como objetivo acelerar el desarrollo, generará errores de generación ocasionales y hará que los codificadores de VIBE sean más dependientes de Google. Google también amplió el acceso a jules , su agente de AI para la fijación de errores y las actualizaciones de los códigos, ahora en público beta y Usutizando Gememini. Estas ofertas colocan a Google dentro de un panorama competitivo que incluye herramientas como GitHub Copilot, Cursor y OpenAI’s Codex.