Google fördert seine Suchfunktionen erheblich mit der vollständigen US-Rollout eines erweiterten „KI-Modus“, das jetzt vom ausgefeilten Gemini 2.5-Modell des Unternehmens angetrieben wird. Dieser überarbeitete KI-Modus wurde auf seiner E/A 2025-Konferenz am 20. Mai angekündigt und ist mehr als ein einfacher Chatbot. Es entwickelt sich zu einem intelligenten Assistenten, der die Suche interaktiver und fähiger macht und Funktionen wie”Deep Search”nach umfassender Forschung,”Search Live”für in Echtzeit Kamera basierende Interaktion und „Agentenfunktionen“ einführt, mit denen die KI Aufgaben wie die Buchung von Tickets oder die Unterstützung bei Online-Einkaufsmöglichkeiten ausführen kann. Dieser strategische Push zielt darauf ab, die Interaktion der Benutzer mit der Suche zu verändern und sie zu ermöglichen, komplexe Abfragen und vollständige Aufgaben direkt innerhalb der Plattform zu erfüllen. Die Google-App ohne Anmeldung ohne Labors ist jetzt erforderlich. Mit neuen KI-gesteuerten Einkaufstools können Benutzer beispielsweise Kleidung”anprobieren”, indem sie ihre eigenen Fotos hochladen und sogar Einkäufe über eine”Agentic Checkout”-Funktion automatisieren. Elizabeth Reid von Google erklärte, dass der KI-Modus die erste Plattform für die Einführung der „Frontier-Funktionen“ von Gemini sein wird. Wenn das Unternehmen das Benutzerfeedback sammelt, werden viele dieser erweiterten Funktionen in die Kern-Sucherfahrung integriert. Verlage haben zuvor bedeutende Bedenken hinsichtlich der Auswirkungen von Zusammenfassungen von AI-generierten Zusammenfassungen auf den Verkehr und den Umsatz auf Website geäußert. Einige Berichte, wie einer von Bloomberg. Zusammenfassungen.
AI-Modus: Vom Experimentallabor zum öffentlichen Kraftpaket
zuvor ein experimentelles Feature im Labs-Programm von Google seit Anfang März 2025 wird der KI-Modus nun breiter eingesetzt. Ein Schlüsselelement dieser Verbesserung ist die Integration einer benutzerdefinierten Version von Gemini 2.5. Die frühere Funktion über KI-Übersichten hat eine beträchtliche Akzeptanz von Benutzern verzeichnet, die Berichten zufolge in Schlüsselmärkten wie den USA und Indien eine Zunahme der Google-Nutzung für relevante Abfragen um über 10% veranlasste. Mit der Google Lens-Technologie. Google erläutert, dass diese Funktion die Abfrage-Fan-Out-Technik erhöht, sodass sie in Minuten Hunderte von Suchvorgängen ausstellen und Informationen synthetisieren können, um die Forschungszeit für Benutzer erheblich zu verkürzen. Auf diese Weise können Benutzer Echtzeitgespräche mit der Suche nach dem, was sie durch ihre Kamera sehen, durchführen, indem sie auf ein”Live-Symbol”im AI-Modus oder in Google Lens tippen. Dies verwandelt die Suche effektiv in einen interaktiven Lernpartner. Diese Live-Kamera-Sharing-Funktionalität ist auch für die Gemini-App auf iOS geplant und erweitert ihre frühere Verfügbarkeit auf Android.”Agentic”bezieht sich auf KI-Systeme, die Ziele verstehen und Sequenzen von Aktionen ergreifen können, um sie zu erreichen. Dadurch wird die KI die Erfüllung von Aufgaben für Benutzer ermöglichen, z. B. Ereigniskarten zu finden und zu vergleichen. Google kündigte an, dass es mit Event-Tickets, Restaurantreservierungen und örtlichen Terminen beginnt und mit Unternehmen wie Ticketmaster und StubHub zusammenarbeitet. Beyond product discovery, users will be able to virtually try on apparel by uploading a single image of themselves, a feature detailed on the Google Blog.
Google claims its AI model for this “understands der menschliche Körper und die Nuancen der Kleidung.”Mit einer Funktion „Agentic Checkout“ können Benutzer auch den KI-Modus anweisen, einen Artikel mit Google Pay zu kaufen, wenn er einen voreingestellten Preis erfüllt. Um maßgeschneiderte Ergebnisse zu bieten, wird der KI-Modus bald personalisierte Vorschläge basierend auf früheren Suchvorgängen und einer optionalen Verbindung zu anderen Google-Apps liefern, beginnend mit Google Mail. Für Abfragen, die komplexe Datensätze wie Sportstatistiken oder Finanzinformationen betreffen, kann der KI-Modus die Daten analysieren und benutzerdefinierte interaktive Diagramme und Grafiken generieren. Verlage haben zuvor Bedenken hinsichtlich des Inhaltskratzpraktiken und der Integration von Anzeigen in die Zusammenfassungen von AI-generierten Auswirkungen aufgenommen, da sie negative Auswirkungen auf den direkten Website-Verkehr und die Werbeeinnahmen befürchten. target=”_ leer”> Die Chegg-Klage , die die nicht autorisierte Verwendung von Bildungsmaterial für KI-Zusammenfassungen behauptet, unterstreicht diese Spannungen. Google hat konsequent festgestellt, dass seine KI-Funktionen herkömmliche Suchergebnisse ergänzen und die Benutzerkontrolle über personenbezogene Daten für neue Personalisierungsfunktionen hervorgehoben haben.