Google erweitert den Zugang zu seinem Gemini Nano On-Device-Modell für künstliche Intelligenz im Wesentlichen und stellt es den Android-App-Entwicklern von Drittanbietern über eine neue Suite von ML Kit Genai-APIs zur Verfügung. Diese Entwicklung, die in kürzlich veröffentlichtem Google Developer-Dokumentation und für eine formelle Aufstellung auf der Google I/O 2025-Konferenz, zielgerichtete AI-Funktionalitäten, direkt in eine Reihe von An und ADDRO, ANDE-ANDRAGE-Anwendungen vorgesehen ist. Der Move verspricht den Benutzern intelligentere und reaktionsfähigere Apps, die Aufgaben wie Textübersicht und Bildbeschreibung in der Lage sind, die Daten vor Ort zu verarbeiten, um die Privatsphäre zu verbessern und die Offline-Verwendung zu ermöglichen. Diese Initiative basiert auf aicore , einem Android-Systemdienst, der die Ausführung von Grund-AI-Modellen für die On-Device erleichtert. Laut Google verbessert diese Architektur nicht nur die App-Funktionalität, sondern auch die Privatsphäre der Benutzer des Benutzers, indem die Daten verarbeitet werden. Dies stellt einen signifikanten Schritt aus dem früheren, eingeschränkten Experimentelles AI Edge SDK , die hauptsächlich Text-H2-H2-H2-H2-H2-H2-H2-H2-H2-H2-Zulassungen zu Pixel 9-Serien-Eviant-Eviant-Eviant-Eviant-Eviant-Eviant-Eviant zu Pixel 9-Serie boten. In den Android-Apps

Das ML Kit Genai APIs, derzeit in einer Beta-Phase, befördert Entwickler die Integration mehrerer wichtiger KI-gesteuerter Funktionen. Anwendungen können Artikel oder Chat-Gespräche in präzise Bulleted-Listen zusammenfassen, eine Funktion, die zunächst Englisch, Japanisch und Koreanisch unterstützt. Eine Korrekturlesenfunktion zielt darauf ab, kurze Inhalte durch Verbesserung der Grammatik und die Korrektur von Rechtschreibfehlern in sieben Sprachen zu verfeinern, darunter Englisch, Deutsch und Spanisch. Ermöglicht Apps, Kurznachrichten in verschiedenen Tönen oder Stilen wie „aufwändig“, „Emojify“ oder „professionell“ umzusetzen, die in denselben sieben Sprachen wie das Korrekturlesen-Tool verfügbar sind. Die APIs führt auch die Unterstützung für die Bildeingabe ein und ermöglicht eine Bildbeschreibungsfunktion, mit der kurze Textbeschreibungen von Visuals zunächst in englischer Sprache generiert werden können. Diese Erweiterung von On-Device-KI-Positionen bietet Google-Positionen mit Angeboten wie Apple Intelligence und Samsung Galaxy AI. In der Dokumentation von Google heißt es ausdrücklich, dass die API”keine SLA-oder Abschreibungsrichtlinie unterliegt”, und dass”Änderungen an dieser API vorgenommen werden können, die die Kompatibilität rückwärts brechen”. Der zugrunde liegende Aicore-Systemdienst verwaltet die Verteilung und Ausführung von Genai-Modellen wie Gemini Nano, sodass mehrere Apps eine einzelne Modellinstanz teilen können. Nach Android-Entwickler Dokumentation , „Gemini Nano ermöglicht es Ihnen, reichhaltige generative AI-Erlebnisse zu liefern, ohne eine Netzwerkverbindung zu benötigen, um eine Lösung zu verwenden. Schutzmaßnahmen sind Ihre Hauptanliegen.”Eine signifikante aktuelle Einschränkung besteht darin, dass die Inferenz von Genai API nur dann zulässig ist, wenn die App die aktive Vordergrundanwendung ist. Hintergrundnutzung wird nicht unterstützt. Die anfängliche Gerätekompatibilität für die Erweiterung ist derzeit auf High-End-Smartphones ausgerichtet. Die Liste enthält die Pixel 9-Serie von Google, die Samsung Galaxy S25-Linie, die 15 Modelle von Xiaomi und andere Flaggschiff-Geräte von Herstellern wie Honor, Motorola und OnePlus, wobei die wesentliche On-Device-Rechenleistung erforderlich ist. Entwickler bauen auf den früheren Bemühungen von Google auf, Gemini Nano in ein eigenes Ökosystem zu integrieren. For instance, in May 2024, Google announced the integration of its compact AI model into the Chrome desktop client, with the goal of powering features like “help me write”in Gmail and enhancing the Chrome DevTools console with AI-driven Debugging. target=”_ leer”> Früher Google-Blog-Beitrag aus Mai 2024 Unter der Angabe, dass Gemini-Nano mit Multimodalität Pixelgeräte ermöglichen, Text, Sehenswürdigkeiten, Klänge und gesprochene Sprache direkt auf dem Gerät zu verarbeiten. I/O 2025-Sitzungsbeschreibung Für die Erweiterung durch das ML Kit Genai APIs lautet:”Lernen Sie, mit Gemini-Nano ein Gerät zu bauen, mit einer Priorität für die Privatsphäre des Benutzer und der Offline-Funktionalität. Wir werden darüber sprechen, wie man die Nutzungskosten für die Nutzung von On-Device-Nutzungskosten für Ihre App einführen kann. Das ML Kit Genai markiert einen entscheidenden Schritt, um diese leistungsstarken, Datenschutz-zentrierten KI-Funktionen auf der Android-Plattform weit verbreitet zu machen.

Categories: IT Info