Google hat eine experimentelle Anwendung gestartet, die Google AI Edge Gallery, mit der Benutzer generative KI-Modelle direkt auf Android-Geräten ausführen können. Eine iOS-Version ist ebenfalls geplant. Thapp, öffentlich verfügbar auf Github , legt leistungsstarke KI-Funktionen wie Bildanalyse und Textgenerierung in die Hände der Benutzer für lokale Offline-Operationsoperationen. Dieser Ansatz verbessert die Datenschutz, da die Verarbeitung lokal erfolgt. Google beschreibt die App als „experimentelle Alpha-Release“ und sucht aktiv ein Benutzerfeedback, um seine Entwicklung zu leiten. Dieser Schritt bedeutet einen bemerkenswerten Schritt, um fortgeschrittene KI persönlicher und zugänglicher zu gestalten. Src=”Daten: Bild/SVG+XML; Nitro-Treppy-ID=Mtyznjoxmdk3-1; Base64, PHN2ZyB2AWV3QM94psiwidagmti4mca3mj Aiihdpzhropsixmjgwiibozwlnahq9ijcymcig1sbnm9imH0DHA6LY93D3CUDZMUB3JNLZIWMDAVC3ZNIJ48L3N2zz4=”>

Erkundung von KI-Funktionen für das Gerät

Die AI Edge Gallery bietet mehrere wichtige Funktionen. Mit einer Funktion”Image”ermöglicht es Benutzern, Bilder hochzuladen und Fragen dazu zu stellen. Für textbasierte Aufgaben bietet ein „Eingabeaufforderung Labor“ Tools zum Zusammenfassen von Inhalten, zum Umschreiben von Text und zum Generieren von Code. Darüber hinaus unterstützt eine AI-Chat-Funktion Multi-Turn-Konversationen, wie auf der Github-Seite des Projekts beschrieben.

unterstützte Open-Source-Modelle umfassen Gemma 3, Gemma 3N und Alibabas QWEN 2.5, wobei die Größe von ungefähr 500MB bis 4GB reicht. Die App ist für Android 10+-Geräte mit mindestens 6 GB RAM und modernen Chipsätzen optimiert. Um Modelle herunterzuladen, müssen sich Benutzer beim Umarmen von Gesicht anmelden und ihren Begriffen zustimmen. Google warnt jedoch, dass die Leistung je nach Gerätehardware und Modellgröße variieren kann. Beispielsweise erstreckt sich die Trainingsdaten des Gemma 3N-Modells nur bis Juni 2024, was bedeutet, dass neuere Informationen nicht enthalten sind. Gemma 3n verwendet”pro-layer-Einbettungstechnologie”(PLE), um die Speicherverwendung erheblich zu reduzieren. Src=”Daten: Bild/SVG+XML; Nitro-Treppy-ID=Mtyzotoxmdgz-1; Base64, Phn2zyb2AWV3QM94psiwidagmti4mca3mjai Ihdpzhropsixmjgwiibozwlnahq9ijcymcig1sbnm9imH0DHA6LY93D3CUDZMUB3JNLZIWMDAVC3ZNIJ48L3N2zz4=”>

Entwicklerfokus und technische Grundlagen

Entwickler können auch die AI-Edge-Galerie nutzen, um ihre eigenen lokalen Literaturmodelle zu testen. Die Plattform basiert auf Google AI Edge-APIs und Tools, wobei Litert für eine optimierte Modellausführung verwendet wird. Die LLM-Inferenz-API macht die Großsprachmodelle für das Gerät. TestingCatalog beschreibt die App als „praktische Demonstration der Generativ-AI und der LLM-Inferenz-API“. Google selbst hob die App in einem von Elet CIO erwähnten Blog-Beitrag als wertvolles Tool zur Erkundung dieser API hervor. Android , mit breiter Google Ai Edge-Dokumentation Auch verfügbar. Die Installation erfolgt über die neuestem Apk mit detaillierten Anweisungen auf dem Projekt Wiki . Google ermutigt Community-Beiträge durch “>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”> href=”https://github.com/google-ai-eded/gallery/issues Das Projekt ist unter der Apache-Lizenz, Version 2.0 lizenziert. Frühe Feedback der Community stellt das Potenzial der App für das experimentelle KI-Experimentieren der Privatsphäre aus. Benutzer wiesen jedoch auch auf aktuelle Einschränkungen hin, wie z. B. Modellgrößenbeschränkungen und das Fehlen von Sprachinteraktion.

Zukünftige Updates für die AI-Edge-Galerie werden laut TestingCatalog voraussichtlich iOS-Unterstützung, Sprachfunktionen in Echtzeit und eine verbesserte Hardwarebeschleunigung enthalten. Der Umzug in Richtung On-Device-KI befasst sich mit den Bedenken hinsichtlich der Datenschutz und der ständigen Konnektivität von Benutzern. Dieser lokale Verarbeitungsansatz Bolster ist nicht nur die Privatsphäre der Privatstelle, sondern stellt auch sicher, dass KI-Tools offline funktional bleiben und ihr Dienstprogramm erweitern.