Google ha lanciato un’applicazione sperimentale, la Galleria di Google AI Edge, consentendo agli utenti di eseguire modelli AI generativi direttamente su dispositivi Android. È inoltre prevista una versione iOS. Thapp, disponibile pubblicamente su GitHub , pone potenti capacità di AI come l’analisi delle immagini e la generazione di testo in mani senza utenti per le mani senza utenti per le mani senza utenti senza una connessione senza internet. Questo approccio migliora la privacy dei dati, poiché l’elaborazione avviene a livello locale. Google descrive l’app come una”versione sperimentale alfa”e sta attivamente alla ricerca di feedback degli utenti per guidarne lo sviluppo. Questa mossa indica un notevole passo per rendere l’intelligenza artificiale avanzata più personale e accessibile.
Gli utenti possono sperimentare vari modelli e le loro applicazioni pratiche. La galleria mira a mostrare le diverse apprendimento automatico e i casi di utilizzo generativo, che va oltre le interazioni dipendenti dal cloud.
Exploring on-Device AI Capabilities
La galleria AI Edge offre diverse funzionalità chiave. Una funzione”Chiedi immagine”consente agli utenti di caricare immagini e porre domande su di esse. Per le attività basate sul testo, un”laboratorio rapido”fornisce strumenti per riassumere il contenuto, riscrivere il testo e generare codice. Inoltre, una funzione di”chat AI”supporta conversazioni multi-turn, come dettagliato nella pagina GitHub del progetto.
I modelli open source supportati includono Gemma 3, Gemma 3N e Qwen 2.5 di Alibaba, con dimensioni che vanno da circa 500 MB a 4GB. L’app è ottimizzata per dispositivi Android 10+ con almeno 6 GB di RAM e chipset moderni. Per scaricare i modelli, gli utenti devono accedere ad abbracciare la faccia e accettare i suoi termini.
L’applicazione fornisce parametri di riferimento delle prestazioni in tempo reale, incluso Time to First Token (TTFT) e la velocità di decodifica. Tuttavia, Google avverte che le prestazioni possono variare in base all’hardware del dispositivo e alle dimensioni del modello. Ad esempio, i dati di formazione del modello GEMMA 3N si estendono solo fino a giugno 2024, il che significa che non sono incluse nuove informazioni. Gemma 3n impiega la tecnologia”Embddings per strato”(PLE) per ridurre in modo significativo l’utilizzo della memoria.
Svilupper Focus e basi tecniche
Gli sviluppatori possono anche sfruttare la galleria AI Edge per testare i propri modelli locali di lettere”.Task`. La piattaforma è basata su API e strumenti di Google AI Edge, utilizzando le lettere per l’esecuzione ottimizzata del modello. L’API di inferenza LLM alimenta i modelli di linguaggio di grandi dimensioni sul dispositivo. TestingCatalog descrive l’app come una”dimostrazione pratica dell’IA generativa sul dispositivo e dell’API di inferenza LLM”. Google stesso, in un post sul blog menzionato da Elets CIO, ha messo in evidenza l’app come uno strumento prezioso per esplorare questa API.
Le risorse per gli sviluppatori includono schede modello, codice sorgente e un , con più ampio Documentazione di Google AI Edge Anche disponibile. L’installazione è tramite ultimo apk , con istruzioni dettagliate su wiki del progetto . Google incoraggia i contributi della comunità tramite Bug Reports e Suggerimenti di funzionalità su github. Il progetto è concesso in licenza con la licenza Apache, versione 2.0.
Accoglienza della comunità e Future Outlook
come”versione alfa sperimentale”, sottolinea che l’input dell’utente è cruciale. Il feedback precoce della comunità rileva il potenziale dell’app per la sperimentazione di intelligenza artificiale offline incentrata sulla privacy. Tuttavia, gli utenti hanno anche sottolineato le attuali limitazioni come i vincoli della dimensione del modello e l’assenza di interazione vocale.
Gli aggiornamenti futuri per AI Edge Gallery dovrebbero includere supporto per iOS, funzionalità vocali in tempo reale e accelerazione hardware avanzata, secondo TestingCatalog. Il passaggio a AI on-Device affronta le preoccupazioni degli utenti sulla privacy dei dati e sulla connettività costante. Questo approccio di elaborazione locale non solo rafforza la privacy, ma garantisce anche che gli strumenti di intelligenza artificiale rimangono funzionali offline, espandendo la loro utilità.