Google sta ufficialmente entrando nell’arena dell’elaborazione sicura dell’IA off-device con la sua nuova piattaforma Private AI Compute (PAIC). L’iniziativa mira a risolvere una sfida crescente per i dispositivi basati sull’intelligenza artificiale: come fornire funzionalità avanzate senza richiedere agli utenti di inviare dati personali al cloud senza protezione.

Man mano che i modelli di intelligenza artificiale diventano più capaci, le loro richieste di elaborazione spesso superano ciò che l’hardware del dispositivo può gestire. Ciò crea una tensione tra utilità e privacy che il settore sta cercando di risolvere.

PAIC rappresenta la risposta di Google a questo dilemma, promettendo di colmare il divario tra la sicurezza del dispositivo e la potenza a livello di cloud.

Nel suo annuncio, Google ha definito PAIC come il prossimo passo verso il suo impegno per l’innovazione responsabile, guidato dai principi esistenti di intelligenza artificiale e privacy.

“Oggi presentiamo Private AI Compute per offrirti esperienze di intelligenza artificiale intelligenti con la potenza dei modelli Gemini nel cloud, mantenendo privati i tuoi dati.”

Il sistema è progettato per scaricare richieste complesse nel cloud, dove i potenti modelli Gemini di Google possono elaborarle all’interno di un ambiente appositamente protetto.

Un manuale familiare: come PAIC rispecchia il privato di Apple Cloud Compute

Seguendo una strategia introdotta dal suo principale rivale, l’approccio di Google appare sorprendentemente simile a un sistema lanciato da Apple mesi prima. La nuova piattaforma di Google è sostanzialmente identica al Private Cloud Compute (PCC) di Apple, riflettendo le strategie convergenti dei due giganti della tecnologia.

Apple ha descritto per la prima volta la sua infrastruttura PCC alla Worldwide Developers Conference del giugno 2024. È stata presentata come una pietra angolare della suite Apple Intelligence, stabilendo un modello ibrido in grado di gestire il maggior numero di attività possibile sul dispositivo.

Solo quando una richiesta richiede più potenza viene inviata ai server PCC in esecuzione su Apple personalizzati. chip.

Entrambe le società stanno ora scommettendo sulla stessa proposta di valore fondamentale: gli utenti non dovrebbero essere costretti a scegliere tra potenti funzionalità di intelligenza artificiale e la privacy delle proprie informazioni personali.

L’ingresso di Google convalida questo mercato emergente per l’intelligenza artificiale cloud incentrata sulla privacy, trasformando una nuova scelta architetturale in un approccio standard di settore per le grandi tecnologie.

Under the Hood: A Tale of Two Architectures

Al centro del nuovo sistema di Google c’è un combinazione del proprio hardware personalizzato e di un’architettura di sicurezza specializzata. Private AI Compute viene eseguito sulle Tensor Processing Unit (TPU) appositamente realizzate da Google, ottimizzate per i carichi di lavoro AI.

Per proteggere i dati degli utenti, Google utilizza Titanium Intelligence Enclaves (TIE) per creare un ambiente isolato e verificato crittograficamente.

Questa configurazione ha lo scopo di garantire che i dati rimangano inaccessibili agli esterni e persino a Google stessa. L’azienda scrive,

“Private AI Compute è uno spazio sicuro e fortificato per l’elaborazione dei dati che mantiene i dati isolati e privati.”

Il sistema concorrente di Apple si basa in modo simile su silicio Apple personalizzato e su un sistema operativo fortificato derivato dalle basi iOS.

La sua architettura utilizza tecnologie come Darwin-init per impostare uno stato pulito e sicuro a ogni avvio e crytexes per caricare moduli software minimi e verificati.

Sebbene le tecnologie sottostanti differiscano (i TPU di Google rispetto al silicio personalizzato di Apple), l’obiettivo architettonico è lo stesso. Entrambi mirano a costruire una”scatola nera”verificabile nel cloud in cui i dati degli utenti possano essere elaborati senza mai essere esposti o archiviati.

Primi vantaggi e battaglia cruciale per la fiducia

Per gli utenti Pixel 10, i primi vantaggi tangibili di questa architettura di privacy basata su cloud appariranno in applicazioni familiari.

Google afferma che PAIC consentirà suggerimenti più tempestivi e utili da Magic Cue e amplierà la gamma di lingue che il Registratore app può riassumere.

Tuttavia, resta una sfida chiave nel guadagnare la fiducia del pubblico, un’area in cui le azioni parlano più delle promesse.

Apple ha già adottato misure proattive aprendo la sua piattaforma Private Cloud Compute a ricercatori di sicurezza esterni. Questo sforzo di convalida pubblica è una componente fondamentale della sua narrativa sulla privacy.

Nel tentativo di dimostrare la robustezza del suo sistema, Apple offre ricompense fino a 1 milione di dollari per la scoperta di vulnerabilità critiche.

Al momento del suo lancio, Google non ha annunciato un premio pubblico comparabile per i bug o un programma di convalida della sicurezza per Private AI Compute. Questa differenza potrebbe diventare un fattore cruciale poiché entrambi i giganti della tecnologia competono per convincere gli utenti che il loro cloud è un luogo sicuro per i dati personali.

Categories: IT Info