Google ha rimosso una restrizione chiave dai suoi principi di intelligenza artificiale, sollevando il divieto di applicazioni di intelligenza artificiale per armi e sorveglianza.
Il cambiamento elimina una politica che in precedenza ha impedito a Google di sviluppare tecnologie di intelligenza artificiale progettate per causare danni per causare danni o abilitare la sorveglianza di massa oltre le norme accettate a livello internazionale.
Questa mossa segnala un cambiamento nell’approccio di Google all’etica dell’IA, in particolare in relazione alle applicazioni di sicurezza e difesa nazionali.
The policy revision was detailed in a post sul blog co-autore da James Manyika, responsabile della ricerca di Google, e Demis Hassabis, CEO di Google DeepMind.”Riteniamo che le democrazie dovrebbero condurre nello sviluppo dell’IA, guidati da valori fondamentali come la libertà, l’uguaglianza e il rispetto dei diritti umani”, hanno scritto.
hanno incorniciato il cambiamento come parte di uno sforzo per allinearsi con l’evoluzione geopolitica e geopolitica Paesaggi tecnologici, affermando che”aziende, governi e organizzazioni che condividono questi valori dovrebbero lavorare insieme per creare AI che protegga le persone, promuova la crescita globale e supporti la sicurezza nazionale.”
I tempi del turno coincide con l’ultimo rapporto sugli utili di Alphabet , che non ha ottenuto il calo delle aspettative nonostante un 10 % aumento delle entrate pubblicitarie. Allo stesso tempo, la società ha annunciato un investimento di $ 75 miliardi in progetti di intelligenza artificiale quest’anno, superando significativamente le precedenti stime del mercato.
La rimozione delle restrizioni dell’IA potrebbe consentire a Google di perseguire contratti governativi in difesa e intelligence, portandolo In una maggiore concorrenza con aziende come Microsoft, Palantir e Amazon.
Dall’intelligenza artificiale alla sicurezza nazionale: la posizione in evoluzione di Google
per anni, le linee guida AI di Google ha escluso esplicitamente lo sviluppo di”armi o altre tecnologie il cui scopo principale o attuazione è causare o facilitare direttamente le lesioni alle persone”.
Inoltre, la società si è impegnata a non perseguire”tecnologie che raccolgono o utilizzano informazioni per le informazioni per Sorveglianza che viola le norme accettate a livello internazionale”. Questi impegni, che sono stati istituiti per la prima volta nel 2018, sono stati ora rimossi dalla pagina della politica pubblica dell’IA dell’azienda.
Google ha originariamente adottato queste restrizioni in risposta a proteste diffuse dei dipendenti per il suo coinvolgimento in Project Maven, un’iniziativa del Pentagono Ciò ha usato l’IA per la sorveglianza e il targeting dei droni.
Migliaia di dipendenti hanno firmato una petizione che chiedeva alla società di finire la sua partecipazione, con diversi dimissioni per protesta. Il contraccolpo ha costretto Google ad abbandonare il contratto e successivamente si ritira dalle offerte sul contratto cloud Jedi da 10 miliardi di dollari degli Stati Uniti.
La decisione di rimuovere queste restrizioni suggerisce un riallineamento strategico, mentre Google si muove per impegnarsi più direttamente in National National sforzi di sicurezza. Ciò porta l’azienda in linea con concorrenti come Microsoft e Palantir, entrambi i quali hanno ampliato in modo significativo le loro capacità di difesa basate sull’IA. >
L’industria dell’intelligenza artificiale sta assistendo a una crescente sovrapposizione tra sviluppo commerciale e applicazioni militari. Microsoft ha incorporato i modelli di Openi nella sua infrastruttura cloud del governo di Azure, consentendo ai militari statunitensi di integrare gli strumenti di intelligenza artificiale in operazioni di intelligence sicure. Nel frattempo, Palantir ha recentemente ottenuto un contratto da 480 milioni di dollari con il Pentagono per espandere le capacità decisionali del campo di battaglia con sede in AI. Blog/scale-partners-with-cdao-to-test-and-evaluate-llms”> Scale ai , che ha lavorato con il pentagono Chief Digital and Artificial Intelligence Office (CDAO) Per testare e valutare i modelli di grandi dimensioni per applicazioni militari.
Questa tendenza ha accelerato tra le crescenti preoccupazioni per il ruolo di AI nella sicurezza globale, in particolare come le rampe cinesi Investimenti in su sistemi di difesa alimentati dall’intelligenza artificiale.
Il cambiamento politico di Google suggerisce che non è più disposto a sedersi in disparte poiché l’IA diventa una componente chiave delle strategie di difesa nazionale. La domanda ora è come questo spostamento avrà un impatto sulla cultura interna dell’azienda, in particolare data la sua storia di resistenza ai dipendenti ai progetti di intelligenza artificiale militare.
Resistenza interna e contraccolpo dei dipendenti
La storia di Google con progetti di intelligenza artificiale militare è stata contrassegnata da un’intensa resistenza interna. L’esempio più noto è stata la controversia su Project Maven, che ha portato a diffuse proteste dei dipendenti e ha costretto Google a annullare il suo coinvolgimento.
Tuttavia, tensioni simili sono riemerse più recentemente con il progetto Nimbus, un contratto cloud e AI da $ 1,2 miliardi con Amazon che ha fornito servizi al governo e ai militari israeliani.
Critica interna del progetto Nimbus risulta In una serie di dimostrazioni dei dipendenti, culminanti in Google sparando oltre 50 lavoratori che avevano partecipato nelle proteste sul posto di lavoro contro il contratto. I dipendenti avevano sostenuto che il progetto contraddiceva i precedenti principi di intelligenza artificiale di Google, che hanno esplicitamente escluso alcune applicazioni militari e di sorveglianza.
DeepMind, la divisione di ricerca AI avanzata di Google, ha anche storicamente sottolineato forti considerazioni etiche nello sviluppo dell’IA. Alcuni dei suoi ricercatori hanno espresso preoccupazione per il ruolo dell’IA nella sicurezza nazionale, in particolare nei sistemi decisionali autonomi. Con questo ultimo cambiamento politico, non è sicuro se la forza lavoro di Google si mobiliterà ancora una volta contro la decisione della leadership.
motivazioni finanziarie e strategiche dietro il cambiamento
i tempi Della revisione della politica di AI di Google suggerisce che le considerazioni strategiche e finanziarie hanno svolto un ruolo chiave. L’ultimo rapporto sugli utili di Alphabet è sceso al di sotto delle aspettative degli analisti, nonostante un aumento del 10% delle entrate pubblicitarie.
Inoltre, la società ha annunciato l’intenzione di spendere $ 75 miliardi per lo sviluppo dell’IA nel 2025, superando le precedenti stime del mercato del 29%. Mentre la concorrenza in AI si intensifica, Google potrebbe posizionarsi per garantire nuovi flussi di entrate oltre la sua attività pubblicitaria di base.
Nel frattempo, il governo degli Stati Uniti ha ampliato in modo aggressivo l’adozione dell’IA in difesa. Microsoft ha rafforzato il suo ruolo nel settore attraverso la sua partnership con Palantir, che ha profondi legami con le agenzie di sicurezza nazionali. Microsoft ha anche collaborato con DARPA per una sfida di sicurezza informatica alimentata dall’intelligenza arti.-Claude-Nuclear-Information-Safety”> Antropico ha collaborato con il Dipartimento dell’Energia degli Stati Uniti per valutare la sicurezza dei suoi modelli Claude AI in ambienti di sicurezza nucleare. Con le principali aziende di intelligenza artificiale che si impegnano in partenariati governativi, la decisione di Google di rimuovere le sue restrizioni sull’intelligenza artificiale autoimposto suggerisce che vuole rimanere competitivo in questo settore in rapida crescita. Strong>
Nonostante il cambiamento politico, l’incertezza normativa continua a incombere sull’uso di AI nelle applicazioni militari. Mentre i governi in tutto il mondo hanno introdotto linee guida per la sicurezza dell’intelligenza artificiale, non esistono quadri giuridici chiari e adeguabili che regolano il ruolo di AI nella sicurezza nazionale. rimane in gran parte nelle mani di società private. (Vedi l’iniziativa del processo”Hiroshima”G-7 2023 G-7, The Eu Ai Act e il US National Institute of Standards and Technology (NIST) AI Risk Management Framework )
Nel suo annuncio ufficiale, Google ha sottolineato che continuerà ad allinearsi con”principi ampiamente accettati del diritto internazionale e dei diritti umani”. Tuttavia, il L’assenza di specifici meccanismi di applicazione lascia aperte domande su come la società valuterà e mitigherà potenziali rischi associati alle applicazioni di AI di difesa.
data la velocità con cui l’IA è integrata nella strategia militare, richiederà probabilmente una maggiore supervisione Crescere. Mentre Google insiste che distribuirà l’IA in modo responsabile, la decisione di eliminare le restrizioni precedenti suggerisce che la società si sta spostando verso un’interpretazione più flessibile dell’etica dell’IA. Per l’etica e la sicurezza nazionale.
Tuttavia, la reazione dei dipendenti di Google e delle divisioni di ricerca AI rimane incerta. Con una storia di respingimento interno contro i contratti di difesa, la società potrebbe affrontare una rinnovata opposizione dalla sua forza lavoro. Allo stesso tempo, dovrebbe aumentare il controllo normativo sul ruolo di AI nelle operazioni militari, modellando ulteriormente il modo in cui le aziende private si impegnano con le agenzie di difesa e di intelligence. una società di intelligenza artificiale che evita categoricamente le applicazioni di sicurezza nazionale.