O Google removeu uma restrição importante de seus princípios de IA, elevando a proibição de aplicações de inteligência artificial de armas e vigilância.

A mudança elimina uma política que anteriormente impediu o Google de desenvolver tecnologias de IA projetadas para causar danos ou ativar a vigilância em massa além das normas aceitas internacionalmente./winbuzzer.com/wp-content/uploads/2025/01/google-deepmind.jpg”>

A revisão da política foi detalhada em Postagem do blog Co-autoria de James Manyika, chefe de pesquisa do Google e Demis Hassabis, CEO do Google DeepMind.”Acreditamos que as democracias devem liderar o desenvolvimento da IA, guiadas por valores essenciais como liberdade, igualdade e respeito pelos direitos humanos”, eles escreveram. paisagens tecnológicas, afirmando que “empresas, governos e organizações que compartilham esses valores devem trabalhar juntos para criar IA que proteja as pessoas, promove o crescimento global e apóie a segurança nacional.”

O momento da mudança coincidem com os relatórios de alfabetes de alfabeto % de aumento da receita de publicidade. Ao mesmo tempo, a empresa anunciou um investimento de US $ 75 bilhões em projetos de IA este ano, excedendo significativamente as estimativas de mercado anteriores. Em uma concorrência mais próxima com empresas como Microsoft, Palantir e Amazon. Explicitamente descartou o desenvolvimento de “armas ou outras tecnologias cujo objetivo principal ou implementação é causar ou facilitar diretamente lesões às pessoas.”

Além disso, a empresa prometeu não buscar “tecnologias que coletam ou usam informações para informações para A vigilância viola as normas aceitas internacionalmente”. Esses compromissos, que foram estabelecidos pela primeira vez em 2018, foram agora removidos da página de política de IA pública da empresa. Isso usou a IA para vigilância e segmentação por drones. A reação forçou o Google a abandonar o contrato e posteriormente se retirar da licitação do contrato de nuvem Jedi de US $ 10 bilhões dos EUA. esforços de segurança. Isso traz a empresa de acordo com concorrentes como Microsoft e Palantir, ambos expandidos significativamente suas capacidades de defesa orientadas pela IA. >

A indústria de IA está vendo uma sobreposição crescente entre o desenvolvimento comercial e as aplicações militares. A Microsoft tem incorporado os modelos da OpenAI em sua infraestrutura em nuvem do governo do Azure, permitindo que os militares dos EUA integrem ferramentas de IA em operações de inteligência seguras. Enquanto isso, a Palantir obteve recentemente um contrato de US $ 480 milhões com o Pentágono para expandir os recursos de tomada de decisão no campo de batalha baseados em IA. blog/escala dos parceiros-with-cdao-to-test-and-evaluate-llms”> escala ai , que tem trabalhado com o Pentágono Escritório de Inteligência Digital e Artificial Chefe (CDAO) Para testar e avaliar grandes modelos de idiomas para aplicações militares. Investimento em sistemas de defesa movidos a IA. A questão agora é como essa mudança afetará a cultura interna da empresa, principalmente devido à sua história de resistência aos funcionários a projetos de IA militar. P> A história do Google com projetos de IA militar foi marcada por intensa resistência interna. O exemplo mais conhecido foi a controvérsia sobre o Project Maven, que levou a protestos generalizados dos funcionários e forçou o Google a cancelar seu envolvimento.

No entanto, tensões semelhantes ressurgiram mais recentemente com o Project Nimbus, um contrato de US $ 1,2 bilhão em nuvem e IA com a Amazon que prestava serviços ao governo israelense e militar. Em uma série de manifestações de funcionários, culminando em Google disparando mais de 50 trabalhadores que participaram em protestos no local de trabalho contra o contrato. Os funcionários argumentaram que o projeto contradiz os princípios anteriores da IA ​​do Google, que descartaram explicitamente certas aplicações militares e de vigilância. Alguns de seus pesquisadores expressaram preocupações sobre o papel da IA ​​na segurança nacional, particularmente em sistemas de tomada de decisão autônomos. Com esta última mudança de política, permanece incerto se a força de trabalho do Google se mobilizará mais uma vez contra a decisão da liderança. Da revisão política da IA ​​do Google sugere considerações estratégicas e financeiras desempenharam um papel fundamental. O mais recente relatório de ganhos da Alphabet caiu abaixo das expectativas dos analistas, apesar de um aumento de 10% na receita do anúncio.

Além disso, a empresa anunciou planos de gastar US $ 75 bilhões em desenvolvimento de IA em 2025, excedendo as estimativas de mercado anteriores em 29%. À medida que a concorrência na IA se intensifica, o Google pode estar se posicionando para garantir novos fluxos de receita além de seus principais negócios de publicidade. A Microsoft fortaleceu seu papel no setor por meio de sua parceria com a Palantir, que tem laços profundos com as agências de segurança nacional. A Microsoft também se uniu à DARPA para um desafio de segurança cibernética com energia de IA destinada a proteger a infraestrutura crítica.-Claude-nuclear-Information-Safety”> Antrópico colaborou com o Departamento de Energia dos EUA para avaliar a segurança de seus modelos de IA Claude em ambientes de segurança nuclear. Com as principais empresas de IA envolvidas em parcerias do governo, a decisão do Google de remover suas restrições autoimpostas de IA sugere que deseja permanecer competitivo nesse setor em rápido crescimento. Strong>

Apesar da mudança de política, a incerteza regulatória continua a aparecer sobre o uso da IA ​​em aplicações militares. Embora os governos em todo o mundo tenham introduzido diretrizes de segurança de IA, não há estruturas legais claras e aplicáveis ​​que governem o papel da IA ​​na segurança nacional. permanece em grande parte nas mãos de empresas privadas. (Veja a iniciativa de 2023 G-7’Hiroshima Process’, a Lei da UE AI e a Instituto Nacional dos EUA de Padrões e tecnologia (NIST) Estrutura de gerenciamento de risco AI )

Em seu anúncio oficial, o Google enfatizou que continuará se alinhando com “princípios amplamente aceitos de direito internacional e direitos humanos”. A ausência de mecanismos de aplicação específicos deixa questões abertas sobre como a empresa avaliará e mitigará riscos potenciais associados às aplicações de IA de defesa. crescer. Para a ética e a segurança nacional. 

No entanto, a reação dos funcionários do Google e das divisões de pesquisa de IA permanece incerta. Com uma história de reação interna contra contratos de defesa, a empresa pode enfrentar a oposição renovada de sua força de trabalho. Ao mesmo tempo, espera-se que o escrutínio regulatório sobre o papel da IA ​​nas operações militares aumente, moldando ainda mais a maneira como as empresas privadas se envolvem com agências de defesa e inteligência.

Mas uma coisa é clara: o Google não está mais se posicionando como Uma empresa de IA que evita categoricamente as aplicações de segurança nacional.

Categories: IT Info