Google ha eliminado una restricción clave de sus principios de IA, levantando una prohibición de aplicaciones de inteligencia artificial para armas y vigilancia.
El cambio elimina una política que previamente evitó que Google desarrolle tecnologías de IA diseñadas para causar daños o habilite la vigilancia masiva más allá de las normas aceptadas internacionalmente.
Este movimiento indica un cambio en el enfoque de Google a la ética de la IA, particularmente en relación con las aplicaciones de seguridad y defensa nacional.
La revisión de la política se detalló en a Publicación de blog Copautor por James Manyika, jefe de investigación de Google, y Demis Hassabis, CEO de Google Deepmind.”Creemos que las democracias deberían liderar en el desarrollo de la IA, guiados por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos”, escribieron. Paisajes tecnológicos, afirmando que”las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntos para crear IA que proteja a las personas, promueve el crecimiento global y apoya la seguridad nacional”.
El momento del cambio coincide con el informe de ganancias de Alfabet , que quedó más corto de expectativas de Wall Street a pesar de 10 % de aumento en los ingresos por publicidad. Al mismo tiempo, la compañía anunció una inversión de $ 75 mil millones en proyectos de IA este año, superando significativamente las estimaciones del mercado anteriores. en una competencia más cercana con empresas como Microsoft, Palantir y Amazon.
De la ética de IA a la seguridad nacional: la postura en evolución de Google
durante años, las pautas de IA de Google, las pautas de IA de Google descartó explícitamente el desarrollo de”armas u otras tecnologías cuyo propósito principal o implementación es causar o facilitar directamente lesiones a las personas”.
Además, la compañía se comprometió a no buscar”tecnologías que recopilen o usen información para Vigilancia violando las normas aceptadas internacionalmente”. Estos compromisos, que se establecieron por primera vez en 2018, ahora se han eliminado de la página de política pública de IA de la Compañía.
Google adoptó originalmente estas restricciones en respuesta a las protestas generalizadas de los empleados sobre su participación en Project Maven, una iniciativa del Pentágono que utilizó IA para la vigilancia y la orientación de los drones.
miles de empleados firmó una petición que exigió que la compañía finalice su participación, y varios renunciaban en protesta. La reacción violenta obligó a Google a abandonar el contrato y luego retirarse de la licitación por el contrato de nube Jedi de $ 10 mil millones del ejército de los EE. UU. esfuerzos de seguridad. Esto pone a la compañía en línea con competidores como Microsoft y Palantir, los cuales han ampliado significativamente sus capacidades de defensa impulsadas por IA.
empresas tecnológicas que compiten por contratos de IA militar
La industria de la IA está viendo una superposición creciente entre el desarrollo comercial y las aplicaciones militares. Microsoft ha estado integrando los modelos de OpenAI en su infraestructura en la nube del gobierno de Azure, permitiendo al ejército de los Estados Unidos integrar las herramientas de IA en operaciones seguras de inteligencia. Mientras tanto, Palantir recientemente obtuvo un contrato de $ 480 millones con el Pentágono para expandir las capacidades de toma de decisiones en el campo de batalla basada en AI.
Otro jugador clave en este espacio es Escala AI , que ha estado trabajando con el Pentágono Oficina Jefe de Inteligencia Digital y Artificial (CDAO) Probar y evaluar modelos de idiomas grandes para aplicaciones militares.
Esta tendencia se ha acelerado en medio de las crecientes preocupaciones sobre el papel de la IA en la seguridad global, particularmente a medida que las rampas de China La inversión en los sistemas de defensa con IA. La pregunta ahora es cómo este cambio afectará la cultura interna de la compañía, particularmente dada su historia de resistencia a los empleados a los proyectos de IA militar.
resistencia interna y reacción de los empleados
<
La historia de Google con proyectos de IA militar ha estado marcada por una intensa resistencia interna. El ejemplo más conocido fue la controversia sobre Project Maven, lo que condujo a protestas generalizadas de los empleados y obligó a Google a cancelar su participación.
Sin embargo, tensiones similares resurgieron más recientemente con el Proyecto Nimbus, una nube de $ 1.2 mil millones y un contrato de IA con Amazon que proporcionó servicios al gobierno y militares israelíes. En una serie de demostraciones de empleados, que culminan en Google disparó a más de 50 trabajadores que habían participado En las protestas en el lugar de trabajo contra el contrato. Los empleados habían argumentado que el proyecto contradecía los principios anteriores de AI de Google, que descartó explícitamente ciertas aplicaciones militares y de vigilancia.
Deepmind, la división de investigación de IA avanzada de Google, también ha enfatizado históricamente consideraciones éticas en el desarrollo de la IA. Algunos de sus investigadores han expresado su preocupación por el papel de la IA en la seguridad nacional, particularmente en los sistemas de toma de decisiones autónomos. Con este último cambio de política, sigue siendo incierto si la fuerza laboral de Google se movilizará una vez más contra la decisión del liderazgo.
motivaciones financieras y estratégicas detrás del cambio
El tiempo La revisión de la política de AI de Google sugiere que las consideraciones estratégicas y financieras jugaron un papel clave. El último informe de ganancias de Alphabet cayó por debajo de las expectativas de los analistas, a pesar de un aumento del 10% en los ingresos publicitarios.
Además, la compañía anunció planes para gastar $ 75 mil millones en el desarrollo de IA en 2025, superando las estimaciones anteriores del mercado en un 29%. A medida que se intensifica la competencia en la IA, Google puede estar posicionándose para asegurar nuevas fuentes de ingresos más allá de su negocio de publicidad principal.
Mientras tanto, el gobierno de los Estados Unidos ha estado expandiendo agresivamente la adopción de IA en defensa. Microsoft ha fortalecido su papel en el sector a través de su asociación con Palantir, que tiene vínculos profundos con las agencias de seguridad nacional. Microsoft también se asoció con DARPA para un desafío de ciberseguridad con IA dirigido a asegurar una infraestructura crítica.
De manera similar, Anthrope ha colaborado con el Departamento de Energía de los EE. UU. para evaluar la seguridad de sus modelos Claude AI en entornos de seguridad nuclear. Con las principales empresas de IA que participan en asociaciones gubernamentales, la decisión de Google de eliminar sus restricciones de IA autoimpuesta sugiere que quiere mantenerse competitivo en este sector de rápido crecimiento.
La regulación y la supervisión ética permanecen sin resolver. Strong>
A pesar del cambio de política, la incertidumbre regulatoria continúa avanzando sobre el uso de AI en aplicaciones militares. Si bien los gobiernos de todo el mundo han introducido las pautas de seguridad de la inteligencia artificial, no hay marcos legales claros y exigibles que rigen el papel de la IA en la seguridad nacional.
Las naciones de los Estados Unidos, la UE y el G7 han propuesto principios de ética amplia de IA, pero supervisión práctica permanece en gran medida en manos de empresas privadas. (Ver la iniciativa 2023 G-7’Hiroshima Process’, la Ley de AI de la UE y el Instituto Nacional de los Estados Unidos de Estándares y tecnología (NIST) Marco de gestión de riesgos de IA )
En su anuncio oficial, Google enfatizó que continuará alineándose con”principios ampliamente aceptados del derecho internacional y los derechos humanos”. Sin embargo, el La ausencia de mecanismos específicos de aplicación de la aplicación deja preguntas abiertas sobre cómo la compañía evaluará y mitigará los riesgos potenciales asociados con las aplicaciones de IA de defensa.
Dada la velocidad a la que la IA se está integrando en una estrategia militar, los exigen una supervisión más fuerte probablemente crecer. Si bien Google insiste en que implementará AI de manera responsable, la decisión de eliminar las restricciones anteriores sugiere que la compañía está cambiando hacia una interpretación más flexible de la ética de IA. Para la ética y la seguridad nacional.
Sin embargo, la reacción de los empleados de Google y las divisiones de investigación de IA sigue siendo incierta. Con un historial de retroceso interno contra los contratos de defensa, la compañía puede enfrentar una oposición renovada de su fuerza laboral. Al mismo tiempo, se espera que aumente el escrutinio regulatorio sobre el papel de la IA en las operaciones militares, configurando aún más cómo las empresas privadas se involucran con las agencias de defensa e inteligencia.
Pero una cosa está clara: Google ya no se posiciona como una compañía de IA que evita categóricamente las aplicaciones de seguridad nacional.