meta está remodelando fundamentalmente su enfoque para la seguridad y la privacidad de los productos, con la intención de que un sistema de inteligencia artificial administre hasta el 90% de las evaluaciones de riesgos para las actualizaciones en sus aplicaciones ampliamente utilizadas, incluidas Instagram y WhatsApp.
Este cambio operativo significativo, basado en documentos internos revelados por Una investigación NPR , tiene como objetivo acelerar el desarrollo de productos. Si bien los usuarios pueden ver nuevas características que se implementan más rápidamente, el movimiento ha encendido las preocupaciones sobre la profundidad del escrutinio de seguridad y privacidad.
El nuevo proceso impulsado por la IA, que NPR informa ha aumentado a través de abril y mayo, involucra a los equipos de productos que completan un cuestionario y reciben una”decisión instantánea”de la IA, que identifica los riesgos previos y los requisitos previos a los recursos previos. Este cambio ocurre a la sombra de Acuerdo de 2012 con la comisión de comercio federal que exigue el privilegio de las revisiones de privacio. staff.
An unnamed former Meta executive expressed unease to NPR, stating, “Insofar as this process functionally means more stuff launching faster, with less rigorous Escrutinio y oposición, significa que está creando mayores riesgos”y advirtió que”es menos probable que se eviten las externalidades negativas de los cambios en el producto antes de que comiencen a causar problemas en el mundo”. En respuesta, Meta ha afirmado que la automatización se limitará a”decisiones de bajo riesgo”, con”experiencia humana”reservada para”problemas novedosos y complejos”.
El cambio a la supervisión impulsada por la IA
Esta automatización de la evaluación de riesgos es una parte clave de Meta, una estrategia más amplia y más amplia y agresiva a través de su operación, una operación de operaciones, una vez más amplia. El compromiso sustancial de la compañía incluye una inversión planificada de $ 65 mil millones en IA este año.
Esta dedicación financiera se combina con una reestructuración corporativa significativa, lo que implica duplicar meta en el aprendizaje automático al planear cientos de ingenieros de IA mientras reduce el 5% de su fuerza laboral general.”Empoderar a los equipos de productos”y”evolucionar los procesos de gestión de riesgos de Meta”.
El objetivo, explicó Protti, es”simplificar la toma de decisiones”mediante la automatización de las revisiones de riesgos en la gran mayoría de los casos, según la investigación de NPR. Este impulso interno para la velocidad y la eficiencia a través de IA también se extiende a la moderación del contenido.
El último informe trimestral de integridad trimestral de Meta, citado por NPR, afirma que los modelos de idiomas grandes (LLMS) están”operando más allá del rendimiento humano para las áreas de políticas seleccionadas”y se utilizan para detectar publicaciones”altamente confidentes”que no tienen reglas violadas. La seguridad de la IA, el riesgo juvenil y la”integridad”, que abarca contenido violento y información errónea, declaraciones públicas a pesar de que se centran en la automatización de bajo riesgo.
equilibrar la innovación, la seguridad y el escrutinio regulatorio
La conducción hacia la supervisión de AI-LED se influye en una competencia intensa en la pareja tecnológica. Según los informes, el rendimiento de los modelos de IA rivales, como R1 de Deepseek, ha creado una sensación de urgencia dentro de Meta.
Un ingeniero describió anteriormente una”lucha loca tratando de igualar esa eficiencia”. Este entorno competitivo es un factor significativo en las decisiones estratégicas de Meta, incluidos cambios de liderazgo como Loredana Crisan, anteriormente Jefe de Messenger, ahora supervisando la división de IA generativa de la compañía. In Februar, the company introduced its Frontier AI Framework, a system designed to categorize AI into “high-risk”and “critical-risk”groups.
At its launch, Meta stated its intent: “Through this framework, we will prioritize mitigating the risk of catastrophic harm while still enabling progress and innovation.”
This initiative was, in part, a response to past incidents, como el mal uso de sus modelos de Llama, y la creciente presión de regulaciones como la Ley de Servicios Digitales de la Unión Europea (DSA).
Zvika Krieger, un ex director de Meta, comentó a Newsbytes Si bien la automatización puede versiones de la automatización,”si usted hace que sea demasiado lejos, en la calidad de la revisión y se comentan a los que se realizan la automatización. Curiosamente, un anuncio interno de Meta indicó que la toma de decisiones y la supervisión de los productos y los datos de los usuarios en la UE permanecerán con la sede europea de Meta en Irlanda, potencialmente aislando a los usuarios de la UE de algunos de estos cambios, de acuerdo con el informe de NPR.
Integración de AI y asociaciones más amplias de AI
Meta. productos. La compañía actualizó su política de”uso aceptable”en noviembre de 2024, lo que permite a las empresas militares estadounidenses utilizar sus modelos de IA de grandes idiomas. Empresas como Lockheed Martin, Booz Allen Hamilton, Palantir Technologies y Anduril Industries puede meta de meta de meta de meta de meta de meta.
Esto incluye una asociación con Anduril Industries para desarrollar equipos militares avanzados, como cascos con IA con capacidades de realidad virtual y AR. Meanwhile, Meta’s Q1 2025 Community Standards Enforcement Report highlighted a roughly 50% reduction in enforcement mistakes in the US compared to Q4 2024, an improvement attributed to focusing on high-severity violations and Mejora de la precisión a través de auditorías del sistema.