El Consejo de la UE ha dado su visto bueno final a su Ley de IA, que marca la introducción de un marco regulatorio pionero para la inteligencia artificial en toda Europa. Esta legislación, descrita por la Comisión Europea (CE) como que emplea un”enfoque basado en el riesgo”, tiene como objetivo imponer regulaciones más estrictas a los productos de IA que plantean mayores riesgos para la sociedad. El objetivo de la CE es garantizar que las tecnologías de IA sean seguras y transparentes..

Regulación de los sistemas de IA de alto riesgo

Los sistemas de IA clasificados como de alto riesgo, como los utilizados en sectores críticos y en las fuerzas del orden, serán sujetos a una supervisión rigurosa, estos sistemas deberán someterse a auditorías periódicas, pasar evaluaciones de impacto sobre los derechos fundamentales y estar registrados en una base de datos central. Mathieu Michel, Secretario de Estado de Digitalización de Bélgica, destacó que la Ley de IA enfatiza la confianza, la transparencia y la rendición de cuentas. , al mismo tiempo que apoya la innovación dentro de Europa.

Prácticas de IA prohibidas

La Ley de IA prohíbe explícitamente varias prácticas de IA consideradas demasiado riesgosas. Estas incluyen la manipulación cognitivo-conductual. puntuación social y vigilancia policial predictiva basada en perfiles. Además, están prohibidos los sistemas que categorizan a las personas por raza, religión u orientación sexual. La ley también cubre la futura inteligencia artificial general (AGI), pero proporciona exenciones para aplicaciones militares, de defensa y de investigación.

Implementación y cumplimiento global

La Ley, que entrará en vigor en dos años, incluye disposiciones para establecer nuevas oficinas administrativas y paneles de expertos para supervisar su implementación. El incumplimiento dará lugar a multas calculadas como un porcentaje de la facturación anual global o una cantidad predeterminada, lo que sea mayor. Las empresas fuera de la UE que utilicen datos de clientes de la UE en sus plataformas de inteligencia artificial también deberán cumplir con estas nuevas regulaciones. El abogado Patrick van Eecke señaló que otros países podrían adoptar marcos similares, similares al Reglamento General de Protección de Datos (GDPR).

Iniciativas de seguridad de la IA del Reino Unido

En un acontecimiento relacionado, El Reino Unido y Corea del Sur han asegurado compromisos de 16 empresas globales de IA, incluidas Amazon, Google, IBM, Microsoft y Meta, para desarrollar modelos de IA seguros. Estas empresas han acordado evaluar los riesgos de sus últimos modelos y abstenerse de comercializarlos si el riesgo de mal uso es demasiado alto. Este acuerdo se basa en la Declaración de Bletchley firmada el año pasado y tiene como objetivo garantizar la transparencia y la rendición de cuentas en el desarrollo de la IA, según el primer ministro del Reino Unido, Rishi Sunak. Sin embargo, este acuerdo no es legalmente vinculante.

La Ley de IA de la UE representa un paso importante en la regulación de las tecnologías de IA, centrándose en la seguridad y la transparencia al tiempo que fomenta la innovación. Se espera que las implicaciones de la ley se extiendan más allá de Europa, influyendo potencialmente en la regulación de la IA a escala global.

Categories: IT Info