O Conselho da UE deu o seu aceno final à sua Lei sobre IA, marcando a introdução de um quadro regulamentar pioneiro para a inteligência artificial em toda a Europa. Esta legislação, descrita pela Comissão Europeia (CE) como empregando uma “abordagem baseada no risco”, visa impor regulamentações mais rigorosas sobre produtos de IA que representam riscos mais elevados para a sociedade..
Regulamentação de sistemas de IA de alto risco
Os sistemas de IA classificados como de alto risco, como aqueles usados em setores críticos e na aplicação da lei, serão sujeitos a uma supervisão rigorosa, estes sistemas terão de ser submetidos a auditorias regulares, passar por avaliações de impacto sobre os direitos fundamentais e ser registados numa base de dados central. Mathieu Michel, Secretário de Estado da Digitalização belga, destacou que a Lei da IA enfatiza a confiança, a transparência e a responsabilização. , ao mesmo tempo que apoia a inovação na Europa.
Práticas de IA proibidas
A Lei da IA proíbe explicitamente várias práticas de IA consideradas demasiado arriscadas. pontuação social e policiamento preditivo baseado em perfis. Além disso, são proibidos sistemas que categorizam indivíduos por raça, religião ou orientação sexual. A lei também cobre potencial futuro de inteligência artificial geral (AGI), mas fornece isenções para aplicações militares, de defesa e de pesquisa.
Implementação e Conformidade Global
Preparada para entrar em vigor em dois anos, a Lei inclui disposições para o estabelecimento de novos escritórios administrativos e painéis de especialistas para supervisionar sua implementação. O descumprimento resultará em multas calculadas como um percentual do faturamento anual global ou um valor pré-determinado, o que for maior. As empresas fora da UE que utilizam dados de clientes da UE nas suas plataformas de IA também terão de cumprir estes novos regulamentos. O advogado Patrick van Eecke destacou que outros países podem adotar estruturas semelhantes, semelhantes ao Regulamento Geral de Proteção de Dados (GDPR).
Iniciativas de segurança de IA do Reino Unido
Num desenvolvimento relacionado, o Reino Unido e a Coreia do Sul garantiram compromissos de 16 empresas globais de IA, incluindo Amazon, Google, IBM, Microsoft e Meta, para desenvolver modelos seguros de IA. Estas empresas concordaram em avaliar os riscos dos seus modelos mais recentes e abster-se de os libertar se o risco de utilização indevida for demasiado elevado. Este acordo baseia-se na Declaração de Bletchley assinada no ano passado e visa garantir a transparência e a responsabilização no desenvolvimento da IA, de acordo com o primeiro-ministro do Reino Unido, Rishi Sunak. No entanto, este acordo não é juridicamente vinculativo.
A Lei da IA da UE representa um passo importante na regulamentação das tecnologias de IA, centrando-se na segurança e na transparência, ao mesmo tempo que incentiva a inovação. Espera-se que as implicações da lei se estendam para além da Europa, influenciando potencialmente a regulamentação da IA à escala global.