A Agência de Segurança Nacional (NSA) tem revelou um conjunto abrangente de diretrizes destinadas a reforçar a segurança dos sistemas de Inteligência Artificial (IA) dentro das organizações, especialmente aquelas envolvidas na indústria de defesa. A orientação, resumida em uma Folha de Informações de Segurança Cibernética (CSI) intitulada “Implantando Sistemas de IA com Segurança: Melhores Práticas para Implantar Sistemas de IA Seguros e Resilientes”, marca uma iniciativa significativa do Centro de Segurança de Inteligência Artificial (AISC) da NSA. como componente do Centro de Colaboração em Segurança Cibernética (CCC), a missão do AISC é promover a colaboração entre o governo e a indústria para salvaguardar a Base Industrial de Defesa.
A necessidade de medidas especializadas de segurança de IA
A orientação da NSA sublinha os desafios de segurança únicos colocados pelos sistemas de IA, que são suscetíveis a uma série de vetores de ataque distintos dos sistemas de TI tradicionais. De acordo com o CSI, “atores maliciosos que visam sistemas de IA podem. usam vetores de ataque exclusivos para sistemas de IA, bem como técnicas padrão usadas contra TI tradicional.”Esta diferenciação é crucial, uma vez que os sistemas de IA podem ser comprometidos através de ataques adversários de aprendizagem automática destinados a alterar o comportamento algorítmico, ataques generativos de IA concebidos para contornar mecanismos de segurança e ataques à cadeia de abastecimento que, embora semelhantes aos que afetam o software, têm implicações únicas para a IA. Um relatório do fornecedor de segurança Hidden Layer destaca a urgência de abordar essas vulnerabilidades, revelando que 77% das empresas relataram violações em seus sistemas de IA no ano passado.
Implementação das Diretrizes
A orientação da NSA enfatiza uma abordagem proativa e abrangente à segurança do sistema de IA, defendendo o monitoramento e validação contínuos dos sistemas de IA antes e durante a sua implantação. As principais recomendações incluem proteger APIs expostas, monitorar ativamente o comportamento do modelo, proteger os pesos do modelo, impor controles de acesso rígidos e realizar treinamentos regulares de usuários, auditorias e testes de penetração. O CSI sublinha que a segurança dos sistemas de IA é um processo contínuo que exige que as organizações identifiquem riscos, implementem mitigações apropriadas e monitorizem continuamente potenciais problemas. Ao aderir a essas práticas, as organizações podem mitigar significativamente os riscos associados à implantação e operação de sistemas de IA.