Meta revelou uma mudança significativa em sua abordagem à inteligência artificial (AI) com o lançamento do Frontier AI Framework , uma política destinada a controlar a liberação de sistemas de IA de alto risco. disponibilizada ao público, sinalizando um afastamento da estratégia anterior de acesso aberto da Meta. A nova abordagem ocorre quando a Meta enfrenta preocupações crescentes sobre o uso indevido potencial de suas poderosas tecnologias de IA, como os modelos de llama.
Historicamente, a Meta adotou uma abordagem relativamente aberta à IA, tornando seus modelos amplamente acessíveis. No entanto, essa abertura resultou em consequências não intencionais, com relatórios sugerindo que os atores adversários reaproveitaram esses modelos para fins maliciosos, como o desenvolvimento de chatbots não autorizados de defesa.com/wp-content/uploads/2024/07/meta-ai-gen-3d-scaled.jpg”>
Essas preocupações de segurança levaram a Meta a reconsiderar sua estratégia de implantação de IA. Ao introduzir a estrutura de IA da fronteira, a Meta visa conter os riscos associados à liberação de sistemas de IA que podem ser usados para fins prejudiciais. Meta grava,
“Através dessa estrutura, priorizaremos mitigar o risco de danos catastróficos, garantindo que nossos modelos não sejam usados para fins maliciosos não intencionais, enquanto ainda permitem progresso e inovação.”
A estrutura de AI baseada em risco da Meta: de alto risco versus risco crítico
A estrutura de fronteira da Frontier classifica os sistemas de IA em duas categorias distintas: de alto risco e risco crítico. Ambas as categorias são definidas pelo dano potencial que esses modelos podem causar se explorados, mas a distinção está na gravidade de suas consequências. de agentes biológicos perigosos ou armas. A criação de armas biológicas ou um ataque cibernético em grande escala em infraestrutura crítica. A decisão da Meta de limitar o acesso a sistemas de alto risco até que as salvaguardas apropriadas sejam implementadas, seja uma etapa crucial para equilibrar a inovação da IA com segurança. Como a empresa enfatiza, “acreditamos que, considerando os benefícios e os riscos na tomada de decisões sobre como desenvolver e implantar IA avançada, é possível oferecer essa tecnologia à sociedade de uma maneira que preserva os benefícios dessa tecnologia para a sociedade e também Manter um nível de risco apropriado. Ai. Atores externos para propósitos não intencionais e potencialmente prejudiciais, como o desenvolvimento de ferramentas defensivas que podem ser exploradas para fins maliciosos.
Para uma análise detalhada da estratégia de acesso aberto anterior e dos desafios que a meta encontrou, confira nossos artigos sobre o que a Meta não está falando sobre os modelos de”código aberto”e a definição de IA de código aberto da iniciativa de código aberto.
Com a nova estrutura de AI da fronteira, a Meta está adotando uma abordagem muito mais cautelosa, diz: “Não estamos fechando a porta no futuro da IA de acesso aberto, mas devemos garantir que colocamos o direito Mecanismos em vigor para impedir o uso indevido de tecnologia que pode ser prejudicial à sociedade em geral.”
Para conseguir isso, a estrutura não apenas categoriza os modelos de IA por nível de risco, mas também fornece um processo claro para determinar o quão alto Modelos-Risk serão tratados.
Sistemas de alto risco serão restritos ao acesso interno, com salvaguardas adicionais implementadas antes da implantação mais ampla. Os modelos de risco crítico enfrentarão controles ainda mais rigorosos, incluindo uma parada completa no desenvolvimento até que possam ser retrabalhados para mitigar seus perigos em potencial. Embora empresas como o OpenAI tenham optado por um acesso mais controlado aos seus modelos, a mudança da Meta para limitar o acesso reflete ainda mais as preocupações crescentes sobre o uso indevido da IA. Isso significa para o desenvolvimento da AI da Meta
A diferenciação da Meta entre sistemas de IA de alto risco e risco é crucial para entender como a empresa navegará no desenvolvimento e implantação de seus modelos.
Os sistemas de IA de alto risco, conforme definido pela meta, poderiam facilitar ataques cibernéticos ou ajudar na criação de agentes biológicos prejudiciais. No entanto, o impacto potencial desses modelos provavelmente seria menos grave que os sistemas de risco crítico, que são capazes de causar danos incontroláveis e generalizados.
Esses sistemas de risco crítico podem ter consequências catastróficas, como permitir o proliferação de armas biológicas ou causando interrupções significativas na infraestrutura crítica. Como meta notas, a decisão de liberar um modelo específico de IA será tomado considerando seus benefícios potenciais e seus riscos. Os riscos associados a poderosos ferramentas de IA devem ser pesados cuidadosamente antes de qualquer implantação. Um ponto de virada para meta. Embora a empresa tenha sido um proponente de abertura e acessibilidade no desenvolvimento da IA, sua decisão de implementar controles mais rigorosos chega em um momento em que os riscos associados às tecnologias de IA se tornaram mais evidentes.-O modelo de acesso reflete preocupações mais amplas do setor sobre a segurança e a segurança dos sistemas avançados de IA, ilustrados pelo recente lançamento do sistema de salvaguarda da AI, chamado Classificadores constitucionais , que foram projetados para filtrar os prompts recebidos e as respostas geradas pela IA. associado ao seu aumento indevido.
Por exemplo, relatórios de atores estrangeiros que usam os modelos da Meta para fins relacionados à defesa destacam os perigos de liberar modelos de IA sem salvaguardas suficientes. Instituições de pesquisa ligadas ao Exército de Libertação Popular da China (PLA) Desenvolveu uma ferramenta de IA chamada”Chatbit”usando o modelo de llama publicamente disponível da Meta. Pode promover a inovação, também pode deixar a porta aberta a aplicações potencialmente prejudiciais da tecnologia