Uma equipe de cientistas da computação da Universidade de Illinois Urbana-Champaign revelou descobertas de que o GPT-4 da OpenAI possui a capacidade de explorar vulnerabilidades de forma autônoma em sistemas do mundo real. O estudo se concentra na capacidade do modelo de interpretar e agir de acordo com as informações dos avisos CVE (Common Vulnerabilities and Exposures), demonstrando uma taxa de sucesso de 87% na exploração de um conjunto de dados de 15 vulnerabilidades de um dia, algumas das quais são classificadas como críticas.

Análise Comparativa com Outros Modelos

A pesquisa contrasta o GPT-4 com o de outros modelos e ferramentas, incluindo GPT-3.5 e vários LLMs de código aberto e scanners de vulnerabilidade, como ZAP e Metasploit, nenhum deles que foram capazes de explorar as vulnerabilidades. O estudo não incluiu testes em dois rivais comerciais do GPT-4, o Claude 3 da Anthropic e o Gemini 1.5 Pro do Google, devido à falta de acesso, mas há planos para testes futuros.

Implicações e Eficiência de Custos

As implicações dessas descobertas são significativas, sugerindo que os modelos futuros poderiam superar os recursos atualmente acessíveis a ciberataques menos qualificados, comumente chamados de “script kiddies”. liderado pelo professor assistente Daniel Kang, defensor de medidas de segurança proativas em vez de restringir o acesso público às informações de segurança, uma posição apoiada pela comunidade mais ampla de pesquisa em segurança. O estudo também destaca a eficiência de custos do uso de um agente LLM para exploração, estimando o custo em US$ 8,80. por exploração, significativamente menor do que contratar um testador de penetração humano.

Desafios e Limitações

Apesar da alta taxa de sucesso, o GPT-4 encontrou desafios com certas vulnerabilidades, especialmente aquelas com interfaces web complexas ou descrições em idiomas diferentes do inglês, ressaltando as limitações dos LLMs atuais na compreensão e navegação em diversos formatos de dados e idiomas. O trabalho da equipe de pesquisa baseia-se em estudos anteriores sobre automatização de ataques usando LLMs, impulsionando a conversa sobre os riscos potenciais e a necessidade de defesas robustas de segurança cibernética na era das tecnologias avançadas de IA.

Categories: IT Info