O novo agente ChatGPT da OpenAI, uma ferramenta projetada para automatizar fluxos de trabalho digitais complexos, ironicamente comprovou suas proezas ao derrotar um sistema de segurança criado para impedir programas como esse. Logo após o lançamento de 17 de julho para usuários pagos, a IA foi observada navegando em um CloudFlare”Não sou uma verificação de robô”. Essa demonstração não apenas mostra os recursos avançados do agente, mas também sinaliza uma nova fase na crescente corrida armamentista entre os sistemas de IA e as medidas de segurança da web. As it approached the security checkpoint, the AI narrated its thought process for the user, stating, “this step is necessary to prove I’m not a bot and proceed with the action,”according to screenshots compartilhado online . Este momento captura perfeitamente o paradoxo da IA moderna. O sistema o agente derrotou, a torneira do Cloudflare , é uma evolução moderna que analisa as pistas comportamentais, como os movimentos de mouse para a verificação da humanidade, sem o visual, sem o visual, sem uma evolução moderna que analisa os movimentos comportamentais, como os movimentos de mouse para a verificação da humanidade, sem o visual. O sucesso do agente implica uma capacidade sofisticada de imitar esses padrões humanos. Aqui, o agente não está apenas falando; Ele está agindo através de um ponto de verificação digital projetado para evitar exatamente esse tipo de comportamento automatizado.

Esse recurso faz parte de uma”corrida armamentista”de longa data. Ironicamente, sistemas como o Recaptcha do Google usam a entrada humana há muito tempo para treinar os modelos de IA que agora estão se tornando capazes de derrotar esses testes. No entanto, esse sucesso de alto perfil por uma ferramenta convencional traz a questão para a vanguarda das discussões em segurança cibernética. Target=”_ Blank”>”Agentic Ai”. A ferramenta substitui seu antecessor mais limitado, operador, que foi introduzido pela primeira vez em janeiro de 2025. Opera dentro de um computador virtual, oferecendo um conjunto mais amplo de ferramentas do que apenas um navegador. Target=”_ Blank”> combina um navegador remoto com um terminal executado de código . O líder do produto da OpenAI, Yash Kumar, explicou que, porque o agente tem acesso a um computador completo,”como o agente do ChatGPT tem acesso a”um computador inteiro”em vez de apenas um navegador, eles”aprimoraram o conjunto de ferramentas”.”

Este conjunto de ferramentas expandido inclui conectores, permitindo acesso a fontes de dados externas, como a unidade do Google. O modelo subjacente também possui um desempenho impressionante, com 27,4% na difícil referência Frontiermath, um salto maciço dos 6,3% alcançados pelo modelo superior anterior, O4-mini, de acordo com o Openai.

Este lançamento escala diretamente a concorrência entre os gigantes da tecnologia. É uma resposta clara ao recurso”Uso de computador”do Anthropic, lançado em outubro de 2024, e os testes do Google de uma função de agente semelhante em seu estúdio de AI. A Microsoft é um player-chave, com o vice-presidente Charles Lamanna afirmando seu objetivo é que “se uma pessoa pode usar o aplicativo, o agente também pode.”

Ainda, as perguntas sobre a eficácia do agente permanecem. Um estudo recente de Carnegie Mellon descobriu que mesmo os principais modelos de IA lutam com tarefas de automação de negócios, destacando problemas com o senso comum e a navegação na web. O novo agente do OpenAI será medido em relação a esses benchmarks de desempenho do mundo real. href=”https://cdn.openai.com/pdf/18a02b5d-6b67-4cec-ab64-68cdfbddebcd/prepared-framework-v2.pdf”target=”_”> safuards de sua estrutura de preparação. A estrutura foi invocada como uma precaução contra potencial uso indevido em áreas de alto risco, como domínios biológicos e químicos, mesmo sem evidências diretas de risco atual.

Uma camada crítica de segurança é o requisito para o consentimento do usuário em ações-chave. De acordo com o líder da pesquisa, Isa Fulford,”antes que o agente do ChatGPT faça qualquer coisa”irreversível”, como enviar um e-mail ou fazer uma reserva, ele pede permissão primeiro”. Essa abordagem”humano no loop”foi projetada para impedir que o agente tome etapas irreversíveis sem permissão explícita. O OpenAI também desativou o recurso de memória chatGPT no lançamento para mitigar os riscos de ataques imediatos de injeção e exfiltração de dados, destacando sua estratégia de lançamento cautelosa. Fulford enfatizou seu papel como assistente de fundo, afirmando:”Mesmo que demore 15 minutos, meia hora, é uma grande aceleração em comparação com quanto tempo levaria você a fazê-lo”. Isso enquadra o agente não como uma ferramenta instantânea, mas como um delegado poderoso para processos complexos e demorados.

Categories: IT Info