Pesquisadores do Centro de Segurança da IA ​​(CAIS), Media Lab do MIT, o UFABC da Universidade Brasileira e a Pandemia Prevenção sem fins lucrativos Securebio descobriram que os principais modelos de inteligência artificial podem superar os virologistas de nível de PhD em um estudo de laboratório complexo. href=”https://www.virologytest.ai/”Target=”_ Blank”> Teste de Recursos de Virologia (VCT) Demonstrar a proficiência da IA ​​em tarefas científicas especializadas, mas também destacarem sérias preocupações de uso duplo, sugerindo que essas ferramentas possam reduzir a linha de biológica, mas também destacarem as questões de biológicas e a barreira e as ferramentas e as ferramentas e as ferramentas e as ferramentas de biológicas, mas também destacam as questões de biológica, sugerindo que essas ferramentas possam criar uma barreira de biológica. Mais adiante em seu Pesquisa , foi projetado especificamente para medir a capacidade de uma IA de ajudar com intrincados protocolos de”laboratório úmido”, com um entendimento de pó de um tipo prático de pó, a mais, o que é um dos parentes, o que é um conhecimento geral, o que é um conhecimento geral, o que é um conhecimento geral, o que é um dos parentes, o que é um dos parâmetros de vida útil do tipo de vulologia. src=”https://winbuzzer.com/wp-content/uploads/2024/07/ai-research-ai-generated.jpg”>

Os resultados mostraram o modelo de Opening do Opening, com uma precisão de 22.1% de 22.1% de sucesso. O Gemini 2.5 Pro do Google também teve um desempenho fortemente, com 37,6%. De acordo com a análise do VCT, o desempenho da O3 ultrapassou 94% dos especialistas em humanos em subconjuntos de perguntas personalizadas. se mal utilizado. Seth Donoughe, um co-autor de cientista e estudo da Securebio Research, transmitiu sua apreensão Time , afirmando os achados que o Little”Little””Há um número razoável de casos em que alguém tentou fazer uma biocomontra-e uma das principais razões pelas quais eles não tiveram sucesso é porque não tinham acesso ao nível certo de especialização… por isso parece valer a pena ser cauteloso sobre como esses recursos estão sendo distribuídos.

As descobertas do VCT estimularam pedidos imediatos de ação dos advogados de segurança. Dan Hendrycks, diretor do Centro de Segurança da IA, enfatizou a necessidade de ação imediata, instando as empresas de IA a implementar salvaguardas robustas dentro de seis meses, chamando a inação de”imprudente”.”Queremos dar às pessoas que têm um uso legítimo para perguntar como manipular vírus mortais-como um pesquisador do Departamento de Biologia do MIT-a capacidade de fazê-lo”, explicou Hendrycks ao tempo.”Mas as pessoas aleatórias que fizeram uma conta há um segundo não recebem esses recursos.”

Respostas da indústria e exige supervisão

Foi informado nos resultados da VCT meses atrás, os desenvolvedores de IA reagiram de maneira diferente. xAI, Elon Musk’s company, in February, published a risk management framework acknowledging the paper and mentioning potential virology safeguards for its Grok model, such as training it to decline harmful requests.

OpenAI stated it “Implantou novas mitigações no nível do sistema para riscos biológicos” para seus modelos O3 e O4-mini recentemente lançados, incluindo medidas específicas como “bloquear saídas prejudiciais”. A equipe vermelha é uma prática de segurança comum envolvendo ataques simulados para encontrar vulnerabilidades. Anthrópica, outro laboratório de IA líder, reconheceu que o VCT resulta em sua documentação do sistema, mas não ofereceu planos de mitigação específicos, enquanto o Google se recusou a comentar sobre o assunto ao tempo. Tom Inglesby, do Centro de Segurança da Saúde Johns Hopkins, defendido para políticas e regulamentos governamentais.”A situação atual é que as empresas mais virtuosas estão levando tempo e dinheiro para fazer esse trabalho, o que é bom para todos nós, mas outras empresas não precisam fazê-lo”, disse ele ao tempo, acrescentando:”Isso não faz sentido”. Inglesby propôs avaliações obrigatórias para novos modelos de linguagem grandes antes de seu lançamento “para garantir que não produza resultados de nível pandêmico.”

a pegada em expansão da IA ​​em pesquisas científicas

Os resultados de um dos dados mais altos, mas são um dos dados mais altos, mas um dos dados mais gerais, mas é um dos dados mais altos, mas um dos dados de uma base mais importante, mas é um dos dados mais altos, mas um dos dados mais importantes do ISLECTILID, mas é um dos dados de uma base mais importante, mas é um dos dados mais altos, mas é um dos dados mais gerais, mas um dos dados mais altos dos dados do ISPLETS, mas é um dos dados mais altos do ISoled, mas um dos dados do ISTILIDE, mas um dos dados do ISLATILIDO, mas é um dos dados mais altos, mas um dos dados mais altos, mas um dos dados do Intelic. O Openai, criador do modelo O3 com melhor desempenho, já era conhecido por explorar aplicações biológicas; A WinBuzzer relatou em janeiro em sua colaboração com biosciências retrô usando um modelo chamado GPT-4b Micro para otimizar proteínas envolvidas na criação de células-tronco.

Da mesma forma, o Google DeepMind tem sido altamente ativo. Besides the Gemini model family, its widely used AlphaFold program predicts protein structures, while an “AI Co-Scientist”project, detailed in February, aims to generate novel scientific hypotheses, sometimes mirroring unpublished human research.

Microsoft entered the fray in February with BioEmu-1, a model focused on predicting the dynamic movement of proteins, complementing AlphaFold’s previsões estáticas. Essas ferramentas, com foco em engenharia de proteínas, geração de hipóteses e simulação molecular, ilustram o papel em expansão da IA, indo além da análise de dados em direção ao raciocínio científico complexo e à assistência processual-ampliando os ganhos científicos em potencial e os desafios de segurança destacados pelo VCT.

Categories: IT Info