A Microsoft tem anunciou a introdução de novas ferramentas projetadas para melhorar a segurança dos modelos de inteligência artificial (IA) em sua plataforma Azure. A mudança ocorre no momento em que a gigante da tecnologia continua a investir pesadamente em OpenAI, integrando recursos de chatbot em toda a sua gama de software. Esta iniciativa reflete a tendência mais ampla da indústria de incorporar tecnologias generativas de IA, apesar das preocupações crescentes sobre seus riscos potenciais.

Abordando os riscos de IA

A pressa da indústria tecnológica para alavancar a IA generativa tem sido alvo de um escrutínio crescente sobre a segurança e as implicações éticas destas tecnologias. Grandes modelos de linguagem, conhecidos por produzirem ocasionalmente respostas incorretas ou prejudiciais, levaram empresas como a Microsoft a procurar soluções que mitiguem estes riscos sem paralisar a inovação. Sarah Bird, diretora de produtos de IA responsável da Microsoft, enfatiza o equilíbrio entre inovação e gerenciamento de riscos, destacando a ameaça de ataques de injeção imediata, onde atores mal-intencionados manipulam sistemas de IA para realizar ações não intencionais.

Nova segurança Recursos do Azure

Os usuários do Azure AI Studio da Microsoft agora podem acessar quatro novas ferramentas de segurança destinadas a melhorar a segurança e a confiabilidade dos aplicativos generativos de IA. A primeira ferramenta, Prompt Shields, foi projetada para defesa contra ataques de injeção imediata, ajudando a evitar manipulações diretas e indiretas de modelos básicos.

A detecção de fundamentação é outro recurso que identifica quando os modelos de IA produzem afirmações infundadas, permitindo correções antes que essas respostas sejam exibidas. Além disso, as avaliações de segurança assistidas por IA oferecem uma estrutura de testes para avaliar possíveis interações adversárias, e um recurso de monitoramento de riscos e segurança fornece métricas sobre conteúdo prejudicial. Essas ferramentas representam o compromisso da Microsoft em desenvolver soluções de IA confiáveis, embora ainda haja desafios para garantir sua eficácia contra ataques sofisticados.

Desafios Contínuos e Resposta do Setor

Apesar disso avanços, especialistas como Vinu Sankar Sadasivan, estudante de doutorado na Universidade de Maryland, alertam que a introdução de novos modelos de IA para aumentar a segurança pode aumentar inadvertidamente o potencial de ataques. Sadasivan disse ao The Register que, embora ferramentas como o Prompt Shields sejam um passo à frente, elas ainda podem ser suscetíveis a táticas adversárias projetadas para contornar as medidas de segurança. Os esforços da indústria tecnológica para proteger os sistemas de IA são cruciais, mas a complexidade destas tecnologias significa que alcançar a segurança completa continua a ser um desafio constante.

Categories: IT Info