A Microsoft revelou seu relatório de transparência inaugural detalhando o compromisso contínuo da empresa com práticas responsáveis ​​de inteligência artificial (IA). O Relatório de Transparência de IA Responsável, uma pedra angular da estrutura ética de IA da Microsoft, descreve as medidas e metodologias que o gigante tecnológico emprega para garantir que as suas tecnologias de IA sejam desenvolvidas e implementadas de uma forma segura, ética e alinhada com os valores sociais. Brad Smith, presidente da Microsoft, enfatiza o papel do relatório no compartilhamento das práticas em evolução da empresa, na reflexão sobre as lições aprendidas, no estabelecimento de metas futuras e na manutenção da confiança do público.

Implementação de diretrizes éticas e treinamento

No centro da iniciativa de IA responsável da Microsoft está um programa de treinamento abrangente para seus funcionários, enfatizado pelo treinamento em Padrões de Conduta Empresarial de 2023. Este curso obrigatório, que inclui um módulo sobre IA responsável, teve uma taxa de conclusão de 99 por cento entre os funcionários da Microsoft em 31 de dezembro de 2023. O treinamento foi desenvolvido para equipar a força de trabalho com os recursos e conhecimentos necessários para desenvolver e implantar tecnologias de IA com segurança.

Além disso, a Microsoft estabeleceu um Conselho de IA Responsável, que se reúne regularmente para avaliar e aprimorar as medidas de segurança de IA da empresa. Os esforços do conselho são complementados pelo programa Responsible AI Champion, que incumbe funcionários selecionados de identificar e resolver possíveis problemas em produtos de IA e aconselhar sobre as melhores práticas para o desenvolvimento responsável de IA.

Medidas proativas no desenvolvimento e implantação de produtos

O compromisso da Microsoft com a IA ética se estende ao desenvolvimento e implantação de seus produtos. Um exemplo notável é o Microsoft Designer, um aplicativo de criação de imagens com tecnologia de IA. Após relatos de que o aplicativo foi usado para gerar imagens “profundamente falsas” inadequadas de celebridades, a Microsoft realizou uma revisão da produção do aplicativo em colaboração com o grupo de jornalismo NewsGuard. A análise revelou que 12 por cento das imagens geradas pelo Designer continham conteúdo problemático. Em resposta, a Microsoft implementou alterações no aplicativo, reduzindo com sucesso a incidência desse tipo de conteúdo para 3,6%.

Categories: IT Info