O O Grupo dos Sete (G7) países industrializados anunciou um novo conjunto de diretrizes, o Código Internacional de Conduta para Organizações que Desenvolvem IA Avançada Systems, para organizações que desenvolvem tecnologias avançadas de inteligência artificial (IA). O código, que se baseia no “Processo de IA de Hiroshima”, foi tornado público no mesmo dia em que o presidente dos EUA, Joe Biden, emitiu uma Ordem Executiva sobre “IA segura, protegida e confiável”.

Este desenvolvimento global de IA A estrutura visa promover uma IA confiável, segura e protegida. Ela acompanha os principais desenvolvimentos em IA, como a finalização da Lei de IA da UE financeiramente vinculativa da União Europeia e o novo Conselho Consultivo de Inteligência Artificial do Secretário-Geral das Nações Unidas.

A peça central do novo código de conduta é uma estrutura abrangente de 11 pontos para a criação e empreendimento responsável de IA, incluindo diretrizes para identificar, avaliar e mitigar riscos durante o desenvolvimento e implantação de IA. Ele amplia o Processo de Hiroshima, que foi anunciado em maio. Este acordo visa garantir que o desenvolvimento e a implantação da IA ​​estejam alinhados com os valores democráticos compartilhados pelas nações do G-7.

Uma estrutura abrangente de 11 pontos para o desenvolvimento de IA

A estrutura de 11 pontos foi projetada para orientar os desenvolvedores de IA com análises rigorosas e transparentes medidas de comunicação para fortalecer a integridade da IA. Inclui estratégias proativas para identificar e mitigar potenciais vulnerabilidades de IA avançada e monitorar regularmente seu uso após a implantação.

Os desenvolvedores também são incentivados a divulgar publicamente as capacidades e limitações dos sistemas de IA avançados, juntamente com domínios de uso apropriado e inadequado. usar. A estrutura também exige o desenvolvimento e a adoção de padrões técnicos internacionais.

Entre outras preocupações, a implantação de mecanismos confiáveis ​​de autenticação de conteúdo, o avanço da pesquisa para mitigar riscos sociais e de segurança e a implementação de medidas apropriadas para proteger dados pessoais e a propriedade intelectual estão entre os princípios vitais descritos no código.

Unificação de esforços globais rumo ao crescimento responsável da IA

A iniciativa recebeu aprovação global do governo e foi elogiado pelos seus esforços para sindicalizar abordagens globais para o desenvolvimento da IA ​​com o devido respeito pela lei, pelos direitos humanos, pelo devido processo, pela diversidade, pela justiça, pela não discriminação, pela democracia e pela “centralidade humana”.

Numa voz unificada, Os países do G7 instaram as organizações de todo o mundo que lidam com a IA a comprometerem-se com este código de conduta e reconheceram também que “diferentes jurisdições podem adotar as suas próprias abordagens únicas para implementar estes princípios orientadores”. As nações do G7, nomeadamente Estados Unidos, Grã-Bretanha, União Europeia, Canadá, França, Alemanha, Itália e Japão, visam garantir que a IA seja desenvolvida de forma responsável e não represente um risco substancial para a segurança, a proteção e os direitos humanos.

Numa tentativa de incentivar o desenvolvimento da IA ​​para questões sociais globais, como a crise climática, a saúde e a educação globais, os países do G7 enfatizaram os benefícios potenciais, garantindo ao mesmo tempo que os riscos são mitigados. Um ambiente que promova os benefícios da IA, eliminando as lacunas digitais e alcançando a inclusão digital é o objetivo final por trás desta iniciativa global.

Um impulso crescente para uma regulamentação significativa da IA

Os governos de todo o mundo, reconhecendo o potencial transformador da IA, estão a enfrentar o desafio de regulamentar a IA generativa. A União Europeia, por exemplo, apresentou a sua proposta de Lei sobre IA, que coloca uma forte ênfase nas regras de transparência para modelos de fundação. Empresas como GitHub e Hugging Face, da Microsoft, pediram que o AI Act fosse amigável ao código aberto, enquanto a OpenAI argumentou que as leis propostas são muito rígidas.

No Reino Unido, a  Autoridade de Concorrência e Mercados (CMA) assumiu recentemente a liderança nas regulamentações de IA ao revelar um abrangente conjunto de princípios que visa orientar o desenvolvimento e a implantação de modelos básicos de IA. E nos Estados Unidos, a administração Biden anunciou recentemente que mais oito empresas de tecnologia, incluindo Adobe, IBM, Nvidia, Cohere, Palantir, Salesforce, Scale AI e Stability AI, comprometeram-se com o desenvolvimento de soluções seguras, protegidas e confiáveis. inteligência artificial (IA). Esta medida baseia-se nos esforços da administração Biden-Harris para gerir os riscos da IA ​​e aproveitar os seus benefícios.

Em julho, quando a iniciativa foi lançada, as principais empresas de tecnologia dos EUA, incluindo OpenAI, Google, Microsoft, Amazon, Anthropic, Inflection AI e Meta, concordaram com a salvaguarda voluntária. Os compromissos são divididos em três categorias: Segurança, Proteção e Confiança, e se aplicam a modelos generativos que ultrapassam a fronteira atual da indústria.

Categories: IT Info