Em meio a crescente controvérsia sobre como os gigantes da tecnologia colhem dados do usuário da IA, o Instituto Allen para AI (AI2) introduziu uma solução potencial. Sua nova arquitetura de modelo, flexolmo, permite que as organizações treinem colaborativamente a IA sem compartilhar dados brutos sensíveis . A abordagem visa promover a colaboração segura de dados em áreas como saúde e finanças, onde a privacidade é fundamental. O modelo code e Arquitetura para IA colaborativa sem compromisso

A inovação central por trás do Flexolmo é o uso de uma arquitetura de mistura de especialistas (MOE). Essa estrutura trata a IA não como uma única entidade monolítica, mas como uma equipe de especialistas. Ele permite uma nova abordagem distribuída para modelar o treinamento que evita a necessidade de um repositório central de dados. Este modelo público congelado fornece uma base estável, uma linguagem comum com a qual todos os módulos de especialistas díspares são treinados para se alinhar. Essa coordenação é fundamental para mesclá-los com sucesso sem treinamento conjunto dispendioso. Os proprietários de dados podem treinar módulos”especializados”especializados e especializados em seus próprios conjuntos de dados privados localmente, sempre que combina com eles. Esse design modular fornece um nível de flexibilidade sem precedentes para os colaboradores. Isso lhes confere controle de granulação fina sobre como seus dados são usados, um recurso ausente nos modelos tradicionais. de acesso a dados durante a inferência.”Essa capacidade contrasta diretamente com a natureza permanente do treinamento padrão de IA. Ai2 abordou proativamente isso realizando simulações de ataque de extração de dados em um módulo de especialista flexolmo treinado.

Os resultados foram promissores. Os pesquisadores encontraram uma baixa taxa de extração de apenas 0,7%, sugerindo que a recuperação de uma quantidade significativa de informações privadas de um módulo especialista contribuído é difícil. Embora não seja zero, essa baixa taxa sugere que a memorização literal é significativamente mitigada.

Isso fornece uma camada de garantia para possíveis colaboradores. Para organizações com os mais altos requisitos de segurança, o AI2 observa que a estrutura é compatível com a privacidade diferencial (DP), uma técnica que adiciona”ruído”matemático para tornar impossível rastrear dados de volta a um indivíduo. Isso oferece um espectro de opções de segurança, dependendo da sensibilidade dos dados.

Descartrando a melhoria do modelo do compartilhamento de dados brutos, o Flexolmo apresenta um caminho viável a seguir. Ele oferece uma maneira de conjuntos de dados valiosos e isolados enriquecerem o ecossistema de IA mais amplo sem forçar os proprietários de dados a renunciar ao controle, potencialmente desbloqueando uma nova era de colaboração de IA segura e transparente.

uma solução oportuna em uma indústria que pode ser responsável por escândalos de privacidade

Facl. crise de confiança sobre suas práticas de dados. A nova arquitetura parece ser uma resposta direta aos desafios legais e éticos que encenam grandes empresas de tecnologia. A medida provocou indignação dos defensores da privacidade.

O Google também esteve no assento quente. A empresa publicou recentemente uma atualização do Android que permite que sua IA Gemini acesse aplicativos de terceiros por padrão, substituindo as configurações anteriores de privacidade de alguns usuários. Isso seguiu as alegações de que a Gêmeos estava acessando o Google Docs privado sem consentimento.

Enquanto isso, a Meta enfrentou ventos regulatórios significativos. Foi forçado a interromper temporariamente o treinamento de IA sobre dados do usuário da UE em 2024 após a pressão do DPC irlandês. O fundador do Grupo de Privacidade Noyb, Max Schrems, disse sobre a situação:”O comunicado à imprensa da meta se parece um pouco como’punição coletiva’. Se algum europeu insistir em seus direitos, o continente inteiro não receberá nossos novos produtos. Lá, o chefe de privacidade global da Meta, Melinda Claybaugh, confirmou que, para os usuários australianos,”as postagens públicas foram realmente reunidas, a menos que sejam especificamente marcados em particular”, pois não receberam um mecanismo de opção como sua UE e os colegas dos EUA. Em maio de 2025, foi revelado que uma IA foi treinada em 57 milhões de registros de pacientes do NHS, levantando temores sobre a re-identificação. Como observou um pesquisador de Oxford,”as pessoas geralmente querem manter o controle sobre seus dados e querem saber para onde está indo”. Pesquisas mostraram que poderia desenvolver uma capacidade emergente de “denúncia”, relatando autonomamente os usuários para o comportamento “imoral” percebido,