Como o OpenAI lança o novo modo de geração de imagem GPT-4O para usuários de chatgpt de camada livre, a empresa também está experimentando as técnicas de marcas d’água visíveis e invisíveis para ajudar a identificar melhor visuais gerados pela IA. The visible watermark—appearing as an “ImageGen”label—is being tested on outputs from free accounts, while paid users will reportedly continue to Receba imagens sem a marca. src=”https://winbuzzer.com/wp-content/uploads/2025/03/openai-image-generation.jpg”>
Os testes coincidem com a disponibilidade geral do ChatGPT-4o, a ferramenta de geração de imagens para todos os usuários, incluindo os limites. A geração de imagens era anteriormente limitada a níveis pagos. Agora, não é apenas a tecnologia que está se expandindo-então é o esforço da OpenAI para tornar seu conteúdo mais rastreável. Isso sinaliza uma estratégia mais ampla do OpenAI para fortalecer a atribuição de conteúdo em meio a um escrutínio crescente em relação à mídia gerada pela IA. Esses identificadores legíveis por máquina incluem registros de data e hora, etiquetas de software e marcadores de origem que ajudam a verificar a proveniência do conteúdo. A abordagem se baseia no uso prévio dos metadados C2PA pelo OpenAI em geração de imagens Dall · E 3, que começou no início de 2024.
No entanto, as limitações dos sistemas baseados em metadados são bem conhecidas. Como o OpenAI reconheceu anteriormente, manipulações simples-como cortar, capturas de tela ou carregar imagens para plataformas que tiram metadados-podem remover esses marcadores invisíveis. Apesar dessas deficiências, a empresa suporta estruturas legais que exigem marcas de água. O Openai, além de Adobe e Microsoft, apoiou a conta AB 3211 da Califórnia, que exigiria a rotulagem de conteúdo gerado pela IA para ajudar a mitigar os riscos de desinformação. Além do lançamento de metadados C2PA para Dall · E 3, a empresa também desenvolveu um sistema de marcas de água de texto para chatgpt, anunciado em meados de 2024. A ferramenta incorporou padrões linguísticos imperceptíveis para ajudar a sinalizar o texto gerado pela IA. Mas as preocupações com a precisão e as consequências não intencionais levaram o OpenAI a atrasar o lançamento. A empresa também observou possíveis preocupações de justiça para os usuários que dependem da IA para obter suporte à escrita de segunda língua. A marca d’água pode ser removida ou ofuscada usando estratégias simples, como reformulação ou tradução da máquina. Ao combinar indicadores visíveis e invisíveis, o OpenAI está tentando atacar um meio termo entre usabilidade e rastreabilidade. Outros gigantes da tecnologia tomaram medidas paralelas para marcar a mídia gerada pela IA. Em fevereiro de 2025, o Google expandiu seu sistema sintid-originalmente desenvolvido pela DeepMind-para o Google Photos. A tecnologia agora se aplica a imagens editadas, bem como às totalmente geradas, incorporando marcas d’água imperceptíveis diretamente nos dados do pixel. O sintid pode sobreviver a transformações básicas como redimensionamento ou filtragem de luz, mas é menos eficaz contra edições pesadas ou corte. Essas entradas de metadados observam a fonte de geração, data de criação e identificador de software. O sistema faz parte de uma iniciativa mais ampla que envolve parcerias com a Adobe, Truepic e a BBC para padronizar a autenticação de conteúdo entre as plataformas.
Meta, enquanto isso, adotou uma abordagem mais direta. Em fevereiro de 2024, a empresa lançou marcas d’água visíveis obrigatórias com conteúdo gerado pela IA no Facebook, Instagram e tópicos. O rótulo”Imaginado com IA”aparece em qualquer imagem criada pelas ferramentas da Meta ou modelos de terceiros como Midjourney e Dall · e. A Meta sinalizou que em breve exigirá divulgação semelhante para vídeo e áudio sintéticos, com possíveis ações de execução para não conformidade. Em outubro de 2023, pesquisadores da Universidade de Maryland publicaram um estudo examinando os limites da AI Image WaterMarking. Suas descobertas mostraram que os métodos comuns de marca d’água podem ser derrotados por técnicas adversárias. Mais preocupante é que os invasores podem”falsificar”uma marca d’água em uma imagem não marcada, fazendo com que pareça ser gerado pela IA quando não é. Esses achados sugerem que a marca d’água sozinha pode não ser uma rede de segurança confiável contra mídia manipulada ou desinformação. Se os assinantes pagos continuarem a desfrutar de resultados sem marcas d’água, isso criará um sistema de duas camadas que poderia complicar o rastreamento e a moderação de conteúdo entre as plataformas. Uma imagem sem uma etiqueta visível pode circular mais livremente-independentemente de ser gerada pela IA. No entanto, à medida que os meios sintéticos proliferam, os sistemas de marca d’água provavelmente precisarão evoluir ainda mais para permanecer eficazes. Se o saldo atual atende às expectativas dos reguladores, plataformas e usuários ainda não está claro.