Habang inilalabas ng OpenAi ang bagong mode na henerasyon ng imahe ng GPT-4O sa mga gumagamit ng free-tier na chatgpt, ang kumpanya ay nag-eeksperimento din sa parehong nakikita at hindi nakikita na mga diskarte sa watermarking upang makatulong na mas mahusay na makilala ang mga visual na nabuo. Ang nakikitang watermark-na lumilitaw bilang isang label na”imageGen”-ay nasubok sa Patuloy na makatanggap ng mga imahe nang walang marka. src=”https://winbuzzer.com/wp-content/uploads/2025/03/openai-image-generation.jpg”>
Ang henerasyon ng imahe ay dati nang limitado sa mga bayad na tier. Ngayon, hindi lamang ang teknolohiya na lumalawak-kaya ang pagsisikap ng OpenAi na gawing mas trace ang nilalaman nito. Nag-sign ito ng isang mas malawak na diskarte mula sa openai upang palakasin ang pagkilala sa nilalaman sa gitna ng pag-mount ng pagsisiyasat sa AI na nabuo ng media. Ang mga nababasa na tagapakinig ng makina ay nagsasama ng mga timestamp, mga label ng software, at mga marker ng pinagmulan na makakatulong na mapatunayan ang napatunayan ng nilalaman. Ang diskarte ay bumubuo sa naunang paggamit ng OpenAi ng C2PA metadata sa Dall · E 3 na henerasyon ng imahe, na nagsimula noong unang bahagi ng 2024. Tulad ng nauna nang kinilala ng OpenAI, ang mga simpleng pagmamanipula-tulad ng pag-crop, pag-screenshot, o pag-upload ng mga imahe sa mga platform na naghuhugas ng metadata-ay maaaring alisin ang mga hindi nakikita na mga marker na ito. Sa kabila ng mga pagkukulang na ito, sinusuportahan ng kumpanya ang mga ligal na frameworks na nangangailangan ng watermarking. Ang OpenAI, bukod sa Adobe at Microsoft, ay sumuporta sa Bill ng AB 3211 ng California, na mag-uutos sa pag-label ng nilalaman na AI-nabuo upang makatulong na mapagaan ang mga panganib ng maling impormasyon. Bilang karagdagan sa C2PA metadata rollout para sa Dall · E 3, ang kumpanya ay nakabuo din ng isang text watermarking system para sa ChATGPT, na inihayag noong kalagitnaan ng 2024. Ang tool na naka-embed na hindi mahahalata na mga pattern ng lingguwistika upang matulungan ang pag-flag ng AI-nabuo na teksto. Ngunit ang mga alalahanin tungkol sa kawastuhan at hindi sinasadyang mga kahihinatnan na humantong sa OpenAi upang maantala ang pag-rollout. Nabanggit din ng Kumpanya ang mga potensyal na alalahanin sa pagiging patas para sa mga gumagamit na umaasa sa AI para sa suporta sa pagsulat ng pangalawang wika. Ang watermark ay maaaring alisin o mapupuksa gamit ang mga simpleng diskarte tulad ng muling pagsasaalang-alang o pagsasalin ng makina. Sa pamamagitan ng pagsasama ng mga nakikitang mga tagapagpahiwatig, sinusubukan ng OpenAI na hampasin ang isang gitnang lupa sa pagitan ng kakayahang magamit at pagsubaybay. Ang iba pang mga higanteng tech ay gumawa ng magkatulad na mga hakbang upang markahan ang media na nabuo ng AI-nabuo. Noong Pebrero 2025, pinalawak ng Google ang synthid system nito-na originally na binuo ng DeepMind-sa mga larawan ng Google. Ang teknolohiya ngayon ay nalalapat sa na-edit na mga imahe pati na rin ang mga ganap na nabuo, na nag-embed ng hindi mahahalagang watermark nang direkta sa data ng pixel. Ang Synthid ay maaaring makaligtas sa mga pangunahing pagbabagong-anyo tulad ng pagbabago ng laki o light filter ngunit hindi gaanong epektibo laban sa mabibigat na pag-edit o pag-crop. Ang mga entry ng metadata na ito ay tandaan ang pinagmulan ng henerasyon, petsa ng paglikha, at pagkakakilanlan ng software. Ang system ay bahagi ng isang mas malawak na inisyatibo na kinasasangkutan ng mga pakikipagtulungan sa Adobe, Truepic, at ang BBC upang pamantayan ang pagpapatunay ng nilalaman sa mga platform. Noong Pebrero 2024, ang kumpanya ay gumulong ng mandatory na nakikitang mga watermark sa nilalaman na nabuo sa buong Facebook, Instagram, at mga thread. Ang label na”naisip sa AI”ay lilitaw sa anumang imahe na nilikha ng mga tool ng Meta o mga modelo ng third-party tulad ng midjourney at Dall · E. Nilagdaan ng Meta na ito ay mangangailangan ng katulad na pagsisiwalat para sa synthetic video at audio, na may mga potensyal na aksyon sa pagpapatupad para sa hindi pagkakasundo. Noong Oktubre 2023, inilathala ng mga mananaliksik mula sa University of Maryland ang isang pag-aaral na sinusuri ang mga limitasyon ng watermarking ng imahe ng AI. Ang kanilang mga natuklasan ay nagpakita na ang mga karaniwang pamamaraan ng watermarking ay maaaring talunin ng mga diskarte sa kalaban. Ang higit pa tungkol sa mga umaatake ay maaaring”mag-spoof”ng isang watermark sa isang hindi naka-marka na imahe, na tila ito ay ai-generated kapag hindi. Ang mga natuklasang ito ay nagmumungkahi na ang watermarking lamang ay maaaring hindi isang maaasahang netong pangkaligtasan laban sa manipuladong media o maling impormasyon. Kung ang mga bayad na tagasuskribi ay magpapatuloy na tamasahin ang mga output na walang watermark, lilikha ito ng isang two-tier system na maaaring kumplikado ang pagsubaybay sa nilalaman at pag-moderate sa mga platform. Ang isang imahe na walang nakikitang tag ay maaaring mag-ikot nang mas malaya-walang anuman kung ito ay ai-generated.
Gayunpaman, habang ang synthetic media ay lumaganap, ang mga sistema ng watermarking ay malamang na kailangang magbago pa upang manatiling epektibo. Kung ang kasalukuyang balanse ay nakakatugon sa mga inaasahan ng mga regulator, platform, at mga gumagamit ay hindi pa malinaw.