OpenAI pressade sina mer autonoma O3-och O4-MINI-modeller för att betala chatgpt-prenumeranter runt mitten av april och utrusta chatboten med vad OpenAI beskriver som”tidigt agentiskt beteende”som tillåter det att oberoende välja verktyg som surfning eller kodanalys. Reports surfaced suggesting these newer models embed invisible characters in their text, sparking a debate about whether OpenAI implemented a subtle text watermarking system or if the models are simply exhibiting learned, albeit sometimes problematic, typographical habits.
Hidden Characters: Watermark or Typography?
The observation, brought to light by Rumi, an AI startup with a focus on academics, centers on the appearance of special Unicode characters within longer text generated by o3 and o4-mini. Unicode är en standard för kodning av tecken från olika skrivsystem; Dessa specifika karaktärer, främst smal no-break-utrymme (nnbsp, u+202f) , gör identiskt med standardutrymmen i de flesta vyer men har distinkta underliggande kodar detekterbara med specialverktyg som Soscurvey’s Character Viewer eller kodredigerare som
Rumi konstaterar att detta mönster verkar systematiskt, frånvarande i tester av äldre modeller som GPT-4O och poserade var det en avsiktlig, men lätt nederlagbar, vattenmärke. Metoden involverar en enkel fynd och ersättare för att ta bort karaktärerna, en process Rumi demonstrerad i en video.
[inbäddat innehåll]
Rumi-artikeln konstaterade också att till skillnad från potentiellt inaccureure AICURUENT ai-det är
Men teknisk analys kan också leda till alternativa förklaringar: karaktärerna kan vara typografiskt korrekta. Icke-brytande utrymmen (både smala och standard) används legitimt för att förhindra oönskade linjeavbrott mellan relaterade element som valutasymboler och mängder eller initialer och efternamn, vilket säkerställer läsbarhet.
Det är troligt modellerna, utbildade på stora datauppsättningar inklusive välformaterad text, helt enkelt Lärde denna riktiga användning och tillämpar nu dessa regler-kanske ännu mer flitigt än många människor. If accurate, this reframes the finding from a deliberate tracking mechanism to a quirk of the models’ advanced text generation, though the unusual characters could still inadvertently flag text during naive checks.
OpenAI itself has made no official statement confirming or denying the use of these characters as watermarks, and Rumi speculated OpenAI might remove the feature if it gains widespread attention.
Implications and Tidigare autentiseringsinsatser
Oavsett avsikt har närvaron av dessa ovanliga karaktärer konsekvenser, särskilt i akademin där att identifiera AI-hjälp är ett stort problem. Med OpenAI som erbjuder gratis studentåtkomst”fram till slutet av maj”, innebär att en enkel borttagning innebär att varje upptäcktsfördel kan vara kortlivad och potentiellt orättvis för omedvetna användare.
Denna situation ekar OpenAI: s tidigare utforskningar i innehållsautentisering. Företaget började lägga till C2PA-metadata (en standard för certifiering av innehållskälla och historia, ofta kallad innehållsuppgifter) till Dall · E 3-bilder i början av 2024 och testar synlig “ImageGen”-märken På GPT-4O-bildutgångar för gratis användare så sent i början av april 2025.
OpenAI utvecklades till och med, men pausade utrullningen av, ett språkligt mönsterbaserat textvattenmarkeringsverktyg i mitten av 2024 på grund av noggrannhet och avpass. Dessa ansträngningar återspeglar en branschövergripande drivkraft för härkomst, sett i Googles synthid för bilder, Microsofts metadata som inbäddas via Azure Openai-tjänst, och Metas obligatoriska synliga etiketter rullade ut i februari 2024.
Fortfarande, de grundläggande utmaningarna kvarstår; Forskning från University of Maryland som publicerades i oktober 2023 visade att många vattenmarkeringsmetoder kan vara sårbara för attacker som”diffusion rening”eller”förfalskning”.
Beyond Watermarks: Reliability Frågor
Denna specifika debatt bidrar till en växande lista över observationer om O3 och O4-MID. Deras frisläppande sammanföll med Openais egna data, detaljerade i modellerna’ tillverkade att utföra pythonkod Det kunde inte köra, uppfinna utarbetade ursäkter som involverar kopieringsfel eller krävande beräkningar gjordes på en icke-existent “2021 MacBook Pro Pro Propro” eller tillverkning Detaljer om dess
Transluce researcher Neil Chowdhury suggested to TechCrunch that the models’ training, possibly involving Reinforcement Learning from Human Feedback (RLHF) where human raters might struggle to verify complex steps, could be a factor: “Our hypothesis is that the kind of reinforcement learning used for o-series models may amplify issues that are usually mitigated (but not fully erased) by standard post-training pipelines.”
This rollout also occurred amid reports alleging OpenAI significantly shortened the safety testing period for these models and updated Dess säkerhetsram med en klausul som tyder på regler kan potentiellt kan ändras baserat på konkurrentåtgärder ( OpenAI Stated :”Om en annan Frontier AI-utvecklare släpper ett hög-risk-system utan jämförelse, may may-safeguards, kan vi justera.”T
hese-utvecklingen drog kritik, med en källa som enligt uppgift kallade testmetoden”Reckless”, medan en tidigare teknisk anställd citerades och sa:”Det är dålig praxis att släppa en modell som skiljer sig från den du utvärderade.”Openais chef för säkerhetssystem, Johannes Heidecke, försvarade takten och hävdade:”Vi har en god balans mellan hur snabbt vi rör oss och hur grundliga vi är.”Denna komplexa bild dyker upp när modellerna ser snabb integration i plattformar som Microsoft Azure och Github copilot.