Openai presset sine mer autonome O3-og O4-min-modeller for å betale chatgpt-abonnenter rundt midten av april, og utstyrte chatbot med det Openai beskriver som”tidlig agentatferd”som tillater den å uavhengig velge verktøy som surfing eller kodeanalyse.

Rapporter dukket opp for å antyde at disse nyere modellene innebygde usynlige karakterer i teksten sin, og vekket en debatt om Openai implementerte et subtilt tekstvannmerkingssystem eller om modellene ganske enkelt viser lærte, om enn noen ganger problematiske, typografiske vaner.

skjulte tegn: Watermark eller Typography? href=”https://www.rumidocs.com/newsroom/new-chatgpt-models-seem-to-leave-watermarks-on-text”target=”_ blank”> brakt frem av rumi , en AI-oppstart med et fokus på akademikk, sentre. Unicode er en standard for koding av tegn fra forskjellige skrivesystemer; Disse spesifikke tegnene, først og fremst smalt no-break-plass (nnbsp, u+202f) , gjengis identisk til standard mellomrom i de fleste synspunkter som har spesialt som en spesialitet som har spesikret som en spesiell måte å ha spesialitet som har spesialisert som standard mellomrom i de fleste synspunkter, men har spesialt som standard mellomrom i de fleste synspunkter, men har en spesialitet som er spesialisert som standard mellomrom. href=”https://www.soscisurvey.de/tools/view-chars.php”Target=”_ blank”> soscisurvey’s Character Viewer eller kode redaktører som

Rumi bemerker at dette mønsteret virker systematisk, fraværende i tester av eldre modeller som GPT-4O, og det var et intensjonelt, men lett nederlag, vannmerke. Metoden innebærer et enkelt funn-og-utplass for å fjerne karakterene, en prosess Rumi demonstrert i en video.

[Embedded Content]

Rumi-artikkelen bemerket også at i motsetning til potensielt lærte denne riktige bruken og bruker nå disse reglene-kanskje enda mer flittig enn mange mennesker. Hvis det er nøyaktig, oppdaterer dette funnet fra en bevisst sporingsmekanisme til en sære av modellenes avanserte tekstgenerering, selv om de uvanlige karakterene fremdeles kunne utilsiktet flaggtekst under naive kontroller.

Openai i seg selv har ikke gjort noen offisiell uttalelse som bekrefter eller nektet bruken av disse tegnene, og Rumi spekulerte på Past til å få en past til å fjerne. Autentiseringsinnsats

Uansett intensjon, har tilstedeværelsen av disse uvanlige karakterene implikasjoner, spesielt i akademia der å identifisere AI-assistanse er en stor bekymring. Med Openai som tilbyr gratis studenttilgang”til slutten av mai, betyr”enkel fjerning av at enhver deteksjonsfordel kan være kortvarig og potensielt urettferdig for uvitende brukere.

Denne situasjonen gjenspeiler Openais tidligere undersøkelser innen innholdsautentisering. Selskapet begynte å legge til C2PA-metadata (en standard for å sertifisere innholdskilde og historie, ofte kalt innholdsopplysning) for å dall · e 3 bilder tidlig i 2024 og tester synlig “Image”labels PER som POP=”TOLY AVRENTS for å få en e-ene. Utviklet, men gikk til pause i utrullingen av et språklig mønsterbasert vannmerkeverktøy i tekst i midten av 2024 på grunn av nøyaktighet og bypass-bekymringer. Denne innsatsen gjenspeiler et bransjeomfattende press for herkomst, sett i Googles synthid for bilder, Microsofts metadata som innebygde via Azure Openai-tjenesten, og Metas obligatoriske synlige etiketter rullet ut i februar 2024.

Fortsatt gjenstår de grunnleggende utfordringene; Forskning fra University of Maryland publisert i oktober 2023 viste at mange vannmerke-metoder kan være sårbare for angrep som”diffusjonsrensing”eller”forfalskning”.

Beyond Watermarks: pålitelighetsspørsmål som dømmer

Denne spesifikke debatten. Utgivelsen deres falt sammen med Openais egne data, detaljert i modellene’“2021 href=”https://truthfulness.docent.transluce.org/o3-2025-04-03/transcript/python_repl_0_human-generated_attacks_0 mål=”_ blank”> python miljø openai stated “:”Target=”_in-rocure-rocu-ram-ramme-ramme-ramme-ramme. Vi kan justere kravene våre.”). T

Hese-utviklingen trakk kritikk, med en kilde som angivelig kalte testtilnærmingen “uvøren”, mens en tidligere teknisk medarbeider ble sitert og sa:”Det er dårlig praksis å gi ut en modell som er forskjellig fra den du evaluerte.”Openais sjef for sikkerhetssystemer, Johannes Heidecke, forsvarte tempoet og hevdet:”Vi har en god balanse på hvor raskt vi beveger oss og hvor grundige vi er.”Dette komplekse bildet dukker opp når modellene ser rask integrasjon i plattformer som Microsoft Azure og GitHub Copilot.

Categories: IT Info