OpenAI heeft zijn meer autonome O3-en O4-Mini-modellen gepusht naar het betalen van chatgpt-abonnees rond half april, waardoor de chatbot wordt uitgezonden met wat Openai beschrijft als”vroeg agentisch gedrag”waardoor het onafhankelijk hulpmiddelen kan kiezen als browing-of code-analyse.

bijna onmiddellijk, deze geavanceerde modellen, is deze geavanceerde modellen niet voor hun capabiliteiten, maar ook voor onverwachte outputs. Rapporten kwamen opduikend die deze nieuwere modellen suggereren die onzichtbare karakters in hun tekst insluiten, waarbij een debat werd opgeroepen over de vraag of OpenAI een subtiel text-watermerksysteem implementeerde of dat de modellen eenvoudig geleerd zijn, zij het soms problematisch, typografische gewoonten.

verborgen karakters: watermerk? href=”https://www.rumidocs.com/newsroom/new-chatgpt-models-seem-to-leave-watermarks-on-text”target=”_ blank”> aan het licht gebracht door rumi , een AI-startup met een focus op academische academische academ, centrum op het uiterlijk van speciaal gemodificeerde tekst van speciaal gemodeerd door O4 en O4-Mini. Unicode is een standaard voor het coderen van tekens uit verschillende schrijfsystemen; Deze specifieke tekens, voornamelijk de smalle no-break space (nnbsp, u+202f) , render identiek aan standaardruimten in de meeste opvattingen in de meeste opvattingen in de meeste opvattingen in de meeste opvattingen in de meeste opvattingen in de meeste opvattingen in de meeste opvattingen, maar bezitten onderscheiden onderliggende codes codes zoals Soscisurvey’s Character Viewer of code-editors zoals sublieme tekst

. src=”https://winbuzzer.com/wp-content/uploads/2023/02/openai-loogo.png”>

rumi merkt op dat dit patroon systematisch lijkt, afwezig in tests van oudere modellen zoals GPT-4O, en werd gepositioneerd het een intentief, hoewel gemakkelijk te vervullen, watermerk. De methode omvat een eenvoudige find-and-rrep om de tekens te verwijderen, een proces dat Rumi in een video heeft aangetoond.

[Ingebouwde inhoud]

Het Rumi-artikel merkte ook op dat, in tegenstelling tot mogelijk “ImageGen”-labels Op GPT-4O-afbeeldingsuitgangen voor gratis gebruikers al in het begin van april 2025.

Openai ontwikkelde zelfs de uitrol van, een taalpatroon-gebaseerde tekstwatermarkeringstool in het midden van de 2024. Deze inspanningen weerspiegelen een industriebrede drang naar herkomst, te zien in Google’s Synthid voor afbeeldingen, Microsoft’s metagegevens die via Azure Openai Service en de verplichte zichtbare labels van Meta zijn uitgerold in februari 2024.

Toch blijven de fundamentele uitdagingen; Onderzoek van de Universiteit van Maryland gepubliceerd in oktober 2023 toonde aan dat veel watermerkmethoden kwetsbaar kunnen zijn voor aanvallen zoals”diffusiepurificatie”of”spoofing”.

Beyond Watermarks: betrouwbaarheidsvragen blijven hangen

Dit specifieke debat toevoegt aan een groeiende lijst van observaties over de O3 en O4-Mini-modellen. Hun release viel samen met de eigen gegevens van Openai, gedetailleerd in de modellen ’“2021 MacBook Pro” of Fabricage Details over de details over de python omgeving Het betrekken van versterkingsonderwijs van menselijke feedback (RLHF) waar menselijke beoordelaars kunnen worstelen om complexe stappen te verifiëren, kan een factor zijn:”Onze hypothese is dat het soort versterkingsleren dat wordt gebruikt voor O-serie-modellen kan problemen versterken die meestal worden beperkt (maar niet volledig gewist) door standaard na training pipelines.”Het veiligheidsframework met een clausule die suggereert dat regels mogelijk kunnen worden gewijzigd op basis van acties van concurrenten ( open adena. T

zijn ontwikkelingen trokken kritiek, met één bron die naar verluidt de testbenadering’roekeloos’noemde, terwijl een voormalig technisch personeelslid werd geciteerd en zei:”Het is een slechte praktijk om een ​​model vrij te geven dat anders is dan dat u evalueerde.”Openai’s Head of Safety Systems, Johannes Heidecke, verdedigde het tempo en beweerde:”We hebben een goede balans tussen hoe snel we bewegen en hoe grondig we zijn.”Dit complexe beeld komt naar voren wanneer de modellen snelle integratie in platforms zien zoals Microsoft Azure en GitHub Copilot.