OpenAI și-a împins modelele mai autonome O3 și O4-MINI pentru a plăti abonații ChatGPT la mijlocul lunii aprilie, echipând chatbot cu ceea ce Openai descrie drept „comportament agentic timpuriu„ care îi permit să aleagă în mod independent instrumente precum navigarea sau analiza codului.

aproape imediat, aceste modele avansate au atras atenția nu doar pentru capabilitățile lor, dar, de asemenea, pentru o depășire, de asemenea, pentru o depășire. Au apărut rapoarte care sugerează că aceste modele mai noi încorporează caractere invizibile în textul lor, stârnind o dezbatere cu privire la faptul dacă Openai a implementat un sistem subtil de filigranare a textului sau dacă modelele expune pur și simplu obiceiuri învățate, deși uneori problematice, tipografice. href=”https://www.rumidocs.com/newsroom/new-chatgpt-models-seem-to-leve-watermarks-on-text”target=”_ blank”> adus la lumină de Rumi , o pornire AI cu o concentrare pe academicieni, se concentrează pe apariția unor personaje unicode speciale în cadrul unui text mai lung generat de O3 și O4-Mini. Unicode este un standard pentru codificarea caracterelor din diferite sisteme de scriere; Aceste caractere specifice, în primul rând Spațiu îngust fără break (nnbsp, u+202f) , redați identic spații standard în majoritatea vizualizărilor, dar posedă coduri subterane distincte detectabile cu instrumente specializate ca vizualizatorul personajului soscisurvey sau editori de cod, cum ar fi Textul sublime . src=”https://winbuzzer.com/wp-content/uploads/2023/02/openai-logo.png”>

Rumi notează că acest model pare sistematic, absent în testele modelelor mai vechi precum GPT-4O, iar pozitionul a fost un lucru intenționat, deși ușor de învins, de apă. Metoda implică o simplă descoperire și replace pentru a elimina personajele, un proces demonstrat într-un videoclip.

[Conținut încorporat]

Articolul Rumi a menționat, de asemenea, că, spre deosebire de potențial inacore-AI-IS-Misleading”Target=”_ Blank”> Inacculat AI AI de detectare a instrumentelor de detecție Aproape zero falsuri pozitive, deși ușurința sa de ocolire rămâne un dezavantaj major.

Cu toate acestea, analiza tehnică poate duce și la explicații alternative: personajele ar putea fi corecte tipografic. Spațiile care nu sunt break (atât înguste, cât și standard) sunt utilizate în mod legitim pentru a preveni pauzele de linie nedorite între elementele conexe, cum ar fi simbolurile valutare și cantitățile sau inițialele și prenumele, asigurând lizibilitatea.

Este plauzibil modelele, instruite pe vaste seturi href=”https://en.wikipedia.org/wiki/non-breaking_space”target=”_ blank”> am învățat această utilizare corectă și aplică acum aceste reguli-poate chiar mai sârguincioase decât mulți oameni. Dacă este exact, acest lucru reframează constatarea de la un mecanism deliberat de urmărire la o cronometrare a generației avansate de text a modelelor, deși personajele neobișnuite ar putea totuși să semnalizeze din neatenție textul în timpul verificărilor naive.

OpenAI în sine nu a făcut nicio declarație oficială care să confirme sau să refuze utilizarea acestor personaje ca lucrări de whatere, iar Rui a speculat că Openai ar putea elimina caracteristica dacă este vorba de a câștiga atenție. Eforturile de autentificare

Indiferent de intenție, prezența acestor personaje neobișnuite are implicații, în special în mediul academic, unde identificarea asistenței AI este o preocupare majoră. Cu OpenAI oferind acces gratuit la studenți „până la sfârșitul lunii mai”, ușurința eliminării înseamnă că orice avantaj de detectare ar putea fi de scurtă durată și potențial nedrept pentru utilizatorii care nu sunt conștienți.

Această situație răsună explorările anterioare ale lui Openai în autentificarea conținutului. The company started adding C2PA metadata (a standard for certifying content source and history, often called Content Credentials) to DALL·E 3 images in early 2024 and is testing visible „ImageGen” pe ieșirile de imagine GPT-4O pentru utilizatorii gratuite, la începutul lunii aprilie 2025.

OpenAI chiar s-a dezvoltat, dar a întrerupt lansarea, un instrument de filigranare de text bazat pe model lingvistic la mijlocul anului 2024, din cauza exactității și a problemelor de bypass. Aceste eforturi reflectă o apăsare la nivelul întregii industrii pentru proveniență, văzută în sintetizația Google pentru imagini, încorporarea de metadate ale Microsoft prin intermediul serviciului Azure Openai și etichetele vizibile obligatorii ale Meta în februarie 2024.

Totuși, rămân provocările fundamentale; Cercetările de la Universitatea din Maryland publicată în octombrie 2023 au arătat că multe metode de filigranare pot fi vulnerabile la atacuri precum „purificarea difuziei” sau „spoofing”.

dincolo de filigrane: Întrebările de fiabilitate persistă

Această dezbatere specifică adaugă o listă în creștere a observațiilor despre modelele O3 și O4-Mini. Eliberarea lor a coincis cu datele proprii ale lui Openai, detaliate în modelele “ oficial system , showingh”Target=”_ Blank”> System oficial , showing”Target=”_ Blank”> System oficial

Pe punctul de referință PersonQA, O3 a generat informații incorecte 33% din timp, iar O4-min a atins 48%, mult peste gama de ~ 15% de modele mai vechi O1 și O3-min. Purtătorul de cuvânt al Openai, Niko Felix, a recunoscut acest lucru TechCrunch, afirmând: „Abordarea halucinațiilor pe toate modelele noastre este un domeniu de cercetare continuu și lucrăm continuu pentru a le îmbunătăți precizia și fiabilitatea. href=”https://transluce.org/investigating-o3-truthfulnes href=”https://truthfulful.docent.transluce.org/O3-2025-04-03/transcript/macbook_pro_0_human-generated_attacks_0″Target=”_ Blank”>”2021 MacBook Pro” sau fabricând detalii despre Python Mediu .

traducerea cercetării, eventual a sugerat de cercetările, eventualul Chowdhury a sugerat techcrunch pentru techcrunch. Implicarea învățării de consolidare din feedback-ul uman (RLHF) în care evaluatorii umani s-ar putea lupta pentru a verifica pașii complexi, ar putea fi un factor: „Ipoteza noastră este că tipul de învățare de consolidare folosită pentru modelele din seria O poate amplifica probleme care sunt de obicei atenuate (dar care nu sunt pe deplin șterse) prin standard post-instruire, care sunt de obicei. Actualizat cadrul său de siguranță cu o clauză care sugerează regulile ar putea fi modificate pe baza acțiunilor concurenților ( Openai a declarat : „Dacă un alt frontier AI dezvoltator eliberează un sistem de risc înalt fără a compara Safeguards comparativ, am putea ajusta cerințele noastre. T

Hese Developments a atras critici, cu o sursă apelând la abordarea de testare „nechibzuită”, în timp ce un fost membru al personalului tehnic a fost citat spunând: „Este o practică proastă să eliberați un model diferit de cel pe care l-ați evaluat”. Șeful sistemelor de siguranță al lui Openai, Johannes Heidecke, a apărat ritmul, afirmând: „Avem un echilibru bun despre cât de repede ne mișcăm și cât de minuțioși suntem”. Această imagine complexă apare pe măsură ce modelele văd integrarea rapidă în platforme precum Microsoft Azure și Github Copilot.

Categories: IT Info