Openai shtyu modelet e tij më autonome O3 dhe O4-Mini për të paguar pajtimtarët Chatgpt rreth mesit të prillit, duke pajisur chatbot me atë që Openai e përshkruan si”sjellje të hershme agjentike”duke e lejuar atë të zgjedhë në mënyrë të pavarur, si shfletimi ose analiza e kodit. Raportet u shfaqën duke sugjeruar që këto modele më të reja ngulisin karaktere të padukshme në tekstin e tyre, duke nxitur një debat nëse Openai zbatoi një sistem delikate të filigranit me tekst ose nëse modelet thjesht po ekspozojnë të mësuar, megjithëse ndonjëherë problematikë, zakonet tipografike. href=”https://www.rumidocs.com/newsroom/new-chatgpt-models-seem-to-leave-watermarks-on-text”target=”_ bosh”> nxori në dritë nga rumi , një fillestar i AI me një fokus në akademikë, qendra në pamjen e karaktereve speciale unicode”brenda tekstit më të gjatë të gjeneruar nga O3 dhe O4-Mini. Unicode është një standard për kodimin e karaktereve nga sisteme të ndryshme shkrimi; Këta personazhe specifikë, kryesisht Hapësirë ​​e ngushtë pa-pushim (NNBSP, U+202f) , Jepni në mënyrë identike me hapësirat standarde në shumicën e pikëpamjeve, por posedojnë kode të dallueshme nënkuptuese me mjete të specializuara si Soscisurvey’s Karakterin ose kodet e kodeve si

Rumi vëren se ky model duket sistematik, mungon në testet e modeleve më të vjetra si GPT-4O, dhe pozoi se ishte një qëllim i lehtë, megjithëse i mundshëm, i mundshëm, ujku. Metoda përfshin një gjetje të thjeshtë për të hequr karakteret, një proces Rumi i demonstruar në një video.

[Përmbajtja e ngulitur]

Artikulli i Rumi gjithashtu vuri në dukje se, ndryshe nga potencialisht mësoi këtë përdorim të duhur dhe tani po zbatojnë këto rregulla-mbase edhe më me zell se shumë njerëz. Nëse është e saktë, kjo reframes gjetjen nga një mekanizëm i qëllimshëm i gjurmimit në një quirk të gjenerimit të tekstit të përparuar të modeleve, megjithëse personazhet e pazakontë ende mund të flamurin pa dashje tekstin gjatë kontrolleve naive. Përpjekjet e kaluara të vërtetimit

Pavarësisht nga qëllimi, prania e këtyre personazheve të pazakontë ka implikime, veçanërisht në akademi ku identifikimi i ndihmës së AI është një shqetësim i madh. Me Openai duke ofruar qasje falas të studentëve”deri në fund të majit,”Lehtësia e heqjes do të thotë që çdo avantazh i zbulimit mund të jetë jetëshkurtër dhe potencialisht i padrejtë për përdoruesit e pavetëdijshëm.

Kjo situatë i bën jehonë eksplorimeve të mëparshme të Openai në vërtetimin e përmbajtjes. Kompania filloi të shtojë metadata C2PA (një standard për certifikimin e burimit dhe historisë së përmbajtjes, shpesh të quajtur kredencialet e përmbajtjes) në dall · e 3 imazhe në fillim të vitit 2024 dhe po teston të dukshme “Imagegen”Etiketa në rezultatet e imazhit GPT-4O për përdoruesit e lirë si kohët e fundit si në fillim të prillit 202. Por ndaloi pjesëmarrjen e një mjeti gjuhësor me tekst të bazuar në modelin e fonterit në mesin e vitit 2024 për shkak të saktësisë dhe shqetësimeve të anashkalimit. Këto përpjekje pasqyrojnë një shtytje në mbarë industrinë për origjinë, të parë në sintedin e Google për imazhe, metadata e Microsoft-it duke u futur përmes shërbimit Azure Openai, dhe etiketat e dukshme të detyrueshme të Meta u rrotulluan në shkurt 2024.

akoma, sfidat themelore mbeten; Hulumtimet nga Universiteti i Maryland të botuara në Tetor 2023 treguan se shumë metoda të ujërave të fitur mund të jenë të ndjeshme ndaj sulmeve si”pastrimi i difuzionit”ose”spoofing”. Lëshimi i tyre përkoi me të dhënat e veta të Openai, të hollësishme në modelet’ fabrikuar kodi i ekzekutimit të Python Nuk mund të funksiononte, duke shpikur justifikime të hollësishme që përfshijnë gabime të kopjimit ose pretendimin e llogaritjeve të bëra në një joekzistent “2021 MacBook Pro” ose detaje të pëlhurave në lidhje me mjedisi i pythonit . Mësimi i përforcimit nga reagimet njerëzore (RLHF) ku vlerësuesit njerëzorë mund të luftojnë për të verifikuar hapa komplekse, mund të jetë një faktor:”Hipoteza jonë është se lloji i mësimit të përforcimit të përdorur për modelet e serive O mund të amplifikojë çështjet që zakonisht janë të lehtësuar (por jo të fshira plotësisht) nga Pipelinat standarde pas trainimit.”Kuadri i tij i sigurisë me një klauzolë që sugjeron rregulla mund të ndryshohen potencialisht bazuar në veprimet e konkurrencës ( deklaruar :”nëse një zhvillues tjetër i përparëm i AI lëshon një sistem të lartë me rrezik të lartë, ne mund të rregullojë kërkesat tona.”T

Hese zhvillimet tërhoqën kritika, me një burim që thuhet se e quan qasjen e testimit”të pamatur”, ndërsa një ish-anëtar i stafit teknik u citua duke thënë:”sshtë praktikë e keqe të lëshojë një model i cili është i ndryshëm nga ai që vlerësuat”. Kreu i sistemeve të sigurisë së Openai, Johannes Heidecke, mbrojti ritmin, duke pohuar,”Ne kemi një ekuilibër të mirë se sa shpejt lëvizim dhe sa të plotë jemi”. Kjo pamje komplekse shfaqet ndërsa modelet shohin integrimin e shpejtë në platforma si Microsoft Azure dhe Github Copilot.

Categories: IT Info