Itinulak ng Openai ang mas autonomous na mga modelo ng O3 at O4-Mini na magbayad ng mga tagasuskribi ng ChATGPT sa paligid ng kalagitnaan ng Abril, na nagbibigay ng chatbot sa kung ano ang inilarawan ni Openai bilang”maagang pag-uugali ng ahente”na pinapayagan ito na nakapag-iisa na pumili ng mga tool tulad ng pag-browse o pagsusuri ng code. Ang mga ulat na naka-surf na nagmumungkahi ng mga mas bagong modelong ito ay naka-embed ng mga hindi nakikita na mga character sa kanilang teksto, na nag-spark ng isang debate tungkol sa kung ipinatupad ng OpenAi ang isang banayad na sistema ng watermarking ng teksto o kung ang mga modelo ay simpleng nagpapakita ng natutunan, kahit na may problema, typograpical na gawi. href=”https://www.rumidocs.com/newsroom/new-chatgpt-models-seem-to-leave-watermarks-on-text”target=”_ blangko”> dinala sa pamamagitan ng rumi , isang pagsisimula ng ai na may pokus sa akademya, mga sentro sa hitsura ng mga espesyal na character na unicode sa loob ng mas mahaba na teksto na nabuo ng O3 at O4-mini. Ang Unicode ay isang pamantayan para sa pag-encode ng mga character mula sa iba’t ibang mga sistema ng pagsulat; Ang mga tiyak na character na ito, lalo na ang makitid na walang-break na puwang (nnbsp, u+202f) href=”https://www.soscisurvey.de/tools/view-chars.php”target=”_ blangko”> soscisurvey’s character viewer o code editor tulad ng slime text text src=”https://winbuzzer.com/wp-content/uploads/2023/02/openai-loogo.png”> Ang pamamaraan ay nagsasangkot ng isang simpleng find-and-repaster upang alisin ang mga character, isang proseso na ipinakita ni Rumi sa isang video.

[naka-embed na nilalaman]

Ang artikulo ng rumi ay nabanggit din na, hindi katulad ng potensyal na natutunan ang wastong paggamit na ito at ngayon ay inilalapat ang mga patakarang ito-marahil kahit na mas masigasig kaysa sa maraming tao. Kung tumpak, binabaan nito ang paghahanap mula sa isang sinasadyang mekanismo ng pagsubaybay sa isang quirk ng advanced na text henerasyon ng mga modelo, kahit na ang hindi pangkaraniwang mga character ay maaari pa ring hindi sinasadyang i-flag ang teksto sa panahon ng walang muwang na mga tseke. at mga nakaraang pagsisikap sa pagpapatunay

Sa OpenAI na nag-aalok ng libreng pag-access ng mag-aaral”hanggang sa katapusan ng Mayo,”ang kadalian ng pag-alis ay nangangahulugang ang anumang kalamangan sa pagtuklas ay maaaring maikli ang buhay at potensyal na hindi patas na hindi alam ang mga gumagamit. Sinimulan ng kumpanya ang pagdaragdag ng C2PA metadata (isang pamantayan para sa pagpapatunay ng mapagkukunan at kasaysayan ng nilalaman, na madalas na tinatawag na mga kredensyal ng nilalaman) sa mga imahe ng Dall ยท E 3 sa unang bahagi ng 2024 at sinusubukan ang nakikita “imagegen”label Kahit na binuo, ngunit naka-pause ang pag-rollout ng, isang tool na batay sa pattern na nakabatay sa pattern na pang-watermarking sa kalagitnaan ng 2024 dahil sa kawastuhan at mga alalahanin sa bypass. Ang mga pagsisikap na ito ay sumasalamin sa isang buong industriya para sa pagpapatunay, na nakikita sa SynthId ng Google para sa mga imahe, ang pag-embed ng metadata ng Microsoft sa pamamagitan ng serbisyo ng Azure Openai, at ang ipinag-uutos na mga nakikitang mga label ng Meta noong Pebrero 2024. Ang pananaliksik mula sa University of Maryland na inilathala noong Oktubre 2023 ay nagpakita ng maraming mga pamamaraan ng watermarking ay maaaring mahina laban sa mga pag-atake tulad ng”pagsasabog ng paglilinis”o”spoofing”. Ang kanilang paglaya ay kasabay ng sariling data ng Openai, na detalyado sa mga modelo ng’ gawa-gawa na pagpapatupad ng python code Hindi ito tatakbo, na nag-imbento ng masalimuot na mga excuse na kinasasangkutan ng mga error sa pagkopya o pag-angkin ng mga kalkulasyon ay ginawa sa isang hindi umiiral na “2021 macbook pro”href=”https://truthfulness.docent.transluce.org/o3-2025-04-03/transcript/python_repl_0_human-generated_attacks_0″target=”blank”> python na kapaligiran . Ang pagsangkot sa pag-aaral ng pampalakas mula sa feedback ng tao (RLHF) kung saan ang mga rater ng tao ay maaaring magpupumilit na mapatunayan ang mga kumplikadong hakbang, ay maaaring maging isang kadahilanan:”Ang aming hypothesis ay ang uri ng pag-aaral ng pampalakas na ginamit para sa mga modelo ng O-Series ay maaaring palakasin ang mga isyu na karaniwang nabawasan (ngunit hindi ganap na mabura) sa pamamagitan ng karaniwang mga post-pagsasanay na mga pipeline.”Nai-update ang balangkas ng kaligtasan nito na may isang sugnay na nagmumungkahi ng mga patakaran ay maaaring mabago batay sa mga aksyon ng katunggali ( nabanggit ni Openai :”Kung ang isa pang Frontier AI developer ay naglabas ng isang sistema ng mataas na peligro nang walang maihahambing na safeguards, na maaaring ayusin ang aming mga kahilingan.”T

Ang pinuno ng mga sistema ng kaligtasan ni Openai, si Johannes Heidecke, ay ipinagtanggol ang tulin ng lakad, iginiit,”Mayroon kaming isang mahusay na balanse kung gaano kabilis ang paglipat namin at kung gaano tayo masinsinang.”Ang kumplikadong larawan na ito ay lumilitaw habang nakikita ng mga modelo ang mabilis na pagsasama sa mga platform tulad ng Microsoft Azure at GitHub Copilot.

Categories: IT Info