Openai shtyu modelet e saj O3 dhe O4-Mini në Chatgpt për pagimin e pajtimtarëve rreth 16 Prillit 2025, duke i ndjekur ata si një hap drejt asistentëve më autonome të AI. Këto modele u krijuan me”sjellje të hershme agjentike”, të afta për të vendosur në mënyrë të pavarur kur të përdorin mjete si shfletimi në internet, ekzekutimi i kodit, ose analiza e skedarëve. Nisja zbuloi një prirje shqetësuese: në standardin e PersonQA të Openai, i krijuar për të provuar njohuri për njerëzit, O3 prodhoi informacione të pasakta ose të fabrikuara 33% të kohës. Modeli O4-Mini u largua më keq, duke halucinuar në 48% të rasteve. Ndërsa në përgjithësi tregon përmirësime në standardet e arsyetimit dhe kodimit në krahasim me versionet më të vjetra, kjo rritje specifike e trillimit ngre pyetje në lidhje me tregtinë e përfshirë në zhvillimin e sistemeve më agjentë. href=”https://cdn.openai.com/pdf/2221c875-02dc-4789-800b-e7758f3722c1/o3-and-o4-Mini-system-card.pdf”target=”_ bosh”> O3 dhe O4-Mini System”Teorizimi i kësaj sepse modelet”bëjnë më shumë pretendime në përgjithësi”, ato prodhojnë deklarata më të sakta dhe më të pasakta. Zëdhënësi i Openai, Niko Felix i tha TechCrunch,”Adresimi i halucinacioneve në të gjitha modelet tona është një zonë e vazhdueshme e hulumtimit, dhe ne vazhdimisht po punojmë për të përmirësuar saktësinë dhe besueshmërinë e tyre.”Laboratori i hulumtimit AI përktheni gjetjet e publikuara të AI më 16 prill 2025, nga testimi i një versioni para-lëshimi të O3 (`O3-2025-04-03`), duke detajuar një model të modelit Përditësuar udhëzimet e tij të brendshme të sigurisë mund të jenë të bazuara në mënyrë të përparme,”Zhvilluesi lëshon një sistem me rrezik të lartë pa mbrojtje të krahasueshme, ne mund të rregullojmë kërkesat tona.”Kompania theksoi se rregullime të tilla do të ndiqnin kontrolle rigoroze dhe zbulimin publik. Një burim i njohur me vlerësimin e quajtur qasja”e pamatur”, duke shtuar,”Kjo është një recetë për katastrofë”. Një tjetër raportohet se e kundërshtoi atë me vlerësimin më të gjatë të GPT-4, duke thënë,”Ata thjesht nuk janë duke i dhënë përparësi aspak sigurinë publike.”Një ish-anëtar i stafit teknik të Openai u citua të thoshte,”isshtë praktikë e keqe të lëshosh një model i cili është i ndryshëm nga ai që vlerësove”. Duke mbrojtur procesin, Shefi i Sistemeve të Sigurisë së Openai, Johannes Heidecke, pohoi për FT,”Ne kemi një ekuilibër të mirë se sa shpejt lëvizim dhe sa të plotë jemi,”duke treguar automatizimin e shtuar në vlerësim. Përktheni faktorët e sugjeruar të AI-së specifike për modelet e serive O mund të përkeqësojnë çështjen. Një hipotezë përqendrohet në mësimin e përforcimit të bazuar në rezultate (RL): Nëse AI është trajnuar kryesisht dhe shpërblehet për prodhimin e përgjigjes së saktë përfundimtare, mund të mësojë të fabrikojë hapa të ndërmjetëm, si pretendimi i përdorimit të mjeteve, nëse kjo lidhet me suksesin, edhe nëse procesi i përshkruar është i rremë. Duke e trajnuar atë bazuar në preferencat njerëzore për përgjigje të ndryshme të modelit. Sidoqoftë, nëse vlerësuesit njerëzorë nuk mund të verifikojnë me lehtësi korrektësinë e hapave komplekse të ndërmjetme, modeli mund të mësojë të gjenerojë arsyetim të besueshëm, por të rremë, nëse çon në një rezultat të preferuar. Sipas Dokumentacioni i Openai , kjo gjurmë arsyetimi nuk është kaluar midis kthesave të bisedave. Përktheni teorizon këtë mungesë të qasjes në arsyetimin e tij paraprak mund ta lërë modelin të paaftë që të përgjigjet me të vërtetë pyetjet e përdoruesit se si arriti në një përfundim të hershëm.”Hipoteza jonë është se lloji i mësimit të përforcimit të përdorur për modelet e serive O mund të amplifikojë çështje që zakonisht zbuten (por jo të fshihen plotësisht) nga tubacionet standarde pas stërvitjes,”deklaroi se përkthen studiuesit Neil Chowdhury në TechCrunch. Shërbimi i tyre i perceptuar. Këto modele mbërritën së bashku me azhurnimet e tjera të Openai si Përpunimi Vizual i Zgjeruar në Mars dhe aktivizimi i veçorisë së kujtesës”Kujtoni”në 11 Prill. Kjo shpaloset ndërsa industria më e gjerë merret me transparencë, e dëshmuar nga kritika ndaj detajeve të vonuara dhe të rralla të sigurisë së Google për modelin e saj Binjak 2.5 Pro, duke ngritur pyetje në vazhdim në lidhje me ekuilibrin midis shpejtësisë së inovacionit dhe vendosjes së besueshme të AI.
Categories: IT Info