Pas pjesëmarrjes së trazuar të modelit të tij GPT-5, Openai po teston një veçori të re”përpjekje të të menduarit”për ChatGPT që u jep përdoruesve kontroll më të kokrrizuar mbi performancën e AI. I spikatur në fund të gushtit, vendosja eksperimentale u lejon përdoruesve të zgjedhin nga katër nivele të intensitetit llogaritës. Duke i lënë përdoruesit të ekuilibrojnë shpejtësinë e përgjigjes kundër thellësisë analitike, Openai synon të adresojë shqetësimet e besueshmërisë dhe të përmirësojë përvojën e përdoruesit. Qëllimi ishte të eliminonte atë që CEO Sam Altman e kishte quajtur një”rrëmujë konfuze”të modeleve të ndryshme. Sidoqoftë, strategjia ambicioze u shpalos shpejt. Modeli shpiku emra të shtetit fiktiv si”Onegon”, dështoi në matematikë themelore dhe prodhoi rezultate të pakuptimta, duke çuar në reagime të përhapura. Pritja publike ishte aq negative sa kompania u detyrua të ishte në një qëndrim të rrallë mbrojtës.

Deri më 8 gusht, Altman lëshoi ​​një falje publike. Ai pranoi se”një”autoswitcher”i gabuar midis mënyrave të brendshme të modelit e kishte bërë atë për një kohë më të gjatë-dukej mënyra se si të synohej”, duke fajësuar një të metë teknike për performancën e dobët. Kjo pengesë siguroi municion për kritikët dhe krijoi një hapje për rivalët, të cilët ishin të shpejtë për të përfituar nga situata.

vetëm disa ditë më vonë, më 12 gusht, Openai ekzekutoi një përmbysje të konsiderueshme. Ai restauroi GPT-4O për pagimin e pajtimtarëve dhe prezantoi mënyrat manuale për GPT-5:”Auto”,”të shpejtë”dhe”të menduarit”. Ky strumbullar sinjalizoi një mësim të madh për udhëheqësin e AI në lidhje me balancimin e inovacionit me pritjet e përdoruesit. Vetë Altman la të kuptohet në këtë ndërrim, duke thënë,”Një duke mësuar për ne nga ditët e kaluara është që ne me të vërtetë duhet të arrijmë në një botë me më shumë personalizim për përdorues të personalitetit të modelit.”Për reagimet e përdoruesit. Sipas raportimeve, veçoria paraqet katër nivele të dallueshme të intensitetit për përdoruesit që të zgjedhin. Këto janë”të lehta”,”standarde”,”të zgjatura”dhe”max.”href=”https://t.co/onwcbq4cuw”target=”_ bosh”> pic.twitter.com/onwcbq4cuw

-tibor blaho (@btibor91) . Raportet çështje të hollësishme si”sikofantia ekstreme”, ku modelet do të vërtetonin besimet mashtruese të një përdoruesi dhe një gatishmëri për të ndihmuar me kërkesa të rrezikshme.

Testet gjithashtu nxorën në pah një ndarje filozofike. Modelet e Antropic shpesh refuzuan të përgjigjen për të shmangur gabimet, duke i dhënë përparësi kujdesit për shërbimet. Në të kundërt, modelet e Openai ishin më të dobishme, por gjithashtu . Marcus, i cili argumentoi,”Askush me integritet intelektual ende nuk mund të besojë se shkallëzimi i pastër do të na çojë në AGI”, duke pyetur të gjithë paradigmën”më të madhe është më mirë”.

Puna ime këtu është bërë me të vërtetë. Askush me integritet intelektual ende nuk mund të besojë se shkallëzimi i pastër do të na çojë në AGI. href=”https://twitter.com/garmarcus/status/1953939152594252170?ref_src=twsrc%5etfw pretendoi se në kompani,”Kultura e sigurisë dhe proceset kanë marrë një prapambetje në produkte me shkëlqim.”Lëvizja sinjalizon një qendër strategjike nga një qasje e automatizuar”me një madhësi të përshtatshme”ndaj një përvoje më transparente, të personalizueshme dhe përfundimisht më të mbrojtur të përdoruesit.