Évek óta a mesterséges intelligencia-kutatás uralja azokat a vállalatok, amelyek milliárdokat öntenek masszív AI modellekbe, feltételezve, hogy a puszta számítási erő tovább fogja tartani őket. De a Stanfordi Egyetemen és a Washingtoni Egyetemen egy új projekt kihívja ezt a hitet. és a mélység.=”812″magasság=”909″src=”adatok: image/gif; base64, r0lgodlhaqabaaaaach5baeaalaaaaaaaaaaaaaaow==”>

kapcsolódó: Az arc átölelése az Openai mély kutatásával, nyílt forrású alternatívával

kódja, módszertana és adatkészlete elérhetővé vált a , bárki számára elérhetővé teszi, hogy ellenőrizze, replikálódjon vagy javítson. A projekt kritikus kérdést vet fel az AI ipar számára: Van-e még egy milliárd dolláros költségvetés a legmagasabb szintű versenyhez?/strong>

ai óriások, mint például az Openai, a Google és a Microsoft, nagymértékben fogadnak a versenytársak kiadását az AI modellképzésben és az infrastruktúrában. ezt az előnyt szem előtt tartva tervezték. Az S1 fejlesztése azonban bizonyítja, hogy a magas szintű érvelési képességek megismételhetők a költségek töredékén. Egy nagyobb AI rendszer. Matematikai és érvelési kérdések. Amint azt a s1 kutatási cikkben kifejtette,„ S1K-t építünk fel, amely 1000 gondosan kurátoros kérdésből áll, és érveléssel párosul, érveléssel párosítva, érveléssel párosítva. Kísérletek és válaszok a Gemini-ból származó kísérletből desztilláltak. Ingyenes API-hozzáférés ehhez a modellhez, a szolgáltatási feltételek tiltják a kimeneteket a versengő AI modellek kidolgozásához. Modellek

Annak ellenére, hogy egy viszonylag kicsi adatkészleten képzettek, az S1 az Openai és a DeepSeek modelljeihez hasonló teljesítményszinteket ér el. A megoldás képessége szerint az S1 56,7%-os pontosságot ért el, amely felülmúlta az Openai O1-előrejelzését, amely 44,6%-ot eredményezett. , A modell bizonyos korlátozásokat mutat a szélesebb tudományos ismeretek terén. A GPQA-Diamond referenciaértékén, amely fejlett fizikai, biológiai és kémiai problémákat tartalmaz, az S1 59,6%-ot szerzett, az Openai és a Google modelljeinek elmaradása.://winbuzzer.com/wp-content/uploads/2025/02/s1-32b-benchmarks-aims-2024-math-500-gpqa-diamond-ficial.jpg”> s1 modell teljesítmény-referenciaértékekhez képest a vezető AI modellekhez képest, a vezető AI modellekhez képest. A Google és az Openai

​​Mégis, egy 30 perc alatti képzett modellnél, minimális számítással, ezek az eredmények kihívást jelentenek annak a feltételezésnek, hogy a nagyobb adatkészletekre és a hosszabb edzési ciklusokra mindig szükség van. Javítja az AI érvelést

A kutatás egy váratlan megállapítást is feltárott, amely javítja az S1 pontosságát. Ahelyett, hogy maga a modell módosítaná, kísérleteztek a felszólítások felépítésének módjával. „Várj” többször a modell generációjára, amikor megpróbál véget vetni. Ez arra készteti a modellt, hogy ellenőrizze a válaszát, gyakran rögzítve a helytelen érvelési lépéseket.”

Egyszerűen hozzáadva a„ vár “szót a kényszerített S1-hez, hogy több időt töltsön a válasz megfontolása előtt, mielőtt a válasz véglegesítése lenne. Ez a megközelítés igazodik a Legfrissebb kutatás a tesztidő-méretezéshez , ahol a modellek javítják a pontosságot. Több számítás az összetett feladatokhoz, ahelyett, hogy azonnal reagálna. Az S1-hez hasonló modellek kihívást jelentenek azoknak a vállalatoknak, amelyek erősen befektettek az exkluzív AI rendszerekbe.. >

Az Openai már megmutatta a technológiához való hozzáférés szigorításának jeleit. A vállalat jelenleg a mély kutatási funkcióját a fizetett Chatgpt Pro felhasználókra korlátozza, korlátozva a külső AI fejlesztők azon képességét, hogy megvizsgálják módszereit. Eközben a Google szigorú kamatláb-korlátokat ír elő a Gemini 2.0 API-hoz való hozzáférésre, és kifejezetten megtiltja a versengő AI modellek képzését az outputok segítségével. vagy jogi korlátozások annak megakadályozására, hogy AI által generált kimeneteik más rendszerek képzéséhez felhasználhassák őket. E szabályok végrehajtása azonban a nyílt forráskódú AI kutatási környezetekben rendkívül nehéz. Az AI kutatása tovább halad, a nyílt forráskódú innováció és a védett AI fejlesztés közötti csata egyre intenzívebbé válik. A desztillált AI modellek sikere, mint például az S1 és a Sky-T1 azt sugallja, hogy az AI képességek, hogy az AI képességek már nem kizárólagos a technológiai óriások. A független kutatók azonban ellensúlyozzák, hogy a nyílt forráskódú modellek javítják az átláthatóságot, lehetővé téve a szakértők számára, hogy az AI rendszereket vállalati befolyás nélkül ellenőrzik és finomítsák.

A kormányok és a szabályozók szintén szorosan figyelik ezeket a fejleményeket. Az AI politikaalkotás eddig a nagyszabású modellek irányítására összpontosított, ám az olcsó AI replikációs technikák kialakulása a beszélgetést az adathozzáférési korlátozások és az etikai megfontolások felé változtathatja. átalakíthatja az AI iparágot. Ha az AI erőteljes érvelése 50 dollár alatt megismételhető, akkor a kisebb AI kutatócsoportok és az induló vállalkozások hamarosan képesek versenyezni a milliárd dolláros AI-társaságokkal. tesztelheti, módosíthatja és kibővítheti képességeit. Ha azonban az Openai, a Google és más AI laboratóriumok ezt fenyegetésnek tekintik, akkor a szigorúbb API-hozzáférési ellenőrzéseket, az engedélyezési korlátozásokat vagy akár az AI desztillációs módszerekkel szembeni jogi intézkedéseket is ösztönözhetik. A vállalati ellenőrzéssel, a szabadalmaztatott modellekkel, vagy az AI kutatás tovább halad, tovább haladva, így a magas szintű AI-érvelés mindenki számára elérhető? Tudassa velünk a megjegyzésekben, mit gondol.

Categories: IT Info