A

Alibaba kutatói bevezették a Zerosearch-t, egy úttörő keretet, amely újradefiniálódott, hogy a nagy nyelvi modellek (LLMS) hogyan szerezzék be az információ-visszakeresési készségeket. Ez az új rendszer kiképzi az AI-t a keresőmotorok interakcióinak szimulálására, hatékonyan megtanulva a „Google-t” az élő kereskedelmi API-hívások izmos árcédulája nélkül. A fejlődés, amely a

A következmények a szélsőséges technikáktól való távolságra, és kevésbé függnek a fejlett edzéshez, és kevésbé függnek a fejlett edzéshez. Az Alibaba Cloud a megközelítésről kijelentette: „Olyan rendszert hoztunk létre, ahol az LLMS szimuláció révén fejlesztheti a keresési készségeket, kiküszöbölve az erőforrás-igényes valós keresések szükségességét.”Hozzátették: „Ez a fejlett AI-t minden méretű szervezet számára hozzáférhetőbbé teszi.”Hivatalos Zerosearch projekt oldal , a szélesebb körű elfogadás és a további kutatások elősegítése. Finomhangolás (SFT) folyamat. Ez a kezdeti lépés egy LLM-et egy speciális „visszakeresési modulmá” alakítja át. Ezt a modult úgy tervezték, hogy mind a releváns dokumentumokat, mind pedig fontos, „zajos” vagy irreleváns dokumentumokat egy lekérdezésre válaszul. Azt is kidolgozzák, hogy az „elsődleges különbség egy valódi keresőmotor és a szimuláció LLM között a visszaküldött tartalom szöveges stílusában rejlik.”

Az SFT után a Zerosearch egy megerősítő tanulási fázist alkalmaz, amelyet egy „tanterv-alapú bevezetési stratégia” irányít. Az idő múlásával fokozatosan lebomlik az egyre kihívást jelentő visszakeresési forgatókönyvek szimulálásához. Ezt követően megtanulja navigálni a bonyolultabb és kétértelmű információk táján. A rendszer tanulását az F1 pontszámon alapuló jutalmazási mechanizmus vezérli, amely a szimulált keresési eredményekből generált válaszok pontosságára összpontosít. Átfogó kísérletek hét fő kérdés-aszwinging adatkészletek megmutatta annak képességét. A VentureBeat lefedettsége szerint a 7-billion paraméter nulla-kutatási modul A teljesítményhez hasonló teljesítményt elérhetők. href=”https://huggingface.co/sunhaonlp/searchsimulation_14b”Target=”_ üres”> 14-billion paraméter verzió A jelentések szerint felülmúlta a Google-keresést. Maga a Zerosearch Project oldal kimondja, hogy „a finomhangolt 7B szimulációs motor (SFT-7B) a Google-keresés teljesítményéhez hasonló teljesítményt ér el, míg a 14B változat (SFT-14B) még meghaladja azt.” A benchmark-tesztekben a Zerosearch 7B modellje 33,06-at, a 14B modellje pedig 33,97-et kapott, mindkettő meghaladta a Google 32,47 pontszámát. Az Alibaba csapat költséganalízise, ​​amelyet az ARXIV-cikkben részleteznek, szemlélteti, hogy körülbelül 64 000 keresési lekérdezéssel történő képzés Google keresés a SerPapi-on keresztül. Ezzel szemben egy 14B-paraméteres szimuláció LLM használata, amelynek nulla-kutatása négy A100 GPU-nál csak 70,80 dollárba kerül-az API-val kapcsolatos költségek 88%-os csökkenése. Ez a költséghatékonyság kompatibilis a különféle modellcsaládokkal, beleértve a QWEN-2.5-et és a LLAMA-3.2-t, az erőforrások rendelkezésre állnak a