A `CODINGMOH’fejlesztő bemutatta a Open Codex CLI , egy nyílt forráskódként épített parancssori felületet, amely az Openai hivatalos Codex CLI-je. Ez az új eszköz lehetővé teszi az AI-vezérelt kódolási segítséget közvetlenül a terminálon, amelyet kifejezetten a kisebb, helyben végrehajtott nagy nyelvű modellekkel (LLMS) hatékony felhasználásra terveztek. `codingmoh` leírta a hivatalos kódbázist kijelentés ,„ Kóduk számos szivárgó absztrakcióval rendelkeznek, amelyek megnehezítették a toplistát, hogy a topok fokozódtak.”Ez a tapasztalat a Python-ban egy földre irányuló átíráshoz vezetett. Alapvető tervezési alapelvei, amint azt a szerző körvonalazza, a következő: „Írja meg az eszközt kifejezetten a _locally_ kifelé futtatásához, a következtetés API-kiszolgálóra nincs szükség.-Használja a modellt közvetlenül (jelenleg a PHI-4-MINI-hez a Llama-CPP-Pythonon keresztül).-Optimalizálja a prompt és a végrehajtási logika _per modelljét. src=”https://winbuzzer.com/wp-content/uploads/2025/04/Open-Codex-CLI.jpg”>
It currently supports Microsoft’s Phi-4-mini model, specifically via the lmstudio-közösségi/phi-4-mini-instruct-gguf GGUF verzió-Az LLM-ek hatékony futtatásához igazított formátum, a változatos hardveren. „A kis nyílt forrású modellek (például a PHI-4-MINI) mintáinak kérése gyakran nagyon különbözik-ezek nem általánosítják őket is-jegyezte meg a CODINGMOH. A közvetlen helyi interakcióra összpontosítva az Open Codex CLI arra törekszik, hogy megkerülje a kompatibilitási problémákat, amikor a helyi modelleket az átfogó, felhőalapú API-k számára tervezett interfészek révén próbálják futtatni. CSAK. A macOS felhasználók használhatják a Homebrew-t (a `Brew Tap CodingMoh/Open-Codex; Brew Install Open-Codex`), míg a` PIPX Install Open-Codex `platformon átívelő lehetőséget kínál. A fejlesztők klónozhatják a MIT-licensed tárolót a GitHub-ból, és helyben telepíthetik a „PIP Install” segítségével. A projektkönyvtárban. Megjelent a Codex CLI. A jövőbeli modelltámogatás javaslatai között szerepelt a QWEN 2.5 (amelyet a fejlesztő a következő hozzáadni szándékozik), Deepseek Coder v2 , és a GLM 4 sorozat . Kontextuálisan az Openai részben olyan kezdeményezések révén népszerűsíti saját ökoszisztémáját, mint például egy millió dolláros támogatási alap, amely API-krediteket kínál a hivatalos eszközök felhasználásával. A jövőbeli frissítések célja egy interaktív, kontextus-tudatos chat mód bevezetése, amely valószínűleg egy terminál felhasználói felületet (TUI) tartalmaz. Ez a független projekt egy nyüzsgő piacra lép, ahol az olyan eszközök, mint a Github Copilot és a Google AI kódolási platformjai, egyre inkább beépítik az autonóm funkciókat. Az Open Codex CLI azonban a rést faragja azáltal, hogy hangsúlyozza a felhasználói vezérlést, a helyi feldolgozást és az optimalizálást kisebb, nyílt forráskódú modellekhez a terminál környezetben.