Developer `CodingMoh` ha introdotto aperta Codice cli , un’interfaccia di linea di comando costruita come una source aperta, completamente locale sostituita per il codice ufficiale di Openai. Questo nuovo strumento consente l’assistenza di codifica guidata dall’IA direttamente nel terminale, in particolare progettato per un uso efficace con modelli di grandi dimensioni più piccoli (LLMS). `CodingMoh` ha descritto la base di codice ufficiale affermando ,”Il loro codice ha diverse astrazioni perdite, che ha reso difficile la possibilità di sfuggire le cose da fare. Questa esperienza ha portato a una riscrittura grovata in Python.
Un focus sull’esecuzione locale e modelli più piccoli
Codice aperto CLI si distingue dando la priorità al funzionamento del modello locale, con l’obiettivo di funzionare senza bisogno di un server di inferenza api-compatibile esterno. I suoi principi di progettazione principale, come indicato dall’autore, sono:”Scrivi lo strumento in modo specifico per eseguire _locally_ fuori dalla casella, nessun server API di inferenza richiesto.-Usa il modello direttamente (attualmente per Phi-4-Mini tramite Llama-CPP-Python).-Ottimizza la prompt ed esecuzione logica _per modello_ per ottenere le migliori prestazioni.”src=”https://winbuzzer.com/wp-content/uploads/2025/04/open-codex-cli.jpg”>
Attualmente supporta il modello Phi-4-Mini di Microsoft, specifico href=”https://huggingface.co/lmstudio-community/phi-4-mini-instruct-gguf”target=”_ blank”> lmstudio-community/phi-4-mini-instruct-gguf versione gguf-una versione di formattata per la gestione efficiente in efficienza su efficienti hardware. Gestione diversa rispetto alle loro controparti più grandi.”I modelli di spinta per piccoli modelli open source (come Phi-4-Mini) devono spesso essere molto diversi-non si generalizzano anche”, ha osservato anche CodingMoh. By focusing on direct local interaction, Open Codex CLI seeks to bypass compatibility issues sometimes faced when trying to run local models through interfaces designed for comprehensive, cloud-based APIs.
Currently, the tool functions in a “single-shot”mode: users input natural language instructions (e.g., `open-codex “list all folders”`), receive a suggested shell command, and then choose whether to approve execution, copy the command, or Annulla.
Installazione, interazione comunitaria e posizionamento del mercato
CODEX aperto CLI può essere installato tramite più canali. Gli utenti di MacOS possono utilizzare Homebrew (`Brew CODingMoh/Open-Codex; Brew Installa Open-Codex`), mentre` Pipx Installa Open-Codex` offre un’opzione multipiattaforma. Gli sviluppatori possono anche clonare il repository con licenza MIT da GitHub e installare localmente tramite `Pip Installa.` All’interno della directory del progetto.
Discussioni comunitarie sono emerse sono emerse confronti con lo strumento ufficiale di Openai, che a sua volta deepseek coder v2 e il glm 4 series .
Alcuni primi utenti hanno riportato sfide di configurazione quando si utilizzano modelli diversi da Phi-4-Mini predefiniti, in particolare via Ollama. Contestualmente, Openi promuove il proprio ecosistema in parte attraverso iniziative come un fondo di sovvenzione da 1 milione di dollari che offre crediti API per progetti che utilizzano i loro strumenti ufficiali. Gli aggiornamenti futuri mirano a introdurre una modalità di chat interattiva consapevole del contesto, eventualmente con un’interfaccia utente terminale (TUI).
Supporto da calcio alle funzioni, funzionalità di input vocale che utilizzano Whisper, cronologia dei comandi con funzionalità di annullamento e un sistema di plug-in fanno parte della mappa della scena. Questo progetto indipendente entra in un vivace mercato in cui strumenti come Github Copilot e le piattaforme di codifica AI di Google incorporano sempre più caratteristiche autonome. Open Codex CLI, tuttavia, scolpisce la sua nicchia enfatizzando il controllo degli utenti, l’elaborazione locale e l’ottimizzazione per modelli più piccoli e open source all’interno di un ambiente terminale.