openaiは、 codex cli をリリースしました。シンプルさと透明性のために構築されたこのツールは、サブスクリプションベースのコーディングエージェントに代わるモデルに依存しないローカル構成可能な代替品を提供します。これは、開発者が独自のIDEやクラウドのみのワークフローに依存することで完全に制御できるツールへのOpenaiの動きを反映しています。それでも、このツールは、その合理化されたセットアップと柔軟なアーキテクチャに注目を集めています。開発者は、ターミナルでプレーン言語プロンプトを発行し、AIに生成された応答を即座に受け取り、YAMLファイルとPythonフックを使用してCodex CLIを既存のワークフローに統合できます。パリンドロム。このツールは、生成されたコードを端末に直接注入することで応答し、開発者が出力をレビュー、実行、または変更できるようにします。 It includes a minimal interface for cycling through completions or editing results before execution.
One of the more developer-friendly features is support for streaming output in the GitHub documentation, which displays code as it’s生成。このリアルタイムのフィードバックは、高速でキーボードファースト環境を好む開発者の使いやすさを向上させます。構成は、インライン変数とテンプレートのカスタマイズをサポートして、.Codex YAMLファイルを介して行われます。
デフォルトでは、Codex CliはOpenAIのGPT-4-ターボを使用しますが、ユーザーは任意のAPIエンドポイントを指すことができます。これには、Openaiの新しくリリースされたO3およびO4-MINIモデルが含まれます。これは、より意図的な推論とマルチモーダル使用のために設計されています。開発者は、構成フラグを編集するだけでモデルを切り替えることができます。
マルチモーダル入力とローカル適応性
ほとんどのブラウザーベースのツールとは異なり、Codex CLIはマルチモーダルインタラクションをサポートしています。 TechCrunchによると、開発者はスクリーンショットまたはスケッチをCLIに渡し、自然言語と組み合わせて、視覚的なコンテキストによってコード提案を強化することができます。これは、OpenAIの新しいモデルに見られる機能と一致し、入力の一部として画像を解釈できます。
CLIは、リクエストと応答を傍受するPythonベースのフックを使用して拡張することもできます。開発者は、LlamaやMistralなどのツールを使用して、出力をルーティングしたり、フォーマットを適用したり、ローカルLLM統合を有効にしたりするためのカスタムプラグインの構築を開始しています。この柔軟性は、Codex CLIを単一の目的のインターフェイスではなく、適応性のあるモジュラーフレームワークとして位置付けています。 Githubがエージェントモードと、Claude 3.7 Sonnet、Gemini 2.0、OpenaiのO3-MiniなどのプレミアムモデルへのアクセスをバンドルするPro+サブスクリプションでCopilot製品を拡張してからわずか2週間後に到着しました。 Copilotのエージェントモードを使用すると、アシスタントはコマンドを実行し、ファイルを編集し、プロジェクトを自律的にナビゲートできます。
Codex CLIは手動制御を優先し、ユーザーの監視なしでタスクを自動化しないようにします。埋め込まれたGUI、クラウドストレージへの依存性はなく、サブスクリプションペイウォールはありません。デフォルトのセットアップは、自動化よりもカスタマイズを好む開発者に登場するローカル、透明性、最小限です。
Googleは、4月9日に発売されたFirebase StudioでAIコーディングの利害関係を上げています。ただし、ユーザーはGoogleのエコシステム内にとどまる必要があります。対照的に、Codex CLIは、クラウドサービスまたはIDEとは独立して動作します。 Todazの時点で、このツールはAlreadzがGithubで2,400を超える星を受け取っています。 RedditとHacker Newsの初期のテスターは、そのシンプルさ、速度、およびオープンエンドの構成を称賛しました。数人のユーザーは、LlamaやMistralなどのローカルモデルをサポートするために既に変更しており、カスタム環境にツールを簡単に拡張できるかを示しています。
Codex CLIは、デフォルトでOpenaiのモデルへのAPIアクセスに依存していますが、その構造は実験と自己ホストの代替品を奨励しています。このモデルとの存在主義は、ブランドのエコシステム内でのみ動作するか、ユーザーが基本的な機能のロックを解除するためにトークンまたは使用層を購入する必要があるツールと区別しています。同社は、Codex CLIとOpenaiのAPIエコシステムを中心に開発をサポートすることを目的とした100万ドルのファンドの一環として、適格なプロジェクトに最大25,000ドルのAPIクレジットを提供しています。ほとんどの競合他社は、GitHubのコマンドランニングエージェントからGoogleのアプリプロトタイプアシスタントまで、自律性と統合のレベルの増加に向かっています。マヌスAIのように、これをさらに進めている人もいます。中国で構築されたエージェントは、最小限の人間の入力でタスクを完了するように設計されており、現在は月額199ドルまでの階層価格を提供しています。層はありません。ベイクドインワークフローはありません。ブランド固有のロックインはありません。次の動きを予測したり、行動を起こそうとはしません。代わりに、開発者の用語に強力なAIを開発者のワークフローに統合するための明確なパスを提供します。
このアプローチは、クラウドのみのインターフェイスやロックされたエコシステムを避けようとする開発者にアピールする可能性があります。