アプリに「虹とユニコーン」を追加したいという開発者の楽しいリクエストが、誰が AI を担当するのかについての議論を引き起こしました。今週、フォーラム Hacker News で、あるユーザーが、Anthropic の Claude Code AI コーディング エージェントがアプリにそのような要素を追加するという命令を拒否したことを共有しました。クロード・コード氏は、この設計は「プロフェッショナル向けソフトウェア」には適していないと主張した。
この衝突は、Anthropic が自社の AI をビジネス用途に推し進め、IT 企業 Cognizant と大型契約を結んだことで起こりました。このイベントは、プログラマーにとって増大する問題を浮き彫りにしました。彼らはツールが自分に従うことを期待しています。
しかし、AI モデルには現在、独自のルールがあり、摩擦が生じ、誰が最終決定権を持つのかという疑問が生じています。
虹、ユニコーン、そして不服従の物語
最初は気楽な気持ちで始めたものでした。
ユーザー名「glamp」で Hacker News に投稿した開発者が、Claude Code とのやり取りのトランスクリプトを共有しました。 AI に UI ラベルを「レインボー」に変更し、トグル スイッチを「スーパー レインボーとユニコーン」にするよう依頼したところ、エージェントは拒否しました。
エージェントの返答は丁寧だが毅然としたもので、「あなたが意思決定者であることは理解していますが、プロフェッショナル ソフトウェアにレインボーとユニコーンのスタイルを追加することはできません。これは大学で使用される分析アプリケーションです。スタイルはプロフェッショナルであり続ける必要があります。」
開発者が意思決定者としての権威を主張して、AIは屈しなかったと主張した。この機能は完全で機能的であるが、「虹とユニコーンのスタイル」の追加はアプリケーションの専門的な文脈には不適切であると繰り返し述べました。
このやりとりは、開発者とますます意見が偏りがちな AI ツールとの間の緊張の高まりをとらえた議論を引き起こしました。
ハッカー ニュースでの反応は大きく分かれ、議論は技術的な実装から哲学的な整合性まであらゆるものに触れていました。
一部のユーザーは、AI の機能が影響しているのではないかと推測しました。拒否は「文脈の腐敗」の症状であり、長時間にわたる会話がモデルの状態を悪化させ、モデルが「プロの」アシスタントとしての最初のペルソナに頑固に固執するようになります。他の人は、直接的で無害なコマンドを無視するツールに対して怒りを表明しました。
あるコメント投稿者は、このフラストレーションを完璧に捉えました。「それが何なのかはわかりませんが、自分のクソツールをなだめて自分のやりたいことをやらせようとすることが、私がこの分野に足を踏み入れた理由ではありません。」
逆に、多くの人は AI を支持し、専門外の変更を防ぐガードレールはバグではなく貴重な機能であると主張しました。
あるユーザーはこう述べています。「最初に述べた使命と正反対のことをするよう頼むなら、クロードに凧揚げをしろと言ってもらいたい。」
この議論は、開発者がツールに何を期待しているのかという核心に切り込んでおり、別のコメント投稿者は「私たちの気まぐれに従わないツールの使用が常態化しているとは信じられない」と嘆いている。出版時点で、Anthropic はこの事件について公式声明を発表していません。
「プロフェッショナル」 AI: バグではなく機能?
しかしながら、Anthropic の戦略は、この一見奇妙な相互作用に重要な背景を提供しています。
同社は、信頼性、セキュリティ、プロフェッショナリズムが重視されるエンタープライズ市場への意図的かつ積極的な進出を実行しています。
Claude Code がビジネス アプリケーションにユニコーンを追加することを拒否しているのは、偶然の奇行ではありません。これは、大企業顧客を真にターゲットにした製品戦略を直接反映しています。
この焦点の新たな証拠は、本日発表された IT サービス大手 Cognizant との画期的な提携です。この契約により、Anthropic の AI が Cognizant の世界中の 35 万人の従業員に展開され、エンタープライズ AI の導入を大規模に加速することを目指します。
Cognizant のようなシステム インテグレータにとって、予測可能で専門的に調整された AI の導入は、重要なリスク管理機能です。
クライアントの運用コードに、奇抜な要素やブランドに損害を与える可能性のある要素を注入することを拒否する AI は、本質的に、
これは、クロードを世界最大の企業に組み込むために設計された注目度の高い契約のパターンに従っており、AI の動作をエンタープライズ ブランドの直接の拡張としています。
このビジネス第一のアプローチを強化しているのは、安全性の原則に基づいて構築されたテクノロジー スタックです。
Anthropic が 9 月に強力なクロード ソネット 4.5 モデルを発表したとき、同社はこのツールを「最も調整されたフロンティア」として大々的に宣伝しました。
Anthropic の最高製品責任者、マイク クリーガー氏は以前、「企業はコード、データ、日常業務において実際に信頼できる AI を求めています。」と述べています。
さらに、Web 用の Claude Code の最近のリリースでは、AI エージェントが内部でより自律的に動作できるように設計されたセキュリティ優先のサンドボックス モデルが導入されました。
CEO のダリオ・アモデイ氏が明確に述べたこのビジョンは、「人間の開発者がエージェントのフリートを管理できる世界に向かっていますが、品質管理には人間の継続的な関与が重要になると思います…」というものです。
この文脈では、専門的な要求と気まぐれな要求を区別できる AI はバグではなく、遊び心よりも予測可能性を重視する企業の顧客ベースにアピールするように設計された機能です。
レート制限から拒否まで: 開発者の摩擦のパターン
多くの開発者にとって、このレベルの AI 自律性は機能というよりも、イライラする制限のように感じられます。
「ユニコーン」事件は、Anthropic のプラットフォーム レベルの決定と個々のユーザーの期待との間の摩擦の増大を浮き彫りにする一連の出来事の最新のものです。
この力関係は、全期間にわたり全面的に表れていました。この夏、同社はクロード コードにひそかに制限的な使用制限を課したことで大きな反発に直面しました。
Winbuzzer が 7 月に報じたように、予告のない制限によりワークフローが混乱し、会社が透明性を欠いていると感じた料金を支払っている顧客の怒りを買いました。
アンスロピックは後にポリシーを正式に発表し、極端な使用パターンを抑制し、サービスの長期的な持続可能性を確保する必要があると説明しました。
その理由は正当でしたが、最初のコミュニケーション不足により、ユーザーの信頼が損なわれました。
レート制限論争とユニコーン拒否は同じ根本原因から生じています。Anthropic はエンタープライズ規模の安定性とガバナンスを目的とした製品を構築していますが、これは制限のない完全に従順なツールを求める個々の開発者の欲求と衝突することがあります。
ユニコーンに対する気まぐれな要求の表面の下には、ソフトウェア開発の将来に関する根本的な疑問が横たわっています。
AI モデルが進化するにつれ、単純なコードコンプリーターから自律エージェントまで、開発者は新しいパラダイムに取り組む必要があります。これらのツールはもはや単なる受動的な手段ではありません。彼らは、独自の組み込みルールと、彼らなりの職業上の礼儀正しい感覚を持つ積極的な協力者です。
企業に将来を賭けている Anthropic にとって、いつ「ノー」と言えるかを知っている AI は、最も貴重な資産である可能性があります。ユースケースによっては、それが最大の弱点になる場合もあります。