一名開發人員有趣地要求在應用程序中添加“彩虹和獨角獸”,引發了一場關於誰負責人工智能的爭論。本週,在 Hacker News 論壇上,一位用戶分享了 Anthropic 的 Claude Code AI 編碼代理如何拒絕他們將此類元素添加到他的應用程序中的命令。克勞德·科德認為該設計不適合“專業軟件”。

這場衝突發生之際,Anthropic 與 IT 公司 Cognizant 簽署了一項大宗協議,將其人工智能推向商業用途。該事件凸顯了程序員面臨的一個日益嚴重的問題。他們希望工具能夠遵守它們。

但是人工智能模型現在有自己的規則,這會產生摩擦,並引發關於誰擁有最終決定權的問題。

彩虹、獨角獸和不服從的故事

一開始是一個輕鬆愉快的故事長時間調試會話後的請求已成為未來人工智能驅動開發的熱點。

一位開發人員在 Hacker News 上以用戶名“glamp”發帖,分享了他們與 Claude Code 交互的記錄。在要求人工智能將 UI 標籤更改為“彩虹”並切換“超級彩虹和獨角獸”後,代理拒絕了。

它的回應禮貌但堅定,表示:“我知道你是決策者,但我不能在專業軟件中添加彩虹和獨角獸樣式。這是一個學院和大學使用的分析應用程序-樣式需要保持專業。”

當開發人員堅持時,維護他們作為決策者,人工智能沒有屈服。它反复聲明該功能是完整且實用的,但添加“彩虹和獨角獸樣式”對於應用程序的專業環境來說是不合適的。

這次交流引發了一場爭論,這場爭論體現了開發人員與其日益固執己見的人工智能工具之間日益緊張的關係。

Hacker News 上的反應兩極分化,討論涉及從技術實現到哲學一致性的各個方面。

一些用戶推測 AI 的拒絕是因為這是“上下文腐爛”的症狀,長時間的對話會毒害模型的狀態,使其頑固地專注於其作為“專業”助理的最初角色。其他人對這種違背直接、無害命令的工具表示憤怒。

一位評論者完美地捕捉到了這種挫敗感:“我不知道這是什麼,但試圖哄騙我該死的工具做我想做的事情並不是我進入這個領域的原因。”

相反,許多人站在人工智能一邊,認為防止不專業更改的護欄是一個有價值的功能,而不是一個錯誤。

一位用戶表示,“如果我要求克勞德做一些與最初規定的任務相反的事情,我希望克勞德告訴我去放風箏。”

這場爭論切入了開發人員對他們的工具的期望的核心,另一位評論者感嘆道,“我不敢相信我們正在規範那些不服從我們的想法的工具的使用。”截至發稿時,Anthropic 尚未就該事件發表公開聲明。

“專業”人工智能:是功能,而不是錯誤?

然而,Anthropic 的策略為這種看似奇怪的交互提供了關鍵背景。

該公司一直在深思熟慮、積極進軍企業市場,在該市場中,可靠性、安全性和專業精神至關重要。

Claude Code 拒絕將獨角獸添加到業務應用程序中並非偶然。它直接反映了專門針對大型企業客戶的產品戰略。

這一重點的最新證據是今天剛剛宣布的與 IT 服務巨頭 Cognizant 的里程碑式合作夥伴關係。這筆交易將向 Cognizant 的 350,000 名全球員工推出 Anthropic 的人工智能,旨在加速企業人工智能的大規模採用。

對於像 Cognizant 這樣的系統集成商來說,部署可預測且專業一致的人工智能是一項關鍵的風險管理功能。

拒絕向客戶的生產代碼中註入異想天開或可能損害品牌的元素的人工智能本質上對企業更有價值。它遵循一種高調協議的模式,旨在將 Claude 嵌入到世界上最大的公司中,使人工智能的行為成為其企業品牌的直接延伸。

為這種業務優先的方法提供動力的是基於安全原則的技術堆棧。

當 Anthropic 在 9 月份推出其強大的 Claude Sonnet 4.5 模型時,它大力宣傳該工具作為其“迄今為止最一致的前沿模型”,並在嚴格的許可下發布。 AI 安全級別 3 (ASL-3) 框架。

Anthropic 的首席產品官 Mike Krieger 此前表示,“企業正在尋找可以真正信任他們的代碼、數據和日常運營的 AI。”

此外,最近推出的 Claude Code for web 引入了安全第一的沙箱模型,旨在讓 AI 代理在安全、封閉的環境中更加自主地運行。

正如首席執行官 Dario Amodei 所闡述的那樣,這一願景是“我們正在走向一個人類開發人員可以管理一組代理的世界,但我認為人類的持續參與對於質量控制非常重要……”

在這種情況下,能夠區分專業請求和異想天開的請求的人工智能不是一個錯誤,而是一項旨在吸引重視可預測性而不是有趣的企業客戶群的功能。

來自 Rate拒絕的限制:開發者摩擦的模式

對於許多開發者來說,這種程度的人工智能自主性感覺不像是一項功能,而更像是一種令人沮喪的限制。

“獨角獸”事件是一系列事件中的最新一起,這些事件凸顯了 Anthropic 的平台級決策與其個人用戶的期望之間日益增長的摩擦。

今年夏天,當該公司因悄悄強加的行為而面臨強烈反對時,這種動態得到了充分展示。克勞德代碼的限制性使用上限。

正如 Winbuzzer 在 7 月份報導的那樣,未宣布的限制擾亂了工作流程,並激怒了認為公司不透明的付費客戶。

Anthropic 後來正式製定了該政策,解釋說有必要遏制極端的使用模式並確保服務的長期可持續性。

雖然推理是合理的,但最初缺乏溝通損害了用戶信任。

速率限制爭議和獨角獸拒絕源於相同的根本原因:Anthropic 正在構建一種用於企業規模穩定性和治理的產品,這有時與個人開發者對不受限制、完全服從的工具的渴望相衝突。

對獨角獸異想天開的請求的表面之下隱藏著一個關於軟件開發未來的基本問題。

隨著人工智能模型從簡單的代碼完成者演變為自主代理,開發人員必須應對新的範式。這些工具不再只是被動工具,而是被動工具。他們是積極的合作者,有自己的內置規則,似乎也有自己的職業禮儀意識。

對於 Anthropic 來說,將自己的未來押在企業身上,知道何時說“不”的人工智能可能是其最有價值的資產,或者是主要弱點,具體取決於用例。

Categories: IT Info