Anthropic為其Claude AI助手推出了新的“學習模式”,使其蘇格拉底風格的輔導功能可供所有用戶和開發人員使用。 8月14日的舉動與OpenAI和Google進行了激烈的返校比賽,他們最近首次為自己的聊天機器人推出了類似的工具。

這個行業頂級實驗室的戰略樞紐將AI從簡單的答案引擎從簡單的答案中縮放為協作學習合作夥伴。目的是解決對學術誠信的廣泛關注,同時競爭定義數十億美元的教育技術市場的未來。

在對其競爭對手的競爭中,人類的“學習模式”的正式宣佈為其八月份的公開範圍。該模式從根本上改變了AI的互動方式。它沒有分配立即解決方案,而是採用了一種蘇格拉底式方法,使用戶探討了問題,以指導他們得出自己的結論。這一轉變將聊天機器人從簡單的答案引擎改造為設計用於“指導發現”的思想夥伴。 Anthropic的教育領導Drew Bent透露,該功能是在學生對被動AI使用的“腦腐”感到擔憂之後開發的。他解釋說:“我們發現他們自己意識到,當他們直接從聊天機器人中復制並粘貼一些東西時,這對他們的長期學習不利。”

這一公眾發行的功能將在2025年4月2025年為Anthropic的“ Claaude for Education”使用。現在,任何用戶都可以通過簡單地從聊天界面中的樣式下拉菜單中選擇“學習”來免費激活類似輔導的行為。這種廣泛的可用性將克勞德(Claude)與Openai的“研究模式”相對,並於7月下旬推出,以及Google在8月初首次亮相的Gemini的“指導性學習”。

和所有應用程序用戶:我們將我們的“學習”風格(首次在Claude中引入教育)。在任何聊天中選擇“學習”樣式,以使Claude引導您了解硬性概念,而不是提供即時答案。 pic.twitter.com/jknmo6nlg4

– claude(@claudeai) 8月14日,2025年8月14日,2025年8月14日

這些快速射擊釋放的信號信號是一場利潤豐厚的教育技術市場的加劇之戰,該領域的全球價值約為3400億美元。在戰略上與返校季節保持一致的時機並不是巧合。 AI少校實驗室正在競爭將其技術嵌入大學工作流程中,將教育機構視為關鍵的戰場。正如眾者的Drew bent

這種趨勢代表了一個重要的整個行業樞紐。公司故意將其AI工具重新構建為學習的建設性合作夥伴,超越了其作為簡單作弊工具的聲譽。這種轉變是直接嘗試贏得學術界的懷疑論者,他們對AI有可能破壞學術誠信的潛力保持警惕。

在過去的一年中,這場對抗的基礎是。微軟在2024年3月擴大了對Microsoft 365副教育的副本的訪問權,這一舉動通過將AI能力捆綁到現有的許多大學已經支付的現有軟件許可中來利用其巨大的生態系統優勢,從而利用了其巨大的生態系統優勢。 Anthropic本身首先通過其Claude於2025年4月推出了蘇格拉底風格的“學習模式”,並與Northeastern University這樣的機構建立了合作夥伴關係。一個月後,Openai於2024年5月宣布了Chatgpt Edu,這是一項企業級的產品,該公司由牛津大學和亞利桑那州立大學等大學採用。

這導致了每個科技巨頭都在部署一個獨特的策略來捕捉市場的景觀。雖然人類和Openai競爭教學的一致性,但Google正在以兩管齊下的方法進行反擊。除了其以功能為重點的“指導性學習”工具外,它還使用了積極的定價激勵措施,為多個國家/地區的學生免費提供了一年的AI Pro計劃,以推動市場滲透。

是開發人員的協作方法 開發環境(IDE)。此舉特別針對技術行業的日益關注:可以使用AI生成代碼但努力理解或調試自己的工作的初級程序員的興起。正如一位擬人發言人所指出的那樣,現實是,這些開發人員最終可以花費大量時間來審查他們不寫的代碼,有時不理解。

第一個新的選擇“解釋性”模式,其設計旨在像高級開發人員指導同事一樣運作。正如克勞德(Claude)的工作一樣,它提供了有關其決策過程的詳細敘述,並解釋了它在此過程中做出的選擇和權衡。該運行的評論使用戶有機會“在引擎蓋下”進行查看,並更好地理解要生成的代碼背後的邏輯,將簡單的一項任務轉換為學習機會。

第二個選項,更強大的“學習”模式,創建了一個真正的交互式和協作的編碼會話。在這裡,克勞德(Claude)偶爾會暫停它的工作,並用“ #todo”註釋標記部分,並提示用戶編寫自己的代碼五到十行以完成任務。根據Drew Bent的說法,這種方法旨在幫助所有開發人員,從業餘愛好者到專業人士,不僅要完成任務,而且還可以“在過程中成長和學習,並更好地了解他們的代碼基礎”。 pic.twitter.com/vu6p8cizbf

– claude(@claudeai)強調,“我們不是在建立替代人類能力的人工智能-我們正在構建AI,我們正在為不同的用戶和用戶案例進行周到的AI增強它,”將工具定位為技能建設夥伴,而不是替代人類專業知識。解釋性或學習模式。本特希望這些工具能使任何編碼器都能發展出“真正好的工程經理”的敏銳眼光,即使他們不自己編寫每一行代碼。人類和OpenAI似乎都使用修改的系統提示來指導其模型的行為。這允許快速迭代,但意味著導師是通用AI的頂部的一層。

這種區別至關重要。批評家指出,基礎模型吸收了網絡上的所有有缺陷的解釋,並且無法可靠地區分事實和聽起來有信心的虛假性。這產生了教學學生製作材料的風險,這是針對OpenAI的學習模式提出的。

相比之下,Google聲稱其指導性學習由其專門構建的Learnlm模型提供支持,該模型對教育數據進行了微調。 Google的工具還使用具有圖,視頻和測驗的多模式方法來幫助理解。

平衡承諾和危險

支持者將這些工具視為一個很好的均衡器。 OpenAI的教育主管Leah Belsky聲稱使用這些工具說:“我們可以開始縮小具有學習資源和高質量教育的人與歷史上留下的人之間的差距。”

。但是,只需單擊一個快速的答案,就可以簡單地切換出從學習模式中切換出來的誘惑。有效實施的最終責任屬於教育者和機構。他們必須權衡可訪問,24/7 AI輔導的承諾,與學生學習缺陷信息或繞過對深度學習至關重要的認知工作的風險。

Categories: IT Info