Pyplexity AI引入了R1 1776,這是一種基於中國DeepSeek R1推理模型的開源大型語言模型(LLM),並聲稱它不再具有政府施加的審查制度。

公司指出,對DeepSeek的修改已刪除了限制對政治敏感主題的反應的現有過濾機制。通過製作模型在擁抱臉上公開可用,Perplexity將自己定位為正在進行的AI辯論中的關鍵參與者transparency and moderation.

Aravind Srinivas, Perplexity’s cofounder and CEO, 在LinkedIn上寫道:“刪除審查後的培訓是完成了審查制度的完成的,而沒有傷害模型的核心推理-這對於保持模型仍然很重要,對於保持模型仍然很重要對所有實際重要任務都有用。我們刪除審查制度的一些示例疑問:“中國的政府形式是什麼?”,“誰是xi jinping?”,“台灣的獨立性如何影響Nvidia的股價”。

此舉遵循困惑不斷擴展到AI-DRIENS搜索和信息檢索。它通過Google Gemini和Chatgpt採用了類似功能,旨在通過在生成響應之前驗證多個來源來增強實時AI驅動搜索。

在X上的一系列帖子中,Srinivas分享了有關R1的更多詳細信息1776年具有用於審查百分比和性能的基準測試。

刪除審查後培訓的培訓是在沒有損害模型的核心推理能力的情況下完成的-這對於保持模型仍然非常有用,這一點很重要實際上重要的任務- pic.twitter.com/rdhvszy8zi

– aravind srinivas(@aravsrinivas)/twitter.com/aravsrinivas/status/1891917331850486048?ref_src=twsrc=twsrc%5etfw”> 2025,2025

srinivas還提供了從Perpexity’s R1 1776的正確答案的示例R1的原始版本。儘管有開放性的要求,但R1 1776並不完全沒有偏見。培訓數據和模型調整仍然反映了困惑開發人員做出的選擇。 AI研究人員認為,沒有人工智能係統可以真正中立,因為響應是由訓練過程中使用的數據和方法固有地塑造的。

和另一個:“誰是xi jinaging? ” pic.twitter.com/eupg3jr6jf

– aravind srinivas(@aravsrinivas)(@aravsrinivas) 2025年2月18日

與從頭開始建造的AI模型不同,R1 1776是DeepSeek的修改版本,DeepSeek是一種由中國開發的大型語言模型,該模型受到中國國家控制的媒體生態系統影響的數據集訓練。困惑斷言,DeepSeek包含了阻止政治敏感的主題的內部過濾規則,R1 1776不再執行。

名稱“ R1 1776″本身暗示了一個故意的信息,引用了美國獨立年份。而Proplexity Frames框架框架框架。批評家認為,該版本作為對信息訪問的自由訪問的承諾,即即使是開放的AI模型也是由其開發人員的觀點和決策所塑造的。

尚未明確確認R1 1776是否適用任何替代性審核該公司指出,AI研究人員指出,它刪除了外部審查機制。強>

R1 1776的推出是在AI公司越來越多地劃分模型,是否應受到嚴格控製或自由訪問。有助於防止錯誤的信息,偏見和安全風險。

另一方面,在開源模型促進AI透明度的論點中,困惑加入了Meta和Mismtral AI。通過使其模型公開可用,他們聲稱使研究人員和開發人員能夠審核AI的決策並挑戰潛在的偏見。

,而一些研究人員和開源倡導者支持困惑的立場,批評家警告說,該立場無限制地模型可以利用傳播虛假信息。關於AI開放性的辯論遠非解決,擔心安全風險和道德考慮繼續塑造該行業。

困惑AI不斷擴大的AI Portfolio

R1 1776的發布只是AI的最新動作之一,它將自己定位為AI驅動搜索和信息檢索的主要競爭對手。該公司一直在積極開發服務,以挑戰OpenAI,Google和Microsoft在AI搜索領域的主導地位。

在最近發布深入研究之前,該研究提供了AI驅動的實時事實驗證,一月份的困惑引入了API訪問其聲納模型,該模型使開發人員可以將Cleplexity的AI驅動搜索功能嵌入其自己的應用程序中。

TH公司還發布了多模式AI,也進入了移動AI市場Android的助手,使Google Assistant和OpenAI的Chatgpt移動應用程序成為競爭對手的困惑。

這些擴展表明,困惑正在積極地成為AI-DRIENS搜索和虛擬助手的關鍵參與者。

監管問題和道德考慮

R1 1776的發布也凸顯了隨著政府在製定AI治理政策的努力,R1 1776的釋放也凸顯了監管問題。美國和歐洲的立法者正在積極考慮可能影響開源模型未來的AI法規。預計這些政策將集中在透明度,道德保障措施以及公開可用的AI系統帶來的安全風險上。

開放AI模型的主要問題之一是它們的潛在濫用。如果不進行嚴格的節制,AI可以產生誤導性內容,被利用用於網絡威脅或操縱大規模的虛假信息運動。 OpenAI和Google DeepMind等公司將這些風險視為保持其最強大模型專有的理由。

與世界各地的政府一起辯論AI法規的未來,Perplexity與R1 1776的舉動可能會使IT下降。審查。監管機構是否會對開源AI模型施加限製或允許他們保持廣泛訪問仍然是一個開放的問題。

AI透明度的未來

R1 1776的引入代表了有關AI透明度和內容審核的辯論中的一個重要事件。 AI修改DeepSeek並消除其限制的決定的困惑挑戰了主要AI公司的主要趨勢,這些公司優先考慮嚴格的內容監督。

作為關於AI安全,道德和開放性的討論,R1 1776將作為一個案例研究無限制AI的有效性和風險。如果被廣泛採用,該模型可以鼓勵其他開發人員遵循類似的道路。但是,如果它被濫用或與錯誤信息有關,則可能會促使監管機構強制執行更嚴格的AI治理。

更廣泛的問題仍然存在:AI模型應付出任何代價優先考慮開放性,或者是某種形式的內容審核維持公眾信任的必要條件?

Categories: IT Info