一家巴基斯坦報紙在錯誤地打印了聊天機器人的聊天文本後,強調了未經審查的人工智能輸出問題日益嚴重。在 11 月 12 日的版本中,《黎明》加入了一條人工智能生成的消息,使明顯生成的文章“更加敏捷”,迫使其因違反自己的規則而公開道歉。
這樣的錯誤不是一個孤立的案例,而是人工智能失敗的更廣泛趨勢的一部分。從法庭上使用的虛假法律來源到有缺陷的政府報告,未經仔細的人工審查而急於採用生成式人工智能正在侵蝕公眾的信任。這種趨勢給主要機構帶來了嚴重的、現實世界的問題。
“接下來你想讓我這樣做嗎?”:一家報紙的公共人工智能失態
巴基斯坦備受推崇的英文報紙《黎明》發表了一篇關於汽車銷售的文章,文章以機器生成的奇怪附言結尾。這篇文章沒有使用結論性段落,而是用了一段經典的聊天機器人廢話。

AI 詢問其用戶,“如果您願意,我還可以創建一個更加簡潔的“首頁風格”版本,其中包含有力的單行統計數據和大膽的信息圖表。佈局——完美地最大化讀者影響力。你希望我接下來這樣做嗎?”
我知道記者在他們的工作中使用人工智能,但這有點太多了!
黎明商業頁面至少應該編輯掉最後一段!
😆😆😆 pic.twitter.com/JWNdHNWvnv
— omar r quraishi (@omar_quraishi) 2025年11月12日
這一失態很快被讀者發現,並在網上迅速傳播,迫使報紙發表更正並正式道歉。在該文章網絡版的附註中,編輯承認,“這篇報紙報導最初是使用人工智能編輯的,這違反了黎明集團現行的人工智能政策。……對違反人工智能政策的行為感到遺憾。”
據報導,對此事件的調查正在進行中。 報紙的官方指導方針明確禁止在沒有嚴格人類監督的情況下使用人工智能生成或編輯新聞報導。
雖然黎明號的失態造成了公眾的尷尬,但它卻成為了一個更深刻、更重要問題的有力像徵。在各個行業中,在沒有充分監督的情況下過早部署生成式人工智能正在導致一系列引人注目的失敗,損害了專業標準和公眾信任。
系統性問題:當人工智能在高風險領域產生幻覺
從法律到公共衛生的各個專業領域,組織正在艱難地發現大型語言模型不能被信任來完成關鍵任務。人工智能自信地發明事實、來源或數據的現像被稱為幻覺,事實證明這是一種持久而危險的缺陷。
最近一個代價高昂的例子來自諮詢界。全球性公司德勤 (Deloitte) 被迫向澳大利亞政府退還 97,000 美元,因為該公司製作的一份價值 44 萬美元的報告被發現充斥著人工智能偽造的引文。
該公司的報告是對國家福利制度的敏感審查,引用了不存在的書籍和錯誤引用的法律案例。澳大利亞工黨參議員黛博拉·奧尼爾(Deborah O’Neill)對此進行了尖銳的斥責,她表示,“德勤存在人類智力問題。如果不是如此可悲的話,這將是可笑的。”
公共部門也出現了尖銳的問題。 7 月,有報導稱,美國食品和藥物管理局的新“Elsa”人工智能旨在加快藥物審批速度,但卻偽造了不存在的醫學研究。
一名沮喪的 FDA 員工向 CNN 描述該工具不可靠,稱它“自信地產生幻覺”,而另一位員工則感嘆道,“我浪費了很多額外的時間,只是因為我必須提高警惕。”
同樣,人工智能公司 Anthropic 的律師在他們自己的 Claude AI 發明了法庭文件中使用的法律引文後,不得不向法官正式道歉。
新聞業尤其屢屢出現這種疏忽的情況。在 10 月份的一個驚人相似的案例中,德國雜誌《明鏡周刊》不得不更正一篇文章,其中包含人工智能生成的句子,提議改變文本的語氣。
這些錯誤並不局限於低層內容農場,但出現在受人尊敬的知名媒體上,凸顯了編輯工作流程的系統性崩潰。
這些並不是孤立的事件。由 BBC 和歐洲廣播聯盟 (EBU) 協調進行的一項具有里程碑意義的國際研究揭示了這種不可靠性的系統性。
在評估了 3,000 多個回復後,研究結果表明,人工智能助手在 45% 的新聞相關答案中產生了嚴重錯誤。正如 EBU 媒體總監 Jean Philip De Tender 所解釋的那樣,“這項研究最終表明,這些失敗並不是孤立的事件。它們是系統性的、跨境的和多語言的,我們認為這危及了公眾的信任。”
信任的侵蝕:不受控制的人工智能失控的現實成本
人工智能生成的錯誤信息不斷湧現,正在對數字信息生態系統造成切實的損害。對於像維基百科這樣的基礎平台來說,後果正在變得生死存亡。
維基媒體基金會最近報告說,人流量下降了 8%,令人震驚,直接指責人工智能搜索工具和聊天機器人通過總結內容而不註明來源來吸引訪問者。
這種趨勢威脅到了百科全書的志願者驅動模式。正如維基媒體的高級產品總監馬歇爾·米勒(Marshall Miller)警告的那樣,“隨著維基百科的訪問量減少,可以增長和豐富內容的志願者也越來越少,支持這項工作的個人捐助者也越來越少。”
在內部,該平台已經在與人工智能生成的提交內容進行鬥爭,一名志願者將其描述為“存在的威脅”,促使社區採取“快速刪除”政策,以消除最糟糕的情況。
這些重複的失敗最終為人工智能的現狀提供了重要的教訓。錯誤的責任不能推卸給機器。
正如穀歌前首席決策科學家 Cassie Kozyrkov 在 Cursor AI 代碼編輯器的支持機器人發明了虛假公司政策後指出的那樣,“如果領導者明白 (1) 人工智能會犯錯誤,(2) 人工智能無法為這些錯誤承擔責任(因此責任落在你身上),(3) 用戶討厭被冒充人類的機器欺騙,那麼這種混亂本來可以避免。”
Dawn 發生的事情只是最新的提醒:在人工智能時代,最後、不可或缺的質量控制層仍然是勤奮的人類監督。