主要的學術出版商Springer Nature正在研究一本新機器學習教科書,因為一個看門狗小組發現它帶有捏造的引用,這是AI生成的內容的明顯標誌。這本書《掌握機器學習》於2025年4月出版。
爭議引發了有關出版商的驗證過程的緊急問題,並且隨著生成AI的關鍵需求,因為生成AI變得更加廣泛。
在書中的樣本中,46個引用中的三分之二是不存在的或包含實質性錯誤。在文本中被引用的Yehuda Dar和Aaron Courville等研究人員確認,歸因於他們的作品是假或歪曲的。
該書的作者Govindakumar Madhavan是Seaportai的創始人,是Seaportai的創始人,並撰寫了許多其他書籍和視頻課程。具有諷刺意味的是,他的公司承諾 幫助“組織建立AI-Power-Power-Power欺詐檢測系統,這些欺詐檢測系統準確,負責和適應性對現實世界的威脅,他沒有直接回答有關大型語言模型的使用(與llms相關),而不是“ llms”。仍然是一個挑戰,因為即使是人寫的文本也可以看起來像“像AI”。 “
此響應避開了未申報的AI使用的核心問題。施普林格自然的政策明確地指出,“任何提交都必須通過完整的人類監督進行,並且除了基本複制的任何AI使用外,必須宣布任何AI的使用。 ” href=“ https://link.springer.com/book/10.1007/978-981-97-9914-5″ target=“ _ black”> book
響應於發現,出版商確認,我們現在就知道了一位文本<我們的文本 這一事件不是孤立的,但反映了一種持續的行業挑戰,稱為AI幻覺,模型會產生自信,但在高史上的專業環境中造成了5月20日的範圍。在法庭上,他們在版權訴訟中使用了自己的克勞德AI模型產生的法律引用。對更廣泛的問題進行了道歉,谷歌首席決策者Cassie Kozyrkov說:“ 甚至最先進的模型也無法免疫,從而使Openai的新型號更高的培訓率顯示了這些方法,問題。 對完整性的威脅現在正在逐漸升級,而不是偶然的捏造到有意的操作。 href=“ https://asia.nikkei.com/business/technology/artcover-intelligence/posiver-review-review-only-only-researcher-hide-hide-hide-ai-prompts-inpapers-inpapers“ target=“ _ black”>由Nikkei報導了Nikkei在2025年7月的2025年7月啟用了新的embed extricer nevers extrice nsivelsekit量程,被稱為迅速注射攻擊的命令,以欺騙AI審查系統。這是一項經過操作的AI審查,構成了“同行評審機構”。”這代表了對同行審查過程的直接攻擊。 這些升級的事件中,這些事件在巨大的壓力下揭示了“巨大的文化”,造成了損失的shorpive of tragip of sorpertiv sorperctive of sorpertive sorperctive sorpercy sorpercip, 回應,關鍵的行業機構開始採取行動。 強調對透明度和強大的人監督的需求警告新的欺騙方法將繼續出現。 一種“自信性錯誤”的模式
從意外捏造到故意的欺騙
在道德護欄