OpenAi將其更自主的O3和O4-Mini型號推向了4月中旬附近的Chatgpt訂戶,為聊天機器人配備了OpenAI所說的“早期代理行為”,允許其獨立選擇瀏覽或代碼分析等工具。
幾乎立即引起了這些高級模型,這些高級模型不僅會引起他們的能力,但也不僅會為他們的能力提供了意外的輸出,但要引起意外的輸出。報導浮出水面,暗示了這些較新的模型在其文本中嵌入了隱形字符,引發了關於Openai是否實施了微妙的文本水印系統的辯論,或者這些模型是否只是展示了學習的,儘管有時有時有問題,印刷習慣。
隱藏的字符:水印或典型? href=”https://www.rumidocs.com/newsroom/new-chatgpt-models-seem-to-leave-watermarks-on-text” target=”_blank”>brought to light by Rumi, an AI startup with a focus on academics, centers on the appearance of special Unicode characters within longer text generated by o3 and o4-mini. Unicode是編碼來自不同寫作系統的字符的標準。這些特定角色,主要是狹窄的無爆破空間(nnbsp,u+202f) ,在大多數視圖中具有與眾不同的標準空間相同,但具有與眾不同的標準空間,但具有不同的下屬編碼 soscisurvey的角色查看器或代碼編輯器,例如
rumi rumi指出,這種模式似乎是系統的,在諸如GPT-4O之類的較舊模型的測試中都不存在,並且在GPT-4O之類的舊模型中,它是故意的,雖然很容易被擊倒。該方法涉及一個簡單的發現與刪除角色的簡單,這是視頻中演示的魯米過程。
[embedded content]
The Rumi article also noted that, unlike potentially inaccurate AI detection tools, this character-based method offers接近零的假陽性,儘管其旁路的易於性仍然是一個主要的缺點。
但是,技術分析也可以導致其他解釋:字符在印刷上可能是正確的。非破裂的空間(狹窄和標準)被合法地用於防止相關元素(例如貨幣符號,金額或姓名縮寫和姓氏)之間有不必要的線路斷裂,可確保可讀性。
是可行的模型,在包括良好的文本,簡單學習了這種適當的用法,現在正在應用這些規則-也許比許多人更勤奮。如果正確的話,這將發現從故意的跟踪機制轉化為模型的高級文本一代的怪癖,儘管在幼稚的檢查過程中,不尋常的字符仍然可以無意中標記文本。
OpenAI本身並沒有使這些角色用作水印,並且持續的Openai的使用效果不得超過
不管意圖如何,這些不尋常的角色的存在都具有含義,尤其是在識別AI援助的學術界是一個主要問題的學術界。通過OpenAi提供免費的學生訪問“直到5月底”,易於刪除意味著任何檢測優勢可能是短暫的,並且可能對用戶不了解用戶可能是不公平的。
這種情況與OpenAI在內容身份驗證中的先前探索相呼應。該公司開始在2024年初添加C2PA Metadata(一種經常稱為內容憑據的標準,通常稱為內容憑據) href=”https://www.bleepingcomputer.com/news/artificial-intelligence/openai-tests-watermarking-for-chatgpt-4o-image-generation-model/” target=”_blank”>“ImageGen”labels
on GPT-4o image outputs for free users as recently as early April 2025.
OpenAI even developed,但是由於準確性和繞過問題而暫停了2024年中期的基於語言模式的文本水印工具的推出。這些努力反映了在Google的Synthid中看到的圖像,微軟通過Azure Openai服務嵌入的元數據以及Meta強制性可見標籤在2024年2月推出的元素。
仍然存在基本挑戰; research from the University of Maryland published in October 2023 showed many watermarking methods can be vulnerable to attacks like “diffusion purification”or “spoofing”.
Beyond Watermarks: Reliability Questions Linger
This specific debate adds to a growing list of observations about the o3 and o4-mini models.它們的發布與OpenAi自己的數據一致,在模型的
在PersonQA基准上,O3產生了不正確的信息33%,而O4-Mini的命中率達到48%,遠高於〜15%的舊型號O1和O3 Mini。 OpenAI發言人Niko Felix承認這一點向TechCrunch承認:“解決所有模型中的幻覺是一個正在進行的研究領域,我們一直在努力提高其準確性和可靠性。 ”
獨立研究小組詳細介紹了AI如何詳細介紹AI如何預先發布O3模型
href=“ https://transluce.org/investigatigation-o3-truthfulness” target=“ _ blank”>捏造的執行python代碼
無法運行,發明了涉及復制paste錯誤或聲稱在不存在的 href=“ https://truthfulness.docent.transluce.org/o3-2025-04-04-03/transcript/macbook_pro_0_human-generated_attacks_0″ target=“ _ black”>“ _ black”>“ 2021 Macbook Pro”
href=“ https://truthfulness.docent.transluce.org/o3-2025-04-04-03/transcript/python_repl_0_human-generated_attacks_0″ target=“ _空白”> python環境 python環境。可能涉及從人類反饋(RLHF)中學習人類評估者可能難以驗證複雜步驟的強化學習,這可能是一個因素:“我們的假設是,用於O系列模型的一種強化性的強化學習可能會放大通常會通過標準的訓練後的預算來驗證(但並非完全消除(但並未完全消除),這也是如此,這是標準的訓練後的雜物。 and updated its safety framework with a clause suggesting rules could potentially be altered based on competitor actions (OpenAI stated: “If another frontier AI developer releases a high-risk system without comparable safeguards, we may adjust our requirements.”). T
引起了批評,據報導,一位消息人士稱測試方法為“魯ck”,而一位前技術人員的話說:“釋放與您評估的模型不同的模型是不好的做法。 ” Openai的安全系統主管Johannes Heidecke為步伐辯護,並斷言:“我們在移動的速度和徹底的速度方面保持了良好的平衡。 “當模型看到快速集成到Microsoft Azure和Github Copilot等平台時,這張復雜的圖片出現了。
。
隱藏的字符:水印或典型? href=”https://www.rumidocs.com/newsroom/new-chatgpt-models-seem-to-leave-watermarks-on-text” target=”_blank”>brought to light by Rumi, an AI startup with a focus on academics, centers on the appearance of special Unicode characters within longer text generated by o3 and o4-mini. Unicode是編碼來自不同寫作系統的字符的標準。這些特定角色,主要是狹窄的無爆破空間(nnbsp,u+202f) ,在大多數視圖中具有與眾不同的標準空間相同,但具有與眾不同的標準空間,但具有不同的下屬編碼 soscisurvey的角色查看器或代碼編輯器,例如
rumi rumi指出,這種模式似乎是系統的,在諸如GPT-4O之類的較舊模型的測試中都不存在,並且在GPT-4O之類的舊模型中,它是故意的,雖然很容易被擊倒。該方法涉及一個簡單的發現與刪除角色的簡單,這是視頻中演示的魯米過程。
[embedded content]
The Rumi article also noted that, unlike potentially inaccurate AI detection tools, this character-based method offers接近零的假陽性,儘管其旁路的易於性仍然是一個主要的缺點。
但是,技術分析也可以導致其他解釋:字符在印刷上可能是正確的。非破裂的空間(狹窄和標準)被合法地用於防止相關元素(例如貨幣符號,金額或姓名縮寫和姓氏)之間有不必要的線路斷裂,可確保可讀性。
是可行的模型,在包括良好的文本,簡單學習了這種適當的用法,現在正在應用這些規則-也許比許多人更勤奮。如果正確的話,這將發現從故意的跟踪機制轉化為模型的高級文本一代的怪癖,儘管在幼稚的檢查過程中,不尋常的字符仍然可以無意中標記文本。
OpenAI本身並沒有使這些角色用作水印,並且持續的Openai的使用效果不得超過
不管意圖如何,這些不尋常的角色的存在都具有含義,尤其是在識別AI援助的學術界是一個主要問題的學術界。通過OpenAi提供免費的學生訪問“直到5月底”,易於刪除意味著任何檢測優勢可能是短暫的,並且可能對用戶不了解用戶可能是不公平的。
這種情況與OpenAI在內容身份驗證中的先前探索相呼應。該公司開始在2024年初添加C2PA Metadata(一種經常稱為內容憑據的標準,通常稱為內容憑據) href=”https://www.bleepingcomputer.com/news/artificial-intelligence/openai-tests-watermarking-for-chatgpt-4o-image-generation-model/” target=”_blank”>“ImageGen”labels
on GPT-4o image outputs for free users as recently as early April 2025.
OpenAI even developed,但是由於準確性和繞過問題而暫停了2024年中期的基於語言模式的文本水印工具的推出。這些努力反映了在Google的Synthid中看到的圖像,微軟通過Azure Openai服務嵌入的元數據以及Meta強制性可見標籤在2024年2月推出的元素。
仍然存在基本挑戰; research from the University of Maryland published in October 2023 showed many watermarking methods can be vulnerable to attacks like “diffusion purification”or “spoofing”.
Beyond Watermarks: Reliability Questions Linger
This specific debate adds to a growing list of observations about the o3 and o4-mini models.它們的發布與OpenAi自己的數據一致,在模型的
在PersonQA基准上,O3產生了不正確的信息33%,而O4-Mini的命中率達到48%,遠高於〜15%的舊型號O1和O3 Mini。 OpenAI發言人Niko Felix承認這一點向TechCrunch承認:“解決所有模型中的幻覺是一個正在進行的研究領域,我們一直在努力提高其準確性和可靠性。 ”
獨立研究小組詳細介紹了AI如何詳細介紹AI如何預先發布O3模型
href=“ https://transluce.org/investigatigation-o3-truthfulness” target=“ _ blank”>捏造的執行python代碼
無法運行,發明了涉及復制paste錯誤或聲稱在不存在的 href=“ https://truthfulness.docent.transluce.org/o3-2025-04-04-03/transcript/macbook_pro_0_human-generated_attacks_0″ target=“ _ black”>“ _ black”>“ 2021 Macbook Pro”
href=“ https://truthfulness.docent.transluce.org/o3-2025-04-04-03/transcript/python_repl_0_human-generated_attacks_0″ target=“ _空白”> python環境 python環境。可能涉及從人類反饋(RLHF)中學習人類評估者可能難以驗證複雜步驟的強化學習,這可能是一個因素:“我們的假設是,用於O系列模型的一種強化性的強化學習可能會放大通常會通過標準的訓練後的預算來驗證(但並非完全消除(但並未完全消除),這也是如此,這是標準的訓練後的雜物。 and updated its safety framework with a clause suggesting rules could potentially be altered based on competitor actions (OpenAI stated: “If another frontier AI developer releases a high-risk system without comparable safeguards, we may adjust our requirements.”). T
引起了批評,據報導,一位消息人士稱測試方法為“魯ck”,而一位前技術人員的話說:“釋放與您評估的模型不同的模型是不好的做法。 ” Openai的安全系統主管Johannes Heidecke為步伐辯護,並斷言:“我們在移動的速度和徹底的速度方面保持了良好的平衡。 “當模型看到快速集成到Microsoft Azure和Github Copilot等平台時,這張復雜的圖片出現了。
。
rumi rumi指出,這種模式似乎是系統的,在諸如GPT-4O之類的較舊模型的測試中都不存在,並且在GPT-4O之類的舊模型中,它是故意的,雖然很容易被擊倒。該方法涉及一個簡單的發現與刪除角色的簡單,這是視頻中演示的魯米過程。
[embedded content]
The Rumi article also noted that, unlike potentially inaccurate AI detection tools, this character-based method offers接近零的假陽性,儘管其旁路的易於性仍然是一個主要的缺點。
但是,技術分析也可以導致其他解釋:字符在印刷上可能是正確的。非破裂的空間(狹窄和標準)被合法地用於防止相關元素(例如貨幣符號,金額或姓名縮寫和姓氏)之間有不必要的線路斷裂,可確保可讀性。
是可行的模型,在包括良好的文本,簡單學習了這種適當的用法,現在正在應用這些規則-也許比許多人更勤奮。如果正確的話,這將發現從故意的跟踪機制轉化為模型的高級文本一代的怪癖,儘管在幼稚的檢查過程中,不尋常的字符仍然可以無意中標記文本。
OpenAI本身並沒有使這些角色用作水印,並且持續的Openai的使用效果不得超過
不管意圖如何,這些不尋常的角色的存在都具有含義,尤其是在識別AI援助的學術界是一個主要問題的學術界。通過OpenAi提供免費的學生訪問“直到5月底”,易於刪除意味著任何檢測優勢可能是短暫的,並且可能對用戶不了解用戶可能是不公平的。
這種情況與OpenAI在內容身份驗證中的先前探索相呼應。該公司開始在2024年初添加C2PA Metadata(一種經常稱為內容憑據的標準,通常稱為內容憑據) href=”https://www.bleepingcomputer.com/news/artificial-intelligence/openai-tests-watermarking-for-chatgpt-4o-image-generation-model/” target=”_blank”>“ImageGen”labels
on GPT-4o image outputs for free users as recently as early April 2025.OpenAI even developed,但是由於準確性和繞過問題而暫停了2024年中期的基於語言模式的文本水印工具的推出。這些努力反映了在Google的Synthid中看到的圖像,微軟通過Azure Openai服務嵌入的元數據以及Meta強制性可見標籤在2024年2月推出的元素。
仍然存在基本挑戰; research from the University of Maryland published in October 2023 showed many watermarking methods can be vulnerable to attacks like “diffusion purification”or “spoofing”.
Beyond Watermarks: Reliability Questions Linger
This specific debate adds to a growing list of observations about the o3 and o4-mini models.它們的發布與OpenAi自己的數據一致,在模型的
在PersonQA基准上,O3產生了不正確的信息33%,而O4-Mini的命中率達到48%,遠高於〜15%的舊型號O1和O3 Mini。 OpenAI發言人Niko Felix承認這一點向TechCrunch承認:“解決所有模型中的幻覺是一個正在進行的研究領域,我們一直在努力提高其準確性和可靠性。 ” 獨立研究小組詳細介紹了AI如何詳細介紹AI如何預先發布O3模型
href=“ https://transluce.org/investigatigation-o3-truthfulness” target=“ _ blank”>捏造的執行python代碼
引起了批評,據報導,一位消息人士稱測試方法為“魯ck”,而一位前技術人員的話說:“釋放與您評估的模型不同的模型是不好的做法。 ” Openai的安全系統主管Johannes Heidecke為步伐辯護,並斷言:“我們在移動的速度和徹底的速度方面保持了良好的平衡。 “當模型看到快速集成到Microsoft Azure和Github Copilot等平台時,這張復雜的圖片出現了。
。