OpenAi縮放了與ChatGpt Itsvortations相關的免責聲明。產品負責人尼克·特利(Nick Turley)在X上指出,這些橙色盒警報已成為“不必要的”,儘管他堅持認為保障措施仍然是“只要您遵守法律並且不要傷害自己或他人。”
刪除明顯的彈出警告可能會使用戶有關實際策略邊界的困惑,即使禁止請求仍然被阻止。但是,此類免責聲明也可能給用戶提供有價值的提示來欺騙該系統,尤其是在諸如武器建設或極端主義活動的建議之類的案例中不斷出現時。因此,更改似乎並不是一個更好的用戶體驗。
您應該能夠在合適的情況下使用chatgpt,只要您遵守法律並且不要傷害法律你自己或他人。興奮地回滾UI中的許多不必要的警告。
謝謝
謝謝twitter.com/joannejang?ref_src=twsrc%5etfw”>@joannejang & https://t.co/kgr4as44hw
– Nick Turley(@ nickaturley) 2025年2月13日,2025年2月13日Openai認為,他們有時會拒絕良性提示,激怒日常用戶。他們現在更像是“不必要的障礙”而不是核心防禦。
,但有些人仍然擔心免責聲明也是道德上灰色提示的警示信號。這種新方法是增加風險的請求還是簡單地使Chatgpt更多地使Chantgpt更多用戶友好,必須看到。一個生動的案件是一個開發人員,他對sentry步槍響應了openai,當工作人員意識到該項目違反了政策時,開發人員的API訪問我們主動確定了這種違反我們的政策的行為,並通知開發人員在接受您的詢問之前停止這項活動。”分析人士認為,先前的免責聲明對軍事疑問提出了巨大的態度,提出了有關較少明顯警告是否可以邀請新濫用的疑問。
另一種案件涉及對最近的特斯拉·塞伯特·塞伯特(Tesla Cybertruck)爆炸的前綠色貝雷帽籌集說明。調查人員發布的日誌表明他操縱提示以提取部分炸彈製造細節。回想起這些事件的用戶想知道,即使Openai堅持其基本的拒絕制度沒有改變,但較少的免責聲明是否會同樣受到有害的提示。
一系列爭議進一步加劇了對更好的保障和免責聲明的需求。安全研究員戴維·庫斯馬爾(David Kuszmar)發現了他所謂的“時間匪”利用,該漏洞使用戶能夠操縱AI對提取受限制信息的時間的看法。
,而Openai則擁抱了一個更微妙的界面,競爭對手實驗室人類人類眾多界限該公司最近揭示了一種AI安全系統,該系統會提示其大型語言模型(LLMS),並在使用此方法之前篩選出可疑的內容。它需要更多的計算資源。