Openaiは、より自律的なO3およびO4-MINIモデルを4月中旬頃にChatGPTのサブスクライバーに支払うようにプッシュし、Openaiが「初期エージェントの行動」と説明するものをブラウジングやコード分析などのツールを独立して選択できるように装備しました。これらの新しいモデルがテキストに目に見えないキャラクターを埋め込んだことを提案するレポートが浮上し、Openaiが微妙なテキスト透かしシステムを実装したのか、モデルが単に学習しているかどうかについての議論を引き起こしました。 href=”https://www.rumidocs.com/newsroom/new-chatgpt-models-seem-to-leave-watermarks-on-text”target=”_ blank”> rumiによってもたらされる、アカデミックに焦点を当てたAIスタートアップは、特別なユニコードキャラクターの外観に焦点を当てています。 Unicodeは、さまざまなライティングシステムの文字をエンコードする標準です。これらの特定の文字、主に狭いノーブレイクスペース(nnbsp、u+202f)は、ほとんどのビューの標準スペースと同一にレンダリングされますが、明確なコードのような特別なコードのような特別なコードのような特別なコードのような特別なコードのような特別なコードを持っています。 href=”https://www.soscisurvey.de/tools/view-chars.php”ターゲット=”_ blank”> soscisurveyのキャラクタービューアーまたは
rumiは、このパターンがGPT-4oのような古いモデルのテストでは系統的でないようであり、意図的でありながら容易に敗北しやすいものであると仮定したことを指摘しています。この方法には、キャラクターを削除するためのシンプルな発見とレプレースが含まれます。これは、Rumiがビデオで実証したプロセスです。
[組み込みコンテンツ]
しかし、テクニカル分析は別の説明につながる可能性があります。文字はタイポグラフィで正しい場合があります。非壊れたスペース(狭いと標準の両方)は、通貨シンボルや量やイニシャルや姓などの関連要素間の不要なラインの破損を防ぐために合法的に使用され、読みやすさを確保します。 href=”https://en.wikipedia.org/wiki/non-breaking_space”target=”_ blank”>この適切な使用法を学び、現在、これらのルールを適用しています。正確な場合、これは発見を意図的な追跡メカニズムからモデルの高度なテキスト生成の癖に再構成しますが、珍しいキャラクターは素朴なチェック中にまだ不注意にテキストにフラグを立てることができます。認証の取り組み
意図に関係なく、これらの異常なキャラクターの存在は、特にAIの支援を特定することが大きな懸念事項である学界において意味があります。 「5月末まで」無料の学生アクセスを提供するOpenaIでは、削除の容易さは、検出の優位性が短命であり、ユーザーに気付かないことに不公平になる可能性があることを意味します。同社は、2024年初頭にDALL・E 3画像にC2PAメタデータ(コンテンツソースと履歴、しばしばコンテンツ資格情報と呼ばれる標準)を追加し始め、目に見える「ImageGen」ラベル GPT-4Oの画像出力は、2025年4月上旬に無料ユーザーのための画像出力です。これらの取り組みは、GoogleのSynthIDの画像、Azure Openaiサービスを介したMicrosoftのメタデータが埋め込まれ、Metaの必須の可視ラベルが2024年2月に展開されたという出所の業界全体の推進を反映しています。 2023年10月に公開されたメリーランド大学の研究では、多くの透け型の方法が「拡散浄化」や「スプーフィング」などの攻撃に対して脆弱であることが示されました。 Their release coincided with OpenAI’s own data, detailed in the models’ official system card, showing a前任者と比較して製造速度の著しい増加。
personqaベンチマークでは、O3は誤った情報を33%で生成し、O4-MINIは48%に達し、O1およびO3-MINIの〜15%の範囲をはるかに上回りました。 OpenaiのスポークスマンであるNiko Felixは、これをTechCrunchに認め、「すべてのモデルで幻覚に対処することは進行中の研究分野であり、精度と信頼性を向上させるために継続的に取り組んでいます。」ターゲット=”_ blank”> Pythonコードを実行することはできませんでした実行できませんでした。 href=”https://truthfulness.docent.transluce.org/o3-2025-04-03/transcript/macbook_pro_0_human-generated_attacks_0″ターゲット=”_ blank”>“ 2021 MacBook Pro” href=”https://truthfulness.docent.transluce.org/o3-2025-04-03/transcript/python_repl_0_human-generated_attacks_0″ターゲット=”_ blank”> python環境人間の評価者が複雑なステップを検証するのに苦労する可能性がある人間のフィードバック(RLHF)からの強化学習を含む:「私たちの仮説は、Oシリーズモデルに使用される強化学習の種類は、通常標準的なトレーニング後パイプラインによって緩和される(しかし完全に消去されない)問題を増幅する可能性があるということです。」ルールを示唆する条項を備えたその安全フレームワークは、競合他社の行動に基づいてルールを変更できる可能性があります( openaiが述べた: t
heseの発展は批判を引き起こし、1つの情報源はテストアプローチを「無謀」と呼んでいると伝えられていますが、元技術スタッフのメンバーは、「あなたが評価したものとは異なるモデルをリリースするのは悪い習慣です」と言っていました。 Openaiの安全システムの責任者であるJohannes Heideckeは、ペースを擁護し、「私たちはどれだけ速く移動し、どれだけ徹底しているかというバランスが良い」と主張しています。この複雑な画像は、モデルがMicrosoft AzureやGithub Copilotなどのプラットフォームへの迅速な統合を見るにつれて出現します。