Openai mendorong model O3 dan O4-mini yang lebih otonom untuk membayar pelanggan chatgpt di sekitar pertengahan April, melengkapi chatbot dengan apa yang Openai gambarkan sebagai”perilaku agen awal”yang memungkinkannya untuk secara mandiri memilih alat seperti browsing atau analisis kode.

Hampir segera, model-model canggih ini bukan hanya untuk browsing atau analisis kode. Laporan muncul yang menyarankan model-model yang lebih baru ini menanamkan karakter yang tidak terlihat dalam teks mereka, memicu perdebatan tentang apakah OpenAi menerapkan sistem watermarking teks halus atau jika model hanya menunjukkan kebiasaan yang dipelajari, meskipun terkadang bermasalah, tipografi.

Karakter tersembunyi, air atau tipografi?

Karakter tersembunyi, air atau tipografi?

p> pow-karakter, watermark atau tipografi?

p> p> poubed The Observasi: watermark atau Typography?

power href=”https://www.rumidocs.com/newsroom/new-catgpt-models-eem-to-leave-watermarks-on-text”target=”_ blank”> Diwarnai oleh rumi , sebuah startup AI dengan fokus pada akademisi, pusat-pusat penampilan Khusus Khusus di dalamnya. Unicode adalah standar untuk mengkode karakter dari sistem penulisan yang berbeda; Karakter-karakter khusus ini, terutama Ruang NO-BREAK sempit (NNBSP, U+202F) , render secara identik dengan ruang standar di sebagian besar tampilan tetapi memiliki kode yang berbeda dengan kode yang berbeda dengan code yang berbeda dengan code yang berbeda di bawah dengan code yang berbeda di dalam tetapi memiliki code yang berbeda di dalam tetapi memiliki code yang berbeda di dalam tetapi memiliki code yang berbeda di dalam tetapi memiliki code yang berbeda dan memiliki code yang berbeda dan memiliki code yang berbeda di dalam tetapi memiliki code yang berbeda dan memiliki code yang berbeda href=”https://www.soscisurvey.de/tools/view-chars.php”target=”_ blank”> penampil karakter Soscisurvey atau editor kode seperti

Rumi mencatat bahwa pola ini tampaknya sistematis, tidak ada dalam tes model yang lebih tua seperti GPT-4O, dan berpendapatnya adalah watermark yang mudah dikalahkan, meskipun mudah dikalahkan. Metode ini melibatkan penemuan dan ganti sederhana untuk menghapus karakter, proses yang ditunjukkan Rumi dalam sebuah video.

[konten tertanam]

Artikel Rumi juga mencatat bahwa, tidak seperti yang berpotensi Positif palsu yang hampir nol, meskipun kemudahan bypassnya tetap menjadi kelemahan utama.

Namun, analisis teknis juga dapat mengarah pada penjelasan alternatif: karakter mungkin benar secara tipografi. Ruang non-pengelakan (baik sempit maupun standar) secara sah digunakan untuk mencegah jeda garis yang tidak diinginkan antara elemen terkait seperti simbol mata uang dan jumlah atau inisial dan nama keluarga, memastikan keterbacaan.

Ini masuk akal model, dilatih pada dataset yang luas termasuk teks yang diformat dengan baik, hanya mempelajari penggunaan yang tepat ini dan sekarang menerapkan aturan ini-mungkin bahkan lebih rajin daripada banyak manusia. Jika akurat, ini membingkai ulang temuan dari mekanisme pelacakan yang disengaja ke kekhasan generasi teks canggih model, meskipun karakter yang tidak biasa masih dapat secara tidak sengaja menandai teks selama pemeriksaan naif.

Openai sendiri belum membuat pernyataan resmi jika itu untuk mengonfirmasi atau menyangkal penggunaan karakter ini sebagai watermark, dan rumi berspekulasi Openai mungkin menghapus fitur jika itu untuk menghapus fitur jika itu. Upaya Otentikasi

Terlepas dari niat, keberadaan karakter yang tidak biasa ini memiliki implikasi, terutama di dunia akademis di mana mengidentifikasi bantuan AI merupakan perhatian utama. Dengan Openai menawarkan akses siswa gratis “hingga akhir Mei,” kemudahan penghapusan berarti setiap keuntungan deteksi dapat berumur pendek dan berpotensi tidak adil bagi pengguna yang tidak sadar.

Situasi ini menggemakan eksplorasi Openai sebelumnya dalam otentikasi konten. Perusahaan mulai menambahkan metadata C2PA (standar untuk mensertifikasi sumber konten dan sejarah, sering disebut kredensial konten) ke Dall · e 3 pada awal 2024 dan menguji terlihat label”ImageGen” Pada output gambar GPT-4O untuk pengguna gratis baru-baru ini pada awal April 2025.

Openai bahkan berkembang, tetapi berhenti peluncuran, alat watermarking teks berbasis pola linguistik di pertengahan 2024 karena akurasi dan kekhawatiran yang bisa dipindahkan. Upaya-upaya ini mencerminkan dorongan di seluruh industri untuk sumber, terlihat di Synthid Google untuk gambar, Metadata Metadata yang tertanam melalui layanan Azure Openai, dan label yang terlihat wajib Meta diluncurkan pada Februari 2024.

Namun, tantangan mendasar tetap ada; Penelitian dari University of Maryland yang diterbitkan pada Oktober 2023 menunjukkan banyak metode watermarking dapat rentan terhadap serangan seperti”pemurnian difusi”atau”spoofing”.

di luar tanda air: pertanyaan keandalan berlama-lama

Debat khusus ini menambah daftar pengamatan yang tumbuh tentang O3 dan——O3 dan—–O3 dan O3 dan. Rilis mereka bertepatan dengan data Openai sendiri, yang dirinci dalam model’“Peningkatan tingkat fabrikasi yang nyata dibandingkan dengan pendahulu.

Pada patokan personqA, O3 menghasilkan informasi yang salah 33% dari waktu, dan O4-mini mencapai 48%, jauh di atas kisaran ~ 15% dari model lama O1 dan O3-Mini. Juru Bicara Openai Niko Felix mengakui hal ini kepada TechCrunch, menyatakan, “Mengatasi halusinasi di semua model kami adalah bidang penelitian yang berkelanjutan, dan kami terus bekerja untuk meningkatkan akurasi dan keandalannya.”

Kelompok penelitian independen menerjemahkan AI merinci bagaimana model O3 pra-pelepasan

AI menerjemahkan AI merinci bagaimana model pra-rilis O3

AI merinci bagaimana model pra-rilis O3 href=”https://transluce.org/investigating-o3-truthness”target=”_ blank”> Fabrikasi mengeksekusi kode python Tidak dapat berjalan, menciptakan alasan rumit yang melibatkan kesalahan copy-paste atau mengklaim perhitungan dilakukan pada a yang tidak ada “2021 macbook pro”href=”https://truthness.docent.transluce.org/o3-2025-04-03/transcript/python_repl_0_human-generated_attacks_0″target=”_ blank”> lingkungan python

p> p> p> p> p> p> p> p> p> p> riset neower neowhon lingkungan python

p> p> p> p> p> p> p> p> riset neower neowhon lingkungan

p> p> p> p> p> p> p> p> p> p. riset neower neower

p> p> p> p> p> p> p> riset neower neowhon lingkungan . Melibatkan pembelajaran penguatan dari umpan balik manusia (RLHF) di mana penilai manusia mungkin berjuang untuk memverifikasi langkah-langkah kompleks, bisa menjadi faktor:”Hipotesis kami adalah bahwa jenis pembelajaran penguatan yang digunakan untuk model-o-series dapat memperkuat masalah yang biasanya dikurangi dengan tes ini dan tidak terasa dengan forise, dan tidak terasa dengan forise, dan tidak terkelupas dengan ini.”Memperbarui kerangka kerja keselamatannya dengan klausul yang menyarankan aturan berpotensi diubah berdasarkan tindakan pesaing (

Perkembangan ini menimbulkan kritik, dengan satu sumber dilaporkan menyebut pendekatan pengujian”sembrono,”sementara mantan anggota staf teknis dikutip dengan mengatakan,”Adalah praktik yang buruk untuk merilis model yang berbeda dari yang Anda evaluasi.”Kepala Sistem Keselamatan Openai, Johannes Heidecke, membela kecepatan, menyatakan,”Kami memiliki keseimbangan yang baik tentang seberapa cepat kami bergerak dan seberapa teliti kami.”Gambaran kompleks ini muncul ketika model melihat integrasi cepat ke dalam platform seperti Microsoft Azure dan GitHub Copilot.