Berikutan pelancaran bergelora model GPT-5, OpenAI sedang menguji ciri”usaha pemikiran”baru untuk CHATGPT yang memberikan pengguna lebih banyak kawalan berbutir ke atas prestasi AI. Dilihat pada akhir bulan Ogos, tetapan eksperimen membolehkan pengguna memilih dari empat tahap intensiti pengiraan.

Langkah ini adalah tindak balas langsung kepada kritikan yang meluas yang mencemarkan pelancaran GPT-5, yang mendorong syarikat untuk memulihkan model GPT-4O yang popular dan menambah kawalan manual. Dengan membiarkan pengguna mengimbangi kelajuan tindak balas terhadap kedalaman analisis, OpenAI bertujuan untuk menangani kebimbangan kebolehpercayaan dan meningkatkan pengalaman pengguna.

Dari pelancaran yang tidak kemas kepada kawalan manual Matlamatnya adalah untuk menghapuskan apa yang CEO Sam Altman memanggil”kekacauan yang mengelirukan”model yang berbeza. Walau bagaimanapun, strategi bercita-cita tinggi dengan cepat dibongkar.

Model ini mencipta nama negara fiksyen seperti”Onegon,”gagal pada matematik asas, dan menghasilkan output yang tidak masuk akal, yang membawa kepada tindak balas yang meluas. Penerimaan awam begitu negatif sehingga syarikat itu dipaksa menjadi postur pertahanan yang jarang berlaku.

Menjelang 8 Ogos, Altman mengeluarkan permintaan maaf awam. Dia mengakui bahawa”Autoswitcher’yang rosak di antara mod dalaman model telah menjadikannya lebih lama’kelihatan seperti dumber’daripada yang dimaksudkan,”menyalahkan kecacatan teknikal untuk prestasi yang buruk. Ini tersandung memberikan peluru untuk pengkritik dan mewujudkan pembukaan untuk pesaing, yang cepat memanfaatkan keadaan.

Hanya beberapa hari kemudian, pada 12 Ogos, Openai melaksanakan pembalikan yang signifikan. Ia memulihkan GPT-4O untuk membayar pelanggan dan memperkenalkan mod manual untuk GPT-5:”Auto,””Cepat,”dan”Berfikir”. Pivot ini menandakan pelajaran utama untuk pemimpin AI tentang mengimbangi inovasi dengan jangkaan pengguna.

Ciri”usaha pemikiran”yang baru nampaknya menjadi evolusi yang lebih berbutir dalam pembetulan kursus itu. Altman sendiri mengisyaratkan pada peralihan ini, menyatakan,”Satu pembelajaran untuk kita sejak beberapa hari yang lalu adalah kita benar-benar hanya perlu pergi ke dunia dengan penyesuaian per-pengguna personaliti model.”kepada maklum balas pengguna.

Di bawah tudung: Bagaimana’usaha pemikiran’berfungsi

Picker usaha baru memberikan pengguna pengaruh langsung ke atas anggaran pengiraan model. Menurut laporan, ciri ini membentangkan empat tahap intensiti yang berbeza untuk pengguna dipilih. Ini adalah”cahaya,””standard,””dilanjutkan,”dan”maks. href=”https://t.co/onwcbq4cuw”target=”_ blank”> pic.twitter.com/onwcbq4cuw

-tibor blaho (@btibor91) href=”https://twitter.com/btibor91/status/1961547918428836254?ref_src=twsrc%5etfw”sasaran=”_ blank”Langkah-langkah model diperlukan untuk merumuskan tindak balas. Lebih banyak”jus”biasanya menghasilkan analisis yang lebih dalam dan lebih berhati-hati tetapi juga meningkatkan masa tindak balas. Tetapan tertinggi”max”dilaporkan berpagar untuk pelanggan Pro.

Sistem bertingkat ini membolehkan pengguna menyesuaikan prestasi AI kepada tugas-tugas tertentu. Pengguna mungkin memilih”cahaya”untuk soalan yang cepat dan mudah tetapi beralih kepada”dilanjutkan”atau”max”apabila bekerja pada masalah yang kompleks yang memerlukan penalaran yang lebih teliti, seperti penilaian bon atau analisis kod.

Ia merumuskan perdagangan antara kelajuan dan kualiti, cabaran teras dalam penggunaan AI berskala besar. Ia mencerminkan industri yang lebih luas dengan kebolehpercayaan dan keselamatan AI. Ciri ini tiba sejurus selepas Openai dan Rival Anthropic menerbitkan hasil ujian keselamatan bersama pada 28 Ogos.’Duel’dalam perlumbaan AI Arms, mendedahkan kelemahan yang membimbangkan dalam model kedua-dua syarikat . Laporan isu-isu terperinci seperti”pencegahan yang melampau,”di mana model akan mengesahkan kepercayaan delusi pengguna, dan kesediaan untuk membantu dengan permintaan berbahaya.

Ujian juga menyerlahkan pembahagian falsafah. Model Anthropic sering enggan menjawab untuk mengelakkan kesilapan, mengutamakan berhati-hati atas utiliti. Sebaliknya, model Openai lebih membantu tetapi juga menghasilkan lebih banyak kesilapan faktual, atau hallucinations, dalam ujian yang dikawal untuk Marcus, yang berpendapat,”Tiada siapa yang mempunyai integriti intelektual masih boleh percaya bahawa skala murni akan membawa kita ke AGI,”mempersoalkan keseluruhan paradigma”lebih besar adalah lebih baik”. Tiada siapa yang mempunyai integriti intelektual masih boleh percaya bahawa penskalaan tulen akan membawa kita ke Agi. href=”https://twitter.com/garymarcus/status/1953939152594252170?ref_src=twsrc%5etfw”sasaran=”_ blank”yang mendakwa bahawa di syarikat itu,”Kebudayaan dan proses keselamatan telah mengambil tempat duduk belakang untuk produk berkilat.”

Dengan meletakkan”usaha pemikiran”secara langsung di tangan pengguna, Openai memberi kuasa kepada mereka untuk mengurangkan beberapa risiko ini. Langkah ini menandakan pivot strategik dari pendekatan automatik”satu-saiz-semua”kepada pengalaman pengguna yang lebih telus, disesuaikan, dan akhirnya boleh dipertahankan.

Categories: IT Info