Anthropic meningkatkan perlumbaan tingkap konteks AI, menaik taraf model Claude Sonnet 4 untuk mengendalikan 1 juta token. Tersedia sekarang dalam beta awam , langkah itu meletakkan antropik dalam persaingan langsung dengan API 400,000 token Pemaju menganalisis keseluruhan kod atau set besar dokumen sekaligus. Dorongan seluruh industri ini datang sama seperti kajian baru-baru ini mengenai”Rot Konteks”yang mencadangkan prestasi model boleh bertambah buruk dengan input yang panjang, menimbulkan persoalan mengenai strategi.

href=”https://www.anthropic.com/news/1m-context”target=”_ blank”> API antropik rasmi dan Amazon Bedrock. Syarikat itu juga mengesahkan bahawa ciri ini akan datang ke Vertex AI Google Cloud, memperluaskan ketersediaannya untuk pemaju perusahaan. Anthropic memposisikan peningkatan ini untuk kelas baru yang kompleks, aplikasi intensif data yang sebelum ini tidak praktikal. Bagi pemaju, ini bermakna keupayaan untuk melaksanakan analisis kod berskala besar dengan memuatkan keseluruhan kod, yang membolehkan model memahami seni bina projek dan mengenal pasti kebergantungan silang fail. Bagi penyelidik dan penganalisis, ia membolehkan sintesis set dokumen yang luas, seperti kontrak undang-undang atau spesifikasi teknikal, sambil mengekalkan konteks penuh di seluruh beratus-ratus sumber. Ia juga memberi kuasa kepada penciptaan ejen yang lebih canggih dan konteks yang dapat mengekalkan koheren di seluruh beratus-ratus panggilan alat dan aliran kerja pelbagai langkah.

Penerima awal telah memuji keupayaan baru untuk kesannya terhadap projek-projek dunia nyata. Bolt.New, sebuah syarikat yang mengintegrasikan Claude ke dalam platform pembangunan berasaskan pelayarnya, menekankan model pesaing yang berterusan. Eric Simons, Ketua Pegawai Eksekutif dan pengasas bersama syarikat itu, menyatakan bahawa”Dengan tetingkap konteks 1M, pemaju kini boleh mengusahakan projek-projek yang lebih besar sambil mengekalkan ketepatan yang tinggi yang kita perlukan untuk pengekodan dunia nyata.”Sean Ward, Ketua Pegawai Eksekutif dan pengasas bersama Igent AI, menyifatkan kemas kini sebagai peralihan asas, dengan menyatakan bahawa ia membolehkan”sesi-sesi yang ditawarkan oleh”. tingkap konteks. Landskap yang kompetitif sudah termasuk Minimax yang berpangkalan di Singapura, yang melancarkan model token 4 juta pada bulan Januari, menetapkan bar tinggi untuk industri. Ia juga termasuk Meta, yang model Llama 4 Scout mempunyai kapasiti token 10 juta, menolak sempadan pemprosesan konteks panjang lebih jauh. href=”https://www.anthropic.com/pricing#API”target=”_ blank”> Harga untuk ciri baru bertingkat . Untuk mendapatkan sehingga 200,000 token, kosnya ialah $ 3 per juta token input. Untuk arahan yang lebih besar, harga berganda kepada token input $ 6 per juta. Struktur ini direka untuk menguruskan peningkatan beban pengiraan konteks yang lebih lama.

Ini berbeza dengan pendekatan OpenAI untuk GPT-5 yang baru dilancarkan. Walaupun antara muka webnya mempunyai had yang lebih kecil, API GPT-5 menawarkan tetingkap konteks maksimum sebanyak 400,000 token. Tahap teratas ini dikhaskan secara eksklusif untuk pengguna API, mensasarkan pemaju membina aplikasi yang memerlukan analisis dokumen yang mendalam. Gemini 2.5 Pro Google menyokong tetingkap konteks sehingga 1 juta token. 

Masalah’Konteks Rot’: Adakah lebih besar selalu lebih baik?

Walaupun industri perlumbaan ke arah tingkap konteks yang lebih besar, badan penyelidikan yang semakin meningkat menunjukkan bahawa hanya meningkatkan saiz input tidak menjamin prestasi yang lebih baik. Laporan baru-baru ini dari Chroma Research memperkenalkan konsep”Konteks Rot,”yang mencabar naratif”lebih besar adalah lebih baik”. Sebaliknya, ia menguji 18 LLM utama mengenai keupayaan mereka untuk membuat kesimpulan dari maklumat yang berkaitan dengan semantik, tugas yang lebih sukar. Para penyelidik berkata,”Kami menunjukkan bahawa walaupun di bawah keadaan minimum ini, prestasi model merosot apabila peningkatan panjang input, selalunya dalam cara yang mengejutkan dan tidak seragam.”Kajian itu juga mendapati bahawa model GPT cenderung untuk merapikan jawapan yang salah, sementara model Claude sering enggan menjawab apabila berhadapan dengan kekaburan.

Penemuan ini tidak terpencil. Kajian bersama dari Microsoft dan Salesforce melaporkan penurunan prestasi 39% dalam perbualan yang panjang dan berbilang.

Malah model dengan had teoretikal yang besar menghadapi cabaran praktikal. Llama 4 Meta, walaupun tingkap token 10 juta, dilaporkan bergelut dengan penanda aras konteks panjang. Ini telah membawa beberapa, seperti penyelidik AI Gary Marcus, untuk mempersoalkan keseluruhan pendekatan. Beliau berpendapat,”Tiada siapa yang mempunyai integriti intelektual masih boleh percaya bahawa penskalaan tulen akan membawa kita ke AGI.”

Bukti ini menunjukkan bahawa”kejuruteraan konteks”-kelompok yang berhati-hati berkualiti tinggi, data yang relevan-mungkin lebih kritikal untuk AI yang boleh dipercayai daripada perkembangan tingkap-tingkap. Apabila pemaju mendapat akses kepada alat-alat baru yang kuat ini, tumpuan boleh beralih dari berapa banyak data yang dapat dikendalikan oleh model untuk seberapa baik data itu disediakan.

Categories: IT Info