Ketua Pegawai Eksekutif Alphabet Sundar Pichai telah mengumumkan bahawa model Gemini 1.5 Pro Google akan menampilkan tetingkap konteks yang diperluaskan sebanyak 2 juta token , menggandakan kapasiti sebelumnya. Kemas kini ini, yang didedahkan semasa persidangan pembangun Google I/O 2024, bertujuan untuk meningkatkan prestasi model bahasa besar (LLM) Google.

Analisis dan Pemahaman Data Dipertingkat

Peluasan tetingkap konteks daripada 1 juta kepada 2 juta token dijangka meningkatkan keupayaan model untuk menganalisis dan memahami set data yang lebih besar. Token, yang merupakan segmen perkataan, memainkan peranan penting dalam cara LLM memproses dan menjana bahasa. Setiap token mengandungi empat aksara dalam bahasa Inggeris dan kapasiti yang dipertingkatkan membolehkan model mengendalikan input dan output data yang lebih komprehensif.

Google Matlamat untuk “Konteks Infinite”

Token adalah penting untuk LLM kerana ia memecahkan perkataan kepada unit yang lebih kecil untuk analisis dan penjanaan respons Tetingkap konteks menentukan jumlah data yang boleh diingati dan digunakan oleh model AI, dan meningkatkan bilangan token dalam tetingkap ini membolehkan lebih banyak. respons AI yang terperinci dan tepat.

Pichai juga menyebut matlamat masa depan untuk mencapai”konteks tak terhingga”, di mana LLM boleh memproses dan mengeluarkan jumlah data tanpa had. Walau bagaimanapun, matlamat ini pada masa ini dikekang oleh kuasa pengiraan. Penyelidikan Google setakat ini telah mencapai tetingkap konteks sebanyak 10 juta token, yang menunjukkan usaha berterusan untuk menolak sempadan ini.
 
[kandungan terbenam]

Keupayaan Lanjutan Gemini 1.5 Pro

Menurut Google, Gemini 1.5 Pro boleh memproses sejumlah besar maklumat sekali gus, termasuk 1 jam video, 11 jam audio, pangkalan kod dengan lebih 30,000 baris kod atau lebih 700,000 perkataan. Model ini boleh menganalisis, mengklasifikasikan dan meringkaskan sejumlah besar kandungan dengan lancar dalam gesaan yang diberikan, seperti transkrip 402 halaman daripada misi Apollo 11 ke bulan.

Google juga mengatakan bahawa model itu boleh berprestasi tinggi tugas pemahaman dan penaakulan yang canggih untuk modaliti yang berbeza, termasuk video, dan boleh menganalisis dengan tepat pelbagai titik plot dan peristiwa dalam filem Buster Keaton senyap selama 44 minit. Selain itu, Gemini 1.5 Pro boleh melaksanakan tugas penyelesaian masalah yang lebih relevan merentas blok kod yang lebih panjang, seperti menaakul merentas contoh, mencadangkan pengubahsuaian yang berguna dan menerangkan cara bahagian kod yang berlainan berfungsi.

Gemini 1.5 Pro mempunyai juga mempertingkatkan kemahiran”pembelajaran dalam konteks”, bermakna ia boleh mempelajari kemahiran baharu daripada maklumat yang diberikan dalam masa yang panjang tanpa memerlukan penalaan halus tambahan.
 
[kandungan terbenam]

Prestasi dan Penilaian

Gemini 1.5 Pro mengatasi 1.0 Pro pada 87% daripada penanda aras yang digunakan untuk membangunkan model bahasa besar (LLM) dan berprestasi pada tahap yang hampir sama dengan 1.0 Ultra pada penanda aras yang sama. Dalam penilaian Needle In A Haystack (NIAH), 1.5 Pro menemui teks terbenam 99% daripada masa dalam blok data selagi 1 juta token.

Google mengatakan ia telah menjalankan etika dan keselamatan yang meluas ujian untuk Gemini 1.5 Pro, termasuk penilaian merentas bidang seperti keselamatan kandungan dan bahaya perwakilan.

Pratonton Peribadi dan Akses Pembangun

Mulai sekarang, kumpulan terhad daripada pembangun dan pelanggan perusahaan boleh mencuba Gemini 1.5 Pro dengan tetingkap konteks sehingga 1 juta token melalui AI Studio dan Vertex AI dalam pratonton peribadi. Pelancaran berperingkat ini membolehkan pembangun menguji dan memberikan maklum balas tentang model yang dipertingkatkan sebelum ia boleh diakses secara meluas.

Categories: IT Info