Alibaba telah meluncurkan model penalaran QWQ-32B-nya, tak lama setelah merilis preview QWQ-Max. Kedua model fokus pada penyediaan solusi kinerja yang terjangkau namun berkinerja tinggi.

QWQ-32B, diluncurkan pada November 2024 dalam versi pratinjau, telah mendapatkan perhatian untuk kemampuannya dalam penalaran logis, pemecahan masalah yang kompleks, dan tugas-tugas pengkodean lanjutan.

Dirancang sebagai alternatif model mahal, dan tugas-tugas pengkodean,

yang dirancang sebagai alternatif untuk model mahal dari industri, q-sour-sour. Sebagai pemain kunci dalam mendemokratisasi akses ke AI berkinerja tinggi.

In addition, the recent release of QwQ-Max-Preview further enhances Alibaba’s push into the AI ​​space by offering efficient solutions for businesses that need scalable AI models at a lower cost.

Alibaba’s Reasoning Models: QwQ-32B and QwQ-Max

While both models are designed to enhance reasoning capabilities, they have distinct technical Karakteristik dan tolok ukur kinerja.

Baik QWQ-Max-Preview dan QWQ-32B menggunakan teknik penalaran rantai pemikiran (COT), tetapi mereka menerapkannya dengan cara yang sedikit berbeda:

Qwq-max-preview-preview menggabungkan”mode berpikir”yang dapat diaktifkan dengan prompt sistem> Pikiran> Pikiran> Preview. Mode ini memungkinkan rantai pemikiran yang panjang, memungkinkan model untuk memecah masalah kompleks menjadi langkah-langkah yang lebih kecil dan alasan melalui mereka secara sistematis. Mode berpikir adalah fitur utama yang membedakan QWQ-Max dan meningkatkan kemampuannya untuk menangani tugas penalaran yang rumit.

QWQ-32B juga menggunakan penalaran rantai pemikiran, tetapi dengan cara yang lebih efisien. Ini menghasilkan token output dengan cara COT, memecah masalah menjadi subtugas yang dapat dikelola dan memberikan penjelasan langkah demi langkah. Pendekatan QWQ-32B berfokus pada analisis yang efisien dan perencanaan terbalik, bekerja mundur dari hasil yang diinginkan untuk mengidentifikasi langkah-langkah yang diperlukan.

Sementara kedua model menggunakan COT, implementasi QWQ-MAX lebih eksplisit dan dapat dikendalikan melalui mode pemikirannya, sedangkan COT QWQ-32B terintegrasi ke dalam proses penalaran umumnya. Kedua pendekatan bertujuan untuk meningkatkan kemampuan pemecahan masalah model, khususnya di bidang-bidang seperti matematika, pengkodean, dan tugas penalaran yang kompleks.

Meskipun ukurannya lebih kecil, mencapai kinerja yang sebanding dengan model yang jauh lebih besar seperti Deepseek-R1 sambil membutuhkan sumber daya komputasi yang jauh lebih sedikit. href=”https://huggingface.co/qwen/qwq-32b”> memiliki panjang konteks panjang 131.072 token dan menunjukkan hasil kompetitif terhadap model terkemuka di kelasnya. Perbedaan utama antara kedua model terletak pada ukurannya, arsitektur, pendekatan pelatihan, panjang konteks, kemampuan multimodal, dan skenario penyebaran.

Qwq-max-preview preview yang dioptimalkan untuk efisiensi berkinerja tinggi, sementara power-model, sementara power-model

Categories: IT Info