Startup Spanyol Multiverse Computing telah mendapatkan putaran pendanaan Seri B € 189 juta (sekitar $ 215 juta) untuk meningkatkan skala teknologi yang secara fundamental dapat mengubah ekonomi kecerdasan buatan. Perangkat lunak yang terinspirasi kuantum perusahaan, Compactifai, dirancang untuk mengompres ukuran model bahasa besar yang kuat (LLM) hingga 95%, sebuah langkah yang ditujukan untuk memangkas biaya operasional AI yang sangat besar dan memungkinkan model canggih untuk menjalankan perangkat sehari-hari yang jauh dari cloud.
Investasi, terperinci dalam $ 106 miliar Pasar Inferensi AI . Dengan model yang menyusut secara dramatis seperti Llama dan Mistral, Multiverse bermaksud untuk membuatnya layak untuk menjalankan AI canggih tidak hanya di pusat data, tetapi pada PC, smartphone, mobil, dan bahkan komputer kecil seperti raspberry pi.”Kebijaksanaan yang berlaku adalah bahwa menyusutnya LLMS dengan biaya. Multiverse mengubah itu,”kata Enrique Lizaso Olmos, CEO perusahaan.
Pendekatan”lossy”tetapi sangat efisien ini berbeda dengan metode”lossless”seperti teknik DFLOAT11. Sebagaimana diuraikan dalam Makalah penelitian , pencipta dfloat11 berpendapat bahwa untuk aplikasi sensitif, menjamin akurasi bit-for-bit yang lebih penting, karena metode lossy dapat memperkenalkan unpredicle variasi yang tidak dapat ditetapkan. Multiverse bertaruh bahwa untuk sebagian besar aplikasi, akurasinya yang hampir sempurna di sebagian kecil dari ukurannya adalah formula pemenang.
taruhan $ 215 juta pada efisiensi AI
Babak pendanaan besar-besaran bukan hanya pemungutan suara dalam teknologi Multiverse tetapi juga sebuah acara yang signifikan. Menurut recent market report from SNS Insider on Edge AI chips found that the inference segment accounted for roughly 75% of the market’s total revenue in 2024. By making this process cheaper and more efficient, Multiverse positions itself as a foundational layer in the AI infrastructure stack, offering its compressed models on its CompactifAI product page.
The Crowded Race to Shrink AI
Multiverse is entering a competitive landscape where various companies are tackling the AI efficiency problem from different angles. While Multiverse focuses on compressing the static model for inference, other innovations target different parts of the AI lifecycle.
For instance, Alibaba’s ZeroSearch framework was developed to slash the costs of training an AI by simulating search engine interactions, as detailed in a Makalah Ilmiah Di Arxiv. Sementara itu, sistem optimasi memori Sakana AI meningkatkan efisiensi pada tugas konteks panjang dengan mengelola secara dinamis memori aktif model, atau cache KV.
Dorongan menuju tepi juga melihat kolaborasi baru. Dalam kolaborasi baru, noNa Ai dan Wind River yang berfungsi untuk mendapatkan generatif di generatif. sektor . Avijit Sinha of Wind River affirmed the importance of this trend, noting that “AI model optimization and software-defined automation will be key”to unlocking new applications at the edge.
Unleashing AI from the Data Center
The ultimate goal of these efficiency gains is to power an “AI on the Edge”revolution, moving intelligence from centralized cloud servers onto local perangkat. Pergeseran ini didorong oleh beberapa manfaat utama, termasuk kebutuhan akan respons latensi rendah, peningkatan privasi pengguna dengan menyimpan data di perangkat, dan mengurangi biaya operasional.
Ini adalah masa depan yang di masa depan investor seperti HP Tech Ventures di perbankan. Tuan Tran, Presiden Teknologi dan Inovasi di HP, menjelaskan bahwa dengan membuat AI lebih mudah diakses di tepi, pendekatan Multiverse memiliki potensi untuk membawa manfaat seperti peningkatan kinerja dan privasi ke perusahaan dengan ukuran berapa pun.
Peluang komersial adalah yang sangat besar, dengan AI yang diproyeksikan oleh AI 2. Multiverse tidak hanya memotong biaya-itu bertujuan untuk mendefinisikan kembali di mana dan bagaimana kecerdasan buatan dapat digunakan.