Hiszpański startup Multiverse Computing zapewnił przełomowe 189 mln EUR (około 215 mln USD) rundy finansowania serii B, aby skalować technologię, która może zasadniczo zmienić ekonomię sztucznej inteligencji. Oprogramowanie inspirowane kwantą firmy, Compactifai, zostało zaprojektowane do kompresji wielkości potężnych modeli dużych języków (LLM) nawet o 95%, ruch mające na celu obniżenie ogromnych kosztów operacyjnych AI i umożliwianie zaawansowanym modele na codziennych urządzeniach daleko od chmury.
Inwestycja, szczegółowo opisana w
Ten infuzja kapitału jest skierowana wartościowo na to, co szacunki badań rynkowych Polaris jest A . Poprzez dramatycznie zmniejszając modele, takie jak Llama i Mistral, Multiverse zamierza uruchomić wyrafinowaną sztuczną inteligencję nie tylko w centrach danych, ale na komputerach, smartfonach, samochodach, a nawet małych komputerach jak Raspberry Pi. „Mądrością jest to, że kurczenie się LLM kosztuje. Multiverse to zmienia”, powiedział Enrique Lizaso Olmos, dyrektor generalny firmy.
Technologia: Fizyka kwantowa spotyka sieci neuronowe
w sercu multiverse od dzielnicy z oddziału z oddziału z oddziału Techniki kompresji. Zamiast stosować standardowe metody, takie jak kwantyzacja lub przycinanie, Compactifai wykorzystuje sieci tensorowe, ramy matematyczne inspirowane fizyką kwantową, w celu ponownego rozwinięcia złożonej architektury sieci neuronowej. Takie podejście, pionierem współzałożyciela i dyrektora naukowego Romána Orúsa w jego wcześniejsze badania pozwala firmie na identyfikację i wyeliminowanie miliardów parametrów redundantnych w modelu. Wewnętrzne funkcjonowanie sieci neuronowej w celu wyeliminowania miliardów fałszywych korelacji w celu naprawdę optymalizacji wszelkiego rodzaju modeli AI “-powiedział Orús. Wynik, jak szczegółowo opisano w artykuł firmowy Publikowano na ARXIV, to współczynnik kompresji, który znacznie przekracza tradycyjne metody.
multiverse mówi, że osiąga to do 95% kompresji, retenowanie 98% akruzyjnych. Znacząca poprawa w stosunku do standardowych technik, które mogą powodować utratę dokładności 20-30% w przypadku znacznie mniejszej redukcji.
To „stratne”, ale wysoce wydajne podejście jest w przeciwieństwie do „bezstratnych” metod, takich jak technika DFloat11. Jak opisano w dokument badawczy twórcy DFloat11 argumentują, że w przypadku wrażliwych zastosowań gwarantując, że dokładność bitowa jest krytyczna, ponieważ stratne metody mogą wprowadzić niezmienne zmienne zmienne. Multiverse obstawia, że w przypadku większości aplikacji jego niemal idealna dokładność za ułamek wielkości jest zwycięską formułą.
Zakład 215 milionów dolarów na efektywność AI
Masowa runda finansowania to nie tylko głosowanie na zaufanie do technologii Multiverse, ale także znaczące wydarzenie dla sceny technologicznej europejskiej. Zgodnie z ostatni „stan kwantowy 2025″ Outlier.
Per Roman, partner zarządzający w głównym inwestorze Bullhound Capital, zauważył, że pomysłowość firmy „przyspiesza suwerenność europejską” poprzez wprowadzenie „istotnych zmian w przetwarzaniu AI.”
Strategia biznesowa koncentruje się na najdroższej części AI Lifecicle: Po wniosek. A Ostatni raport rynkowy Od SNS Insider na chipach Edge AI stwierdzono, że segment wnioskowania stanowi około 75% całkowitego przychodów rynku w 2024 r., Udostępniając ten proces tańszy i bardziej wydajny, wielu pozycji stanowi warstwę fundamentalną w infrastrukturze AI. href=”https://multiversecomputing.com/compactifai”target=”_ pusta”> Strona produktu kompactifai .
zatłoczona rasa, aby zmniejszyć ai
multiverse wprowadza konkurencyjny krajobraz, w którym różne firmy są traktowane przez problem z różnymi angle. Podczas gdy Multiverse koncentruje się na kompresji modelu statycznego do wnioskowania, inne innowacje ukierunkowane są na różne części cyklu życia AI.
Na przykład opracowano ramy zerarchearch Alibaba w celu obniżenia kosztów szkolenia AI poprzez symulację interakcji wyszukiwarek, jak szczegółowo opisano w A artykuł naukowy na arxiv. Tymczasem system optymalizacji pamięci Sakana AI poprawia wydajność zadań długotekstowych poprzez dynamiczne zarządzanie aktywną pamięcią modelu lub pamięci podręcznej KV.
Push w kierunku krawędzi jest również obserwującą nowe współpraca. W nowej współpracy . Avijit Sinha z Wind River potwierdził znaczenie tego trendu, zauważając, że „optymalizacja modelu AI i automatyzacja zdefiniowana na oprogramowaniu będą kluczem„ odblokowanie nowych aplikacji na krawędzi.
Upuszczanie AI z Centrum danych
Ultynnym celem tych wydajności jest zasilanie „AI na krawędzi” przeniesienia inteligencji z centrum serwera do lokalizowanego w lokalizacji do lokalizowanej servers do lokalizacji serwerskiej do lokalizacji. urządzenia. Ta zmiana wynika z kilku kluczowych korzyści, w tym potrzeby odpowiedzi na niską opóźnienie, zwiększoną prywatność użytkowników poprzez utrzymanie danych na urządzeniu i obniżone koszty operacyjne.
To jest przyszłość, na której inwestorzy tacy jak HP Tech Ventures. Tuan Tran, prezes ds. Technologii i innowacji w HP, wyjaśnił, że dzięki temu, że AI jest bardziej dostępna na krawędzi, podejście Multiverse może potencjalnie przynieść korzyści, takie jak zwiększona wydajność i prywatność firmom dowolnej wielkości.
Możliwość komercyjna jest ogromna, a Edge AI Rynek przewidywany jest na rozwój od 21,4 miliarda dolarów w 2024 r. Do ponad 221 milionów dolarów przez 2032. Multiverse to nie tylko obniżenie kosztów-ma na celu na nowo zdefiniowanie, gdzie i jak można użyć sztucznej inteligencji.