Qualcomm i Openai ogłosili we wtorek znaczący krok dla sztucznej inteligencji, odzwierciedlając szerszy przemysł w kierunku przetwarzania na krawędzi. Nowy model „GPT-OSS-20B” z Openai może teraz działać lokalnie na wysokiej klasy komputerach z układami Snapdragon. Po raz pierwszy udostępniono jeden z zaawansowanych modeli rozumowania Openai do użycia na urządzeniu.
Celem jest stworzenie szybszych i bardziej prywatnych doświadczeń AI poprzez lokalne obsługę danych. Na razie technologia ta jest skierowana do programistów korzystających z komputerów z 24 GB RAM, nie codzienne smartfony . Mimo to jest kluczowym kamieniem milowym, torując drogę dla przyszłych osobistych agentów AI, którzy są bardziej responsywni i bezpieczne.
Kamień milowy dla AI na urządzeniu, z nowo wydanym modelem AI na urządzeniu na urządzeniu, a
W znacznym posunięciu branży AI. href=”https://www.qualcomm.com/news/onq/2025/08/openai-model-on-device-snapdragon”target=”_ blank”> Wykonaj wnioski bezpośrednio na urządzeniach zasilanych flagowym procesorami Snapdragon Processors . Chiecior okręcił rozwój jako „główny kamień milowy” i „punkt zwrotny”, wyprowadzając wyrafinowane, łańcuchowe możliwości rozumowania z chmury i na lokalny sprzęt po raz pierwszy. Umożliwia to przetwarzanie złożonych, wielokrotnych zadań lokalnie, co jest kluczowym krokiem w kierunku tworzenia prawdziwie osobistych asystentów AI.
qualcomm AI Stack w celu zoptymalizowania modelu 20-miliardowego parametera w celu skutecznego wykonania na terenie. Ta praca pokazuje, co Qualcomm nazywa „dojrzałością ekosystemu AI”, w którym innowacje open source mogą zostać szybko wykorzystane przez partnerów sprzętowych.
To ogłoszenie jest kluczową częścią szerszego strategicznego przełomu Openai z powrotem do modeli typu open-Weight, od pierwszego takiego wydania od 2019 r. Społeczność open source i kontr-rywali. Udostępniając modele na licencji APACHES 2.0, OpenAI zachęca do powszechnego adopcji i zapewnia programistom potężne, przejrzyste narzędzia.
drobny druk: pc snapdragon, a nie smartfony (na razie)
Podczas gdy wiadomości wygenerowały wiadomości, zdolność do delewizacji jest dostarczana z tytułem, że są to temperatura. dla twojego obecnego smartfona. Jako jeden raport bezskutecznie to ujął, nie wstrzymuj oddechu, aby działał na chipie telefonu. Integracja specyficznie ukierunkuje sprzęt klasy deweloperów, głównie komputery Snapdragon i dedykowane zestawy programistyczne. Koncentracja na tym jest skierowana wprost na badaczy AI i programistów przedsiębiorstw, którzy chcą budować niestandardowe aplikacje na potężnym, lokalnym sprzęcie, a nie na przeciętnym użytkowniku Androida.
Podstawową barierą jest wymaganie zasobów o wysokości modelu. Uruchomienie „GPT-OSS-20B” lokalnie za pośrednictwem integracji Qualcomm wymaga znacznego 24 GB pamięci RAM, specyfikacji, która jest znacznie wykraczająca poza pojemność dzisiejszych urządzeń mobilnych konsumenckich, które zwykle na 12 GB lub 16 GB. Ten warunek wyposażenia mocno pozycjonuje technologię w dziedzinie wysokiej klasy komputerów i na razie profesjonalnych stacji roboczych, szczególnie tych, którzy prowadzą chipset Snapdragon X Elite.
Qualcomm jest przejrzysty w kwestii tego ograniczenia, określając ją jako strategiczne spojrzenie na przyszłość obliczeń osobistego. W swoim oficjalnym ogłoszeniu firma stwierdziła: „Uważamy, że zdolność sztucznej inteligencji na urządzeniu gwałtownie wzrośnie, otwierając drzwi do prywatnych, spersonalizowanych doświadczeń agencyjnych o niskiej opóźnieniu”. Sugeruje to długoterminową mapę drogową, w której ślad pamięci mobilnej nadal rosną, a stosy oprogramowania będą jeszcze bardziej wydajne , te potężne doświadczenia agencyjne będą migrowały z PC do PC do PC do twojego PC do twojego PC do twojego PC do twojego PC do PC do PC do PC do PC do PC do PC do PC z Pocket.
Dlaczego na urządzeniu ma znaczenie: prywatność, szybkość i personalizacja
Strategiczne pchanie sztucznej inteligencji, wizja Qualcomm od dawna jest popierana przez trio wyraźnych i najdalszych korzyści użytkownika: prywatność, prędkość i personalizacja. Przetwarzanie danych zasadniczo zmienia równanie bezpieczeństwa, eliminując potrzebę wysyłania poufnych informacji do chmury. Oznacza to, że zadania można wykonać offline, bez połączenia internetowego, a dane użytkownika pozostają bezpiecznie na urządzeniu, co stanowi kluczową przewagę zarówno dla aplikacji osobistych, jak i przedsiębiorstw, w których suwerenność danych jest najważniejsza.
Ta lokalna moc przetwarzania również bezpośrednio rozwiązuje problem opóźnienia. Usuwając podróż w obie strony do odległego centrum danych, interakcje stają się szybsze i bardziej responsywne. Jak zauważa jeden raport, może to oznaczać szybsze odpowiedzi i brak opóźnień, jeśli połączenie internetowe jest wystarczająco dobre. Ma to kluczowe znaczenie dla stworzenia bezproblemowych doświadczeń konwersacyjnych w czasie rzeczywistym oczekiwanym od zaawansowanych asystentów AI. Zdolność do natychmiastowego wykonywania złożonych zadań rozumowania, bez opóźnienia, jest kamieniem węgielnym AI poczucia się naprawdę zintegrowanym i pomocnym.
Ostatecznie korzyści te zbiegają się, aby umożliwić wysoce spersonalizowane agentów AI, które mogą uzupełniać rozwiązania w chmurze. Agent na urządzeniu może bezpiecznie uzyskać dostęp i rozumować prywatne wiadomości e-mail, kalendarz i kontakty użytkownika, aby zapewnić pomoc kontekstową, wszystkie bez opuszczenia urządzenia. Aby urzeczywistnić to dla programistów, Qualcomm podkreślił, że model jest dostępny za pośrednictwem popularnych platform.
Twórcy mogą pobrać model z Frameworks takie jak Ollama , lekka rama serwisowa, aby uruchomić `GPT-SS-20B’bezpośrednio na platformach Snapdragon i zbadać jego zdolności.