Qualcomm en Openai hebben dinsdag een belangrijke stap aangekondigd voor AI op Device AI, wat een bredere industriespuwing weerspiegelt naar de verwerking aan de rand. Het nieuwe `GPT-OSS-20B`-model van OpenAI kan nu lokaal worden uitgevoerd op high-end pc’s met Snapdragon-chips. Dit is de eerste keer dat een van de geavanceerde redeneermodellen van Openai beschikbaar is gesteld voor gebruik op apparaten.
Het doel is om snellere en meer privé-AI-ervaringen te creëren door gegevens lokaal te verwerken. Voorlopig is deze technologie gericht op ontwikkelaars die pc’s gebruiken met 24 GB RAM, niet dagelijkse smartphones . Toch markeert het een belangrijke mijlpaal, die de weg vrijmaakt voor toekomstige persoonlijke AI-agenten die meer responsiever en veilig zijn.
Een mijlpaal voor on-device AI, met een vangst
in een belangrijke zet voor de AI-industrie, Qualcomm onthulde dat Openai’s nieuw vrijgegeven’href=”https://www.qualcomm.com/news/onq/2025/08/openai-model-on-device-Snapdragon”target=”_ blank”> voeren inferentie rechtstreeks uit op apparaten die zijn aangedreven door de vlaggenschip snapdragon-processors . De chipmaker begroette de ontwikkeling als een”grote mijlpaal”en een”keerpunt”, waardoor Openai’s geavanceerde, debit van de redeneermogelijkheden uit de cloud en op lokale hardware voor het eerst naar lokale hardware werd gebracht. Hierdoor kunnen complexe taken met meerdere stappen lokaal worden verwerkt, een cruciale stap in de richting van het creëren van echt persoonlijke AI-assistenten.
qualcomm ai engine en de Qualcomm ai stack Om het 20-miljard-parameter-model te optimaliseren voor efficiënte uitvoering van de device. Dit werk toont aan wat Qualcomm de’volwassenheid van het AI-ecosysteem’noemt, waar open-source-innovatie snel kan worden benut door hardwarepartners.
Deze aankondiging is een belangrijk onderdeel van het bredere strategische pivot van Openai’s bredere strategische pivot terug naar open-wenight-modellen, de release van de release, die ook het grotere `gpt-` gpt-`gpt-` gpt-`gpt-` gpt-`gpt-` gpt-`gpt-` gpt-`gpt-` gpt-`gpt-` gpt-`gpt-` gpt-`gpt-` gpt-`gpt-` gpt-`gpt-` gpt-`gpt-` gpt-“ gpt-`gpt-` gpt-`is, is die ook is, is gpt-` gpt Open-source gemeenschap en tegen rivalen. Door de modellen beschikbaar te stellen onder een Permissive Apache 2.0-licentie, moedigt OpenAI wijdverspreide adoptie aan en biedt ontwikkelaars krachtige, transparante tools.
De kleine lettertjes: Snapdragon-pc’s, geen smartphones (voor nu)
Terwijl het nieuws gegenereerde opwinding, de on-device-verwachting is met een cruciale cumpers van een cruciale cumpers. Niet voor uw huidige smartphone. Zoals één rapport het botweg heeft gezegd, houd je niet in om dit op de chip van je telefoon te laten lopen. De integratie is specifiek gericht op de hardware van ontwikkelaarskwaliteit, voornamelijk Snapdragon-aangedreven pc’s en speciale ontwikkelingskits. Deze focus ligt volledig gericht op AI-onderzoekers en enterprise-ontwikkelaars die aangepaste applicaties willen bouwen op krachtige, lokale hardware, in plaats van de gemiddelde Android-gebruiker.
De primaire barrière is de forse resource-eis van het model. Het uitvoeren van `GPT-OSS-20B` lokaal via de Qualcomm-integratie vereist een aanzienlijk 24 GB RAM, een specificatie die veel verder gaat dan de capaciteit van de huidige mobiele apparaten van de consument, die meestal uitwerken op 12 GB of 16 GB. Deze hardware-voorwaarde positioneert de technologie voorlopig stevig de technologie op het gebied van high-end pc’s en professionele werkstations, met name die met de Snapdragon X Elite-chipset.
Qualcomm is transparant over deze beperking, het inlijst als een strategische blik in de toekomst van persoonlijke computers. In zijn officiële aankondiging verklaarde het bedrijf:”Wij zijn van mening dat AI-capaciteiten op het apparaat snel zullen toenemen, waardoor de deur naar particuliere, lage latentie, gepersonaliseerde agentische ervaringen zal worden geopend.”Dit suggereert een routekaart op lange termijn waar, zoals Mobiele geheugenpeinten blijven groeien en softwarestacks Pocket.
Waarom on-apparaat ertoe doet: privacy, snelheid en personalisatie
De strategische drang naar AI op de apparaat, een visie die Qualcomm al lang verdedigt, wordt gedreven door een trio van duidelijke en dwingende gebruikersvoordelen: privacy, snelheid en personalisatie. Het verwerken van gegevens die lokaal fundamenteel de beveiligingsvergelijking worden veranderd door de noodzaak om gevoelige informatie naar de cloud te verzenden te elimineren. Dit betekent dat taken offline kunnen worden voltooid, zonder een internetverbinding, en gebruikersgegevens blijven stevig op het apparaat, een cruciaal voordeel voor zowel persoonlijke als bedrijfstoepassingen waar gegevensovereenkomst voorop staat.
Deze lokale verwerkingskracht pakt ook direct de kwestie van latentie aan. Door de retour naar een verre datacenter te verwijderen, worden interacties sneller en responsiever. Zoals één rapport opmerkt, kan dit snellere antwoorden en geen vertragingen betekenen als de internetverbinding goed genoeg is. Dit is cruciaal voor het creëren van de naadloze, realtime gesprekservaringen die worden verwacht van geavanceerde AI-assistenten. De mogelijkheid om complexe redeneringstaken onmiddellijk, zonder vertraging, uit te voeren, is een hoeksteen van het feit dat AI zich echt geïntegreerd en nuttig voelt.
Uiteindelijk komen deze voordelen samen om zeer gepersonaliseerde AI-agenten mogelijk te maken die cloudoplossingen kunnen aanvullen. Een agent op de apparaat kan veilig toegang krijgen tot en redeneren over de privé-e-mails, agenda en contacten van een gebruiker om contextuele assistentie te bieden, allemaal zonder die gegevens die ooit het apparaat verlaten. Om dit een realiteit voor ontwikkelaars te maken, benadrukte Qualcomm dat het model toegankelijk is via populaire platforms.
ontwikkelaars kunnen het model downloaden van hakging face en gebruik frameworks zoals Ollama , een lichtgewicht servicekader, om `Gpt-oss-20B` direct op Snapdragon-platforms te runnen en de Capabilities te verkennen. Bron
Deze mijlpaal op het apparaat is intrinsiek gekoppeld aan Openai’s hernieuwde omhelzing van de open-source wereld. De release’GPT-Oss’is een directe reactie op jaren van kritiek op de afgesloten aanpak en een strategische stap om rivalen zoals meta en Chinese technologiebedrijven tegen te gaan.
Openai heeft ook de release in geopolitieke termen ingelijst, waarin wordt verklaard dat’brede toegang tot deze capabele open-weights-modellen in de US Democratische AI-rails’, positionering in de Global AI-ontwikkeling.
Om de consistentie te garanderen, lanceerde Openai ook ‘Harmony’, een verplicht chatformaat voor `GPT-OSS`. Het structureert gesprekken in verschillende kanalen voor redeneren en gereedschapsgebruik, waardoor ontwikkelaars een gedetailleerde controle krijgen. Dit sentiment wordt weerspiegeld door gemeenschapsleiders, met Nathan Lambert van het Allen Institute for AI die de verhuizing prijst en zegt:”Het is een heel goede zaak voor de open gemeenschap.”