AMD kündigte am Dienstag an, dass die neueste Hardware die neuen”GPT-OSS”-Modelle von OpenAI unterstützt. Die Unterstützung ist für die neuesten Konsumgüterprodukte wie Ryzen AI Chips und Radeon-Grafikkarten. In einem Schlüssel zuerst, sagt AMD, dass sein Ryzen AI Max+ 395-Chip das riesige 120-Milliarden-Parametermodell auf einem lokalen PC ausführen kann. Die Änderung ermöglicht schnellere, privatere und offline-AI-Apps. Entwickler können das LM Studio-Tool heute verwenden, um die Modelle heute auszuführen und leistungsfähige KI leichter zugänglich zu machen. href=”https://www.amd.com/en/blogs/2025/how-to-run-openai-gpt-os-20b-120b-models-on-amd-ryzen-ai-radeon.html”target=”_ bloße”Das Unternehmen kündigte seinen Ryzen AI Max+ 395-Prozessor an, wenn er mit 128 GB RAM konfiguriert ist, der erste Verbraucherchip, der in der Lage ist, OpenAIs massive 117-Milliarden-Parameter `GPT-OSS-120B’-Modell lokal auszuführen.

Dies ist ein bedeutender Meilenstein. Es verschiebt die KI-Workloads der Datacenter-Klasse von der Cloud auf einen Desktop oder einen Laptop. Laut AMD erzielt das System eine sehr nutzbare Leistung von bis zu 30 Token pro Sekunde, was eine komplexe lokale KI für Entwickler und Forscher zu einer praktischen Realität macht. Das Modell”GPT-OSS-120B”benötigt etwa 61 GB VRAM. Dies passt in die 96 GB dedizierten Grafikspeicher, die auf der speziellen Ryzen AI Max+ 395-Plattform verfügbar ist. target=”_ leer”> amd kürzlich hervorgehoben . Das Unternehmen betont seine hervorragende Zeit bis zuerst (TTFT), die eine reaktionsschnelle Leistung für agierende Workflows gewährleistet, die auf schnellen anfänglichen Ausgaben beruhen. Sie repräsentieren einen strategischen Drehpunkt für OpenAI. Dieses Design aktiviert nur einen Bruchteil der Gesamtparameter für eine bestimmte Aufgabe, wodurch die Berechnungskosten drastisch reduziert werden und sie für die Ausführung von On-Device-Ausführungen lebensfähig machen. Diese Vorlagen strukturiert die Ausgabe des Modells in separate Kanäle für die Argumentation, die Verwendung von Tools und die endgültige Antwort, wodurch Entwickler transparentere Kontrolle erhalten. href=”https://rocm.blogs.amd.com/developer-guides/2025/08/05/day-0-developer-guide-running-the-latest-open-models-from-openai-on-Amd-Ai-hardware Das primäre Tool ist LM Studio, eine kostenlose Anwendung, die das Herunterladen und Ausführen von LLMs vereinfacht. Benutzer müssen außerdem die neuesten AMD-Software: Adrenalin-Edition-Treiber (Version 25.8.1 oder höher), um die erforderlichen Funktionen zu entsperren. Alle Rechenschichten in die GPU abladen und dann das Modell in den Speicher laden. Während das 120B-Modell aufgrund seiner Größe einige Zeit in Anspruch nehmen kann, ist das Ergebnis ein leistungsstarker Argumentationsmotor, der vollständig lokal ausgeführt wird. Es war ein wesentlicher Bestandteil eines sorgfältig orchestrierten branchenweiten Ereignisses, mit dem”GPT-OSS”und Harmonie als neuer Standard festgelegt wurden. Microsoft stellte seine Lokalplattformen von Windows AI Foundry und Foundry vor, um die Modelle unter Windows und MacOS auszuführen. Qualcomm schloss sich auch an und ermöglichte die Unterstützung von Snapdragon-betriebenen PCs. Analysten schlagen vor, dass”dies teilweise darum geht, OpenAs Dominanz im Forschungsökosystem zu bekämpfen”. Dieses Gefühl wird in OpenAs eigener Rahmung der Veröffentlichung wiedergegeben. Das Unternehmen erklärt, dass „der in den USA erstellte breite Zugang zu diesen fähigen Open-Weights-Modellen dazu beiträgt, demokratische AI-Schienen zu erweitern. Durch die Bereitstellung leistungsstarker, zugänglicher und weit verbreiteter Modelle setzt das Unternehmen einen überzeugenden Fall für sein Ökosystem. Asha Sharma von Microsoft bemerkte:”Zum ersten Mal können Sie OpenAI-Modelle wie GPT-OSS-1220B auf einer einzigen GPU-Unternehmen ausführen oder GPT-OSS-20B lokal ausführen.”Hervorhebung der neuen hybriden AI-Realität

Categories: IT Info