AMD a annoncé mardi que son nouveau matériel prenait en charge les nouveaux modèles “ GPT-OSS’d’Openai. Le support concerne ses derniers produits de consommation, comme les puces Ryzen AI et les cartes graphiques Radeon. Dans une clé d’abord, AMD dit que sa puce Ryzen AI Max + 395 peut exécuter l’énorme modèle de paramètres de 120 milliards sur un PC local.

Cela fait sortir l’IA de haut niveau du nuage et sur les ordinateurs domestiques. Le changement permet des applications AI plus rapides, plus privées et hors ligne. Les développeurs peuvent utiliser l’outil LM Studio pour exécuter les modèles aujourd’hui, ce qui rend l’IA puissante plus facile à accéder.

AMD prétend d’abord un consommateur pour les dispositions sur disque

dans un mouvement qui redéfinit sur-prouvoir AI, AMD réclame un monde pour son matériel de consommation . La société a annoncé que son processeur Ryzen AI Max + 395, lorsqu’il est configuré avec 128 Go de RAM, est la première puce de consommation capable de faire fonctionner localement le modèle massif de 117 milliards de paramètres “ GPT-ASS-120B`

Il s’agit d’une étape importante. Il déplace les charges de travail AI de classe Datacenter du cloud vers un bureau ou un ordinateur portable. Selon AMD, le système obtient une performance très utilisable de jusqu’à 30 jetons par seconde, faisant de l’IA locale complexe une réalité pratique pour les développeurs et les chercheurs.

[Contenu intégré]

Les exigences techniques sont raides mais révélatrices. Le modèle `GPT-ASS-120B» a besoin d’environ 61 Go de VRAM. Cela s’inscrit dans les 96 Go de la mémoire graphique dédiée disponible sur la plate-forme spécialisée Ryzen AI Max + 395, une capacité AMD a récemment mis en évidence .

Pour ceux qui travaillent avec le modèle `GPT-OSS-20B` plus petit mais toujours puissant, AMD pointe vers sa carte graphique Radeon 9070 XT 16 GB. La société met l’accent sur son excellent délai d’attente (TTFT), qui garantit des performances réactives pour les flux de travail agentiques qui reposent sur des sorties initiales rapides.

[Contenu intégré]

Cette activation matérielle fait partie d’un lancement massif et coordonné pour les premiers modèles ouverts d’Openai depuis 2019. Versé sous une licence APCACHE 2.0 “ GPT-FOSS’. Ils représentent un pivot stratégique pour OpenAI.

Les modèles sont construits sur une architecture de mélange de mixages efficace (MOE). Cette conception active uniquement une fraction des paramètres totaux pour une tâche donnée, réduisant considérablement le coût de calcul et les rendant viables pour l’exécution sur les appareils.

Un élément critique de ce nouvel écosystème est «Harmony», un format de chat obligatoire OpenAI exige que les modèles fonctionnent correctement. Ce modèle structure la sortie du modèle en canaux séparés pour le raisonnement, l’utilisation des outils et la réponse finale, donnant aux développeurs un contrôle plus transparent.

Comment exécuter Ai à l’échelle du centre de données href=”https://rocm.blogs.amd.com/developer-guides/2025/08/05/day-0-developer-guide-running-the-latest-open-models-from-openai-on-amd-ai-hardware.html”cible=”_ blank”> chemin clair pour les développeurs à démarrer . L’outil principal est LM Studio, une application gratuite qui simplifie le téléchargement et l’exécution de LLMS. Les utilisateurs doivent également installer les derniers AMD Software: Adrenalin Edition Drivers (Version 25.8.1 ou plus) Déchargement de toutes les couches de calcul sur le GPU, puis chargeant le modèle en mémoire. Bien que le modèle 120B puisse prendre du temps à charger en raison de sa taille, le résultat est un puissant moteur de raisonnement fonctionnant entièrement localement.

Un lancement coordonné pour construire une nouvelle norme ouverte

L’annonce d’AMD ne s’est pas produite dans un vide. C’était un élément clé d’un événement soigneusement orchestré à l’échelle de l’industrie conçu pour établir «GPT-ASS» et Harmony en tant que nouvelle norme. Microsoft a dévoilé ses plates-formes locales de fonderie et de fonderie Windows pour exécuter les modèles sur Windows et MacOS.

Dans une décision surprenante de la «coopération», AWS a annoncé qu’elle offrirait les modèles sur ses services de substratum rocheux et sagemaker, offrant à Openai un canal de distribution majeur au-delà de Azure de Microsoft. Qualcomm a également rejoint, permettant une prise en charge sur les appareils à disposition des PC alimentés par Snapdragon.

Ce large support signale une poussée stratégique d’Openai pour récupérer l’influence dans la communauté open-source. Les analystes suggèrent que «en partie, il s’agit de réaffirmer la domination d’Openai dans l’écosystème de recherche». Ce sentiment est repris dans le cadre de la publication d’Openai, la société déclarant que «un large accès à ces modèles de poids ouverts capables créés aux États-Unis aide à étendre les rails d’IA démocratiques».

Le déménagement positionne Openai pour rivaliser directement avec des rivaux open-source comme Meta. En fournissant des modèles puissants, accessibles et largement pris en charge, la société fait un cas convaincant pour son écosystème. Comme l’a noté Asha Sharma de Microsoft,”pour la première fois, vous pouvez exécuter des modèles OpenAI comme GPT-OSS-1220B sur un seul GPU d’entreprise-ou exécuter GPT-OSS-20B localement.”Soulignant la nouvelle réalité hybride AI

Categories: IT Info