Microsoft amène les puissants nouveaux modèles «GPT-OSS» d’Openai aux PC locaux, a annoncé mardi la société, dans une poussée majeure dans l’intelligence artificielle sur les appareils. Le mouvement exploite une nouvelle plate-forme, azure Ai FoundRy local , pour permettre aux développeurs d’exécuter une AI avancée directement sur les appareils de fenêtres, même hors ligne et sans azure et sans une azure AI avancée directement sur les appareils de fenêtres, même hors ligne et sans azure Azure et azure AI avancé directement sur les appareils de fenêtres, même hors ligne et sans azure Azure et azure AI avancé directement sur les appareils de fenêtres, même hors ligne et sans azure Azure et a Azure AI avancé directement sur les appareils de fenêtres, même hors ligne et sans azure Azure et azure abonnement.

Cette initiative vise à créer des applications IA plus privées, réactives et sécurisées en traitant les données localement plutôt que dans le cloud. Il marque une étape importante dans la création d’outils d’IA sophistiqués largement disponibles et positionne les fenêtres comme une plate-forme clé pour la prochaine vague de développement d’IA, indépendamment du cloud.

L’annonce, réalisée par le CVP de Microsoft et la tête des produits de la plate-forme AI, Asha Sharma, est le dernier développement d’une vague d’activité à l’échelle de l’industrie entourant le retour d’Openai vers les modèles Open-Weight. src=”https://winbuzzer.com/wp-content/uploads/2024/11/azure-ai-foundry.official.jpg”>

azure AI Foundry Local for on-Device Inference

Au cœur de la stratégie de Microsoft est Azure Ai a trouvé local, Awe href=”https://learn.microsoft.com/en-us/azure/ai-foundry/foundry-local”Target=”_ Blank”> plate-forme d’inférence survice pour Windows et macOS . Il permet aux modèles AI avancés de s’exécuter directement sur le matériel utilisateur, un écart significatif par rapport au modèle centré sur le cloud qui a dominé le paysage de l’IA. La plate-forme est actuellement disponible en aperçu public, permettant aux développeurs de commencer à expérimenter immédiatement.

L’avantage clé de la plate-forme est sa capacité à fonctionner hors ligne, amélioration de la confidentialité et de la sécurité en gardant des données sensibles à la conduite . Cette approche s’attaque aux problèmes de latence, ce qui rend les interactions d’IA plus rapidement. Surtout, les développeurs peuvent utiliser la fonderie locale sans abonnement Azure, Abaissement de la barrière à l’entrée pour l’expérimentation et le déploiement à petite échelle . ONNX Runtime to Automaticalement Optimiser les performances du modèle à travers une large gamme de matériel, y compris les CPU, les GPU et les NPUS à partir de fournisseurs comme Intel, AMD, NVIDIA et Qualcomm . Il fournit une API Openai-Compatible, un CLI et un SDK pour une intégration facile . capacités.”Foundry Local apporte ces modèles à Windows-permettant une inférence à faible latence, sécurisée et hors ligne entre les CPU, les GPU et les NPU. Cela est livré avec un support complet et un support d’orchestration.”Cette position de fonderie locale non seulement en tant qu’environnement d’exécution, mais comme une boîte à outils de développement à part entière pour l’IA sur l’appareil

Le cerveau de l’opération: les modèles GPT-OSS d’Openai

Foundry Local prendra en charge les modèles “ GPT-Fos-20B` et `GPT-ROS-120. Les modèles sont disponibles sous une licence Apache 2.0 permissive, encourageant une adoption et une modification répandues .

Le `GPT-20B` est spécifique Un modèle de raisonnement plus grand et plus puissant avec Performance comparable aux systèmes de classe GPT-4 . Les deux sont construits sur une architecture efficace de mélange d’Experts (MOE), qui active uniquement une fraction des paramètres des modèles pour une tâche donnée, maximisant les performances tout en minimisant le coût de calcul.

Ce mouvement aborde un écart de longue date dans le portefeuille d’Openai. Casey Dvorak, un gestionnaire de programme de recherche à OpenAI, a expliqué la justification: «Parce qu’il n’y a pas de modèle ouvert [compétitif] d’Openai, nous voulions combler cet écart et leur permettre d’utiliser notre technologie à tous les niveaux. Cela permet à l’entreprise de rivaliser pour les développeurs qui ont besoin de modèles gérés localement pour des raisons de sécurité, de coût ou de personnalisation.

Une exigence technique essentielle est «Harmony», un format de chat nouveau et obligatoire pour «GPT-ASS». Ce modèle structure la sortie du modèle en canaux séparés pour le raisonnement («analyse»), les appels à outils («commentaire» et la réponse finale, offrant aux développeurs un contrôle plus transparent sur les flux de travail agentiques.

Une alliance stratégique dans la race AI à disposition L’écosystème technologique. Cette adoption à l’échelle de l’industrie souligne l’importance du retour d’Openai à la communauté open source et son ambition de définir de nouvelles normes pour le développement de l’IA.

Les autres grands partenaires incluent Qualcomm, qui a annoncé que le modèle `GPT-ASS-20B` peut fonctionner localement sur ses PC à Snapdragon. Cette activation matérielle est cruciale pour apporter des ordinateurs portables à haute performance sur des appareils à disposition, bien qu’il nécessite actuellement un grand 24 Go de RAM, en le plaçant fermement dans la catégorie matérielle de qualité développeur pour l’instant. liens avec Microsoft. Cela crée une dynamique de «coopération», élargissant la portée d’Openai tout en intensifiant la rivalité de l’IA cloud.

Cette stratégie à plusieurs volets semble conçue pour récupérer l’influence dans le monde de l’ouverture. Comme l’a noté Peter Henderson, professeur adjoint à l’Université de Princeton, «en partie, il s’agit de réaffirmer la domination d’Openai dans l’écosystème de recherche». Openai lui-même a encadré la version en termes géopolitiques, déclarant que «un large accès à ces modèles de poids ouverts capables créés aux États-Unis aide à étendre les rails de l’IA démocratiques». Cet effort coordonné vise à établir «GPT-ASS» et le format Harmony comme une nouvelle norme pour la prochaine génération de développement de l’IA.

Categories: IT Info