Apple accélère ses ambitions en matière d’intelligence artificielle (IA) en intégrant les puces Trainium2 d’AWS dans ses processus de pré-formation de l’IA.
Lors de la conférence AWS re:Invent le 4 décembre, Benoit Dupin, directeur principal des machines d’Apple apprentissage et IA, discuté les premières évaluations du matériel AWS par l’entreprise.”Dans les premiers stades de l’évaluation de Trainium2, nous nous attendons à des premiers chiffres allant jusqu’à 50 % d’amélioration de l’efficacité grâce au pré-entraînement”, a déclaré Dupin au public lors d’une brève apparition sur scène.
Le partenariat souligne l’approfondissement des relations entre Apple. et AWS, le géant de la technologie s’appuyant sur des UltraServers alimentés par Trainium2 pour faire évoluer ses opérations d’IA tout en optimisant l’efficacité et les coûts.
Apple et AWS sont à long terme Partenaires
L’utilisation par Apple de l’infrastructure AWS n’est pas nouvelle. L’entreprise exploite les puces AWS telles que Graviton et Inferentia depuis plus d’une décennie pour prendre en charge des produits et services clés, notamment. Siri, Apple Maps et Apple Music.
La capacité d’AWS à prendre en charge des charges de travail d’IA à grande échelle en a fait un partenaire essentiel pour Apple, comme l’a dit Dupin: « Nous entretenons une relation solide et l’infrastructure est solide. à la fois fiable et capable de servir nos clients dans le monde entier.”
L’ajout de Trainium2 à la boîte à outils d’IA d’Apple reflète l’engagement des deux sociétés à repousser les limites de l’efficacité et de l’évolutivité de l’IA.
Trainium2 Puces et UltraServers : Répondre aux besoins de l’IA moderne
AWS a lancé hier ses puces Trainium2 et ses UltraServers Trn2, marquant une étape majeure dans le développement du matériel d’IA. Les puces Trainium2 fournissent jusqu’à 20,8 pétaflops de calcul FP8 dense par instance et sont conçues pour gérer les demandes de calcul croissantes des modèles d’IA comportant des milliards de paramètres.
Les UltraServers Trn2, dotés de 64 puces Trainium2, atteignent jusqu’à 83,2 pétaflops. de performances FP8 clairsemées. Ceci est rendu possible par l’interconnexion NeuronLink propriétaire d’AWS, qui garantit une communication à faible latence et à large bande passante entre les systèmes distribués.
David Brown, vice-président du calcul et de la mise en réseau d’AWS, a souligné le potentiel de transformation de Trainium2 : “Trainium2 est la puce AWS la plus performante créée à ce jour. Et avec des modèles approchant des milliards de paramètres, nous savions que les clients auraient besoin d’une nouvelle approche pour former et exécuter ces modèles massifs. débit que les offres concurrentes d’autres fournisseurs de cloud. Cette avancée répond à un besoin critique de génération de texte, de résumé et d’inférence en temps réel plus rapides.
Apple Intelligence et le multi-cloud. Approche
La stratégie d’IA d’Apple s’articule autour de sa plateforme d’IA générative, Apple Intelligence, qui alimente des fonctionnalités telles que le traitement du langage naturel dans Siri, des résumés de notifications avancés et des outils créatifs comme la génération d’emojis.
Apple Intelligence fonctionne sur un modèle hybride, utilisant les calculs sur l’appareil via ses puces de la série M pour garantir la confidentialité et l’efficacité, tout en s’appuyant sur une infrastructure cloud pour les charges de travail complexes.
Cette approche multi-cloud inclut à la fois AWS et Google Cloud. Plus tôt cette année, Apple a confirmé son utilisation des puces Google TPU pour la formation des composants d’Apple Intelligence. Cette stratégie diversifiée permet à Apple d’optimiser des charges de travail spécifiques en fonction des atouts de chaque plate-forme.
Avec Trainium2, AWS offre une alternative rentable aux GPU Nvidia, permettant à Apple de faire évoluer ses opérations d’IA sans compromettre les performances.
Connexe : La refonte de l’IA d’Apple Siri glisse jusqu’en 2026 alors que Gemini de Google ouvre la voie
Projet Rainier : AWS Collaboration avec Anthropic
Les ambitions plus larges d’AWS en matière d’IA incluent le projet Rainier, un partenariat avec Anthropic visant à développer l’un des plus grands clusters de calcul d’IA au monde. Doté de milliers de puces Trainium2, le projet Rainier est conçu pour offrir une évolutivité sans précédent pour l’IA générative.
Anthropic, la société à l’origine du modèle de langage Claude 3.5 Sonnet, prévoit d’utiliser le cluster pour quintupler sa formation de modèles. L’investissement d’AWS dans Anthropic, qui s’élève désormais à 8 milliards de dollars, souligne son engagement à favoriser l’innovation dans l’infrastructure d’IA.
En prenant en charge à la fois Apple et Anthropic, AWS démontre sa capacité à répondre à diverses charges de travail d’IA, de la pré-formation à la formation réelle.-inférence temporelle.
AWS Trainium3 et l’avenir du matériel d’IA
AWS envisage déjà sa prochaine génération puce, Trainium3, dont la sortie est prévue fin 2025. Construit sur un processus de trois nanomètres, Trainium3 promet une performance quadruple par rapport à Trainium2. Ce développement permettra des modèles d’IA encore plus grands et des temps de formation plus rapides, renforçant ainsi la position d’AWS en tant que leader du matériel d’IA.
L’Ultracluster, un supercalculateur basé sur Trainium3, améliorera encore les capacités d’AWS. AWS le décrit comme le plus grand cluster de calcul d’IA au monde, capable de gérer des modèles comportant des milliers de milliards de paramètres avec une efficacité inégalée.
Ces avancées reflètent la vision stratégique d’AWS visant à défier la domination de Nvidia sur le marché du matériel d’IA, en proposant à des entreprises comme Apple et Des solutions anthropiques rentables et évolutives adaptées à leurs besoins.
La transition de l’industrie vers le silicium personnalisé
Adoption par Apple des puces AWS Trainium2 fait partie d’une tendance plus large de l’industrie vers du silicium personnalisé pour les charges de travail d’IA. Les entreprises s’éloignent de plus en plus des solutions traditionnelles basées sur GPU au profit de matériel conçu spécifiquement pour les applications d’IA.
L’approche intégrée d’AWS, combinant du matériel comme Trainium2 avec des outils tels que le SDK Neuron, le positionne comme une alternative viable. à Nvidia. En investissant dans du silicium personnalisé, Apple et AWS stimulent l’innovation dans l’infrastructure d’IA, ouvrant la voie à des solutions plus efficaces et évolutives.