IBM a lancé ses nouveaux modèles Granite 4.0 AI, offrant un saut majeur d’efficacité pour les entreprises.

Sorti cette semaine, la famille open source utilise un nouveau design hybride, Mixing mamba-2 et Transformateur Architectures. Cette approche réduit les besoins en mémoire de plus de 70%, ce qui réduit les coûts matériels pour les tâches complexes.

Les modèles sont conçus pour une utilisation de l’entreprise, en se concentrant sur la confiance et les performances élevées. Ils sont maintenant disponibles sur Watsonx.ai d’IBM href=”https://huggingface.co/collections/ibm-canite/granite-4-0-language-models-6811a18b820ef362d9e5a82c”cible=”_ Blank”> Face étreint , et autres plateformes.

Granite 4.0 marque la décision d’IBM pour fournir un outil d’IA puissant mais abordable pour le marché mondial, en le positionnant comme un concurrent clé.

Cette version indique une poussée stratégique par IBM pour récupérer un rôle de leadership dans la montée en puissance de la montée en puissance des modèles chinois puissants comme Qwen, les États-Unis, les États-Unis ont été forts pour une forte augmentation de puissants modèles chinois comme Qwen, les États-Unis ont été forts pour les États-Unis pour une forte augmentation de puissants modèles chinois comme Qwen, les États-Unis. Contender.

Une architecture hybride pour s’attaquer au problème d’efficacité de l’AI

au cœur du granit 4.0 est une solution intelligente à l’une des plus grandes défis de l’AI: l’immense coût informatique des modèles transformateurs.

Les architectures traditionnelles souffrent d’un «doublage quadratique», «le traitement exige que le traitement exige quadruple. Cela les rend coûteux à exécuter.

Les nouveaux modèles d’IBM contournent ce numéro en mélangeant deux architectures différentes. Ils combiner des couches de mamba-2 hautement efficaces avec un petit nombre de blocs de transformation traditionnels dans un 9: 1 ratio . Modèle d’état-espace, traite les informations linéairement, ce qui en fait bien mieux adapté aux documents longs .

Cette conception hybride livre le meilleur des deux mondes. Il maintient la précision contextuelle pour laquelle les transformateurs sont connus tout en exploitant la vitesse et l’efficacité de la mémoire du mamba.

Le résultat est une réduction significative du matériel nécessaire pour exécuter une AI puissante, La barrière à l’entrée pour de nombreuses organisations .

Le déménagement fait partie d’une sage industrielle pour une race industrielle . Les chercheurs explorent diverses méthodes, des cascades spéculatives de Google aux techniques de compression sans perte comme DFLOAT11, tous visant à rendre les grands modèles plus accessibles et durables. L’innovation architecturale d’IBM est une entrée majeure dans ce domaine.

Les performances et la praticité des charges de travail d’entreprise

IBM se concentrent carrément sur les performances et la praticité de la qualité d’entreprise. La société affirme que la nouvelle architecture peut réduire les exigences de mémoire GPU de plus de 70% pendant l’inférence, en particulier pour les charges de travail avec de longs contextes ou de nombreux utilisateurs simultanés. Cela se traduit directement par des coûts opérationnels inférieurs.

La famille Granite 4.0 comprend plusieurs tailles pour répondre aux différents besoins. La gamme propose deux modèles de mélange de réseaux (MOE), H-Small (~ 9B Active Paramètres) et H-Tiny (~ 1B actif), aux côtés d’un modèle hybride 3B dense.

Un transformateur 3B pur est également offert à des plates-formes qui ne soutiennent pas encore la conception hybride.

Ces modèles perdent au-dessus de leur poids sur les clés de l’industrie. Le modèle Granite-4.0-H-Small excelle dans les tâches de suivi des instructions (Ifeval) et est très compétitif dans Fonction Calling (BFCLV3), selon les données d’IBM.

Cela démontre leur préparation aux flux de travail complexes et agentiques communs dans les milieux commerciaux.

Pour gérer les données de l’entreprise exigeantes, les modèles ont été formés sur un corpus massif de 22 milliards. Ils ont également été formés sur des séquences d’échantillons jusqu’à 512k jetons de long, garantissant des performances robustes sur les tâches nécessitant des fenêtres de contexte très longues.

Des modèles open-source construits sur une base de confiance

Au-delà des performances, IBM met l’accent sur la confiance et la gouvernance responsable. Granite 4.0 est libéré sous la licence APACHE 2.0 permissive, encourageant une large adoption et une modification.

Cette approche ouverte est un différenciateur clair dans un marché souvent dominé par des systèmes fermés et propriétaires.

Dans une première pour les modèles à source ouverte, la famille Granite a réalisé ISO/IEC 42001: 2023 Certification .

Cette norme internationale vérifie que la priorité AI d’IBM répond à des exigences rigoureuses pour la responsabilité, la transparence, la privilège et la privilège des données, les enterpeurs pour les exigences rigoureuses, la transport, la transparence, et la privilège de données, l’assurance, les exigences en matière de réglementation pour la responsabilisation, industries.

Pour renforcer davantage la sécurité, chaque point de contrôle de modèle est signé cryptographiquement, permettant aux développeurs de vérifier son authenticité et son intégrité.

Son engagement envers un écosystème ouvert et sécurisé est essentiel à la stratégie d’IBM. L’entreprise prévoit d’étendre la famille avec des variantes de «pensée» axées sur le raisonnement plus tard en 2025.

Categories: IT Info