IBM hat heute seine Granite 4.0 Nano-Familie auf den Markt gebracht, eine neue Reihe von Open-Source-KI-Modellen, die auf höchste Effizienz ausgelegt sind.
Diese Modelle wurden am 29. Oktober 2025 veröffentlicht und sind klein genug, um auf Laptops und sogar direkt in einem Webbrowser ausgeführt zu werden. Damit stellen sie den Fokus der Branche auf riesige, servergebundene Systeme in Frage.
Mit Größen ab nur 350 Millionen Parametern zielt die Nano-Familie darauf ab, leistungsstarke KI für Entwickler und Unternehmen ohne zusätzliche Anforderungen zugänglich zu machen teure Cloud-Infrastruktur.
Die Veröffentlichung nach dem Debüt der größeren Granite 4.0-Modelle Anfang Oktober signalisiert einen strategischen Vorstoß hin zu kleinerer, besser zugänglicher KI für On-Device-und Edge-Computing-Anwendungen.
Kleine Modelle, große Zugänglichkeit: Nano läuft auf Ihrem Laptop
Der jüngste Schritt von IBM stellt das Branchen-Mantra „Größer ist besser“ in Frage und stellt Effizienz und Zugänglichkeit vor reine Größe in den Vordergrund. Die Granite 4.0 Nano-Familie umfasst vier Modelle, angefangen bei einem winzigen Modell 350 Millionen Parameter zu einer leistungsfähigeren Version mit 1,5 Milliarden Parametern.
Ihr Design macht sie ideal für Entwickler, die Anwendungen auf Consumer-Hardware oder am Rande erstellen, wo eine Cloud-Abhängigkeit unpraktisch ist. Ziel ist es, eine neue Klasse von KI-Anwendungen zu ermöglichen, die Wert auf Privatsphäre, geringe Latenz und Unabhängigkeit von kostspieligen Rechenzentren legen.
Die kleinsten Varianten können bequem auf einem modernen Laptop mit 8–16 GB RAM betrieben werden. In einer bemerkenswerten Demonstration ihrer Leichtigkeit bestätigte Joshua Lochner, ein Ingenieur für maschinelles Lernen bei Hugging Face, dass „die kleinsten sogar lokal in Ihrem eigenen Webbrowser ausgeführt werden können“, er bestätigte.
Dieses Niveau von Die Zugänglichkeit senkt die Eintrittsbarriere für Entwickler und kleine Unternehmen und ermöglicht den Übergang zu lokaler KI.
Die Familie ist in zwei Architekturstile unterteilt, um die Flexibilität zu maximieren. Zwei Modelle, Granite-4.0-H-1B und H-350M, nutzen den Hybrid State-Space (SSM) und die Transformer-Architektur.
Zwei weitere, Granite-4.0-1B und 350M, sind reine Transformer-Varianten und bieten eine größere Kompatibilität mit vorhandenen Tools wie llama.cpp.
Ein Produktleiter von IBM präzisierte die Benennung und stellte fest, dass das nicht-hybride 1B-Modell tatsächlich näher daran liegt 2B-Parameter, wurde aber benannt, um mit seinem Hybrid-Geschwister übereinzustimmen.
Während die Hybrid-Variante ein echtes 1B-Modell ist, ist die Nicht-Hybrid-Variante näher an 2B. IBM hat sich dafür entschieden, die Benennung auf die Hybridvariante abzustimmen, um die Verbindung leicht sichtbar zu machen.
Überragend: Nanos Benchmark-Leistung
Unter der Haube verfügen die Nano-Modelle über dieselbe innovative Architektur wie machte die ursprüngliche Granite 4.0-Familie bemerkenswert.
Durch die Kombination hocheffizienter Mamba-2-Schichten mit einer kleinen Anzahl traditioneller Transformer-Blöcke erzielen diese Modelle erhebliche Leistungssteigerungen bei kleinem Budget.
Dieser Hybridansatz behebt direkt den „quadratischen Engpass“ reiner Transformer-Modelle, bei denen die Verarbeitungsanforderungen mit zunehmender Eingabelänge steigen.
Das bedeutendste quantitative Highlight ist der dramatische Effizienzgewinn: Die neuen Hybridmodelle können dies Reduzieren Sie den GPU-Speicherbedarf während der Inferenz um über 70 %, insbesondere für Arbeitslasten mit langen Kontexten oder vielen gleichzeitigen Benutzern.
Diese Architekturwahl ist Teil eines breiteren Branchenwettlaufs um KI-Effizienz, bei dem Unternehmen wie Google neue Methoden zur Reduzierung der Rechenkosten erforschen und Forscher neue Komprimierungstechniken entwickeln.
Trotz ihres minimalen Platzbedarfs liefern die Nano-Modelle beeindruckende Ergebnisse bei wichtigen Branchen-Benchmarks und stehen damit in direkter Konkurrenz zu etablierten Small Language Models (SLMs) wie Alibabas Qwen3 und Gemma von Google.
Laut von IBM geteilten Daten erreicht das Granite-4.0-H-1B-Modell beim IFEval einen Wert von 78,5 für das Befolgen von Anweisungen und übertrifft damit das größere Qwen3-1.7B-Modell.
Auf dem Berkeley Function Calling Leaderboard (BFCLv3), einem kritischen Test für Agenten-Workflows, ist die Granite-4.0-1B-Variante führt seine Größenklasse mit einer Punktzahl von 54,8 an.
IBM Granite 4.0 Nano Berkeley Function Calling Leaderboard v3 (BFCLv3) (Quelle: IBM)
Diese Ergebnisse legen nahe, dass strategisches Design und hochwertige Trainingsdaten es kleineren Modellen ermöglichen können, effektiv mit viel größeren zu konkurrieren spezialisierte, unternehmensrelevante Aufgaben.
IBM Granite 4.0 Nano Berkeley Function Calling Leaderboard v3 (BFCLv3) (Quelle: IBM)
Eine offene und vertrauenswürdige Grundlage für Unternehmens-KI
Entwicklern und Unternehmen, die Angst vor einer Anbieterbindung haben, bietet die freizügige Apache 2.0-Lizenz erhebliche Freiheiten bei der Nutzung, Änderung und Verbreitung der Modelle, auch für kommerzielle Zwecke.
Dieser offene Ansatz ist ein zentraler Bestandteil der Strategie von IBM, ein vertrauenswürdiges Ökosystem aufzubauen rund um seine Granite-Modelle und positioniert sie als zuverlässige westliche Alternative zu leistungsstarken Open-Source-Modellen von Mitbewerbern.
Über die offene Lizenz hinaus stärkt IBM das Vertrauen durch strenge Governance-Standards.
Die Granite-Familie ist die erste Open-Source-Modellreihe, die ISO/IEC 42001:2023 erreicht Zertifizierung, ein internationaler Standard, der bestätigt, dass das KI-Managementsystem von IBM strenge Anforderungen an Verantwortlichkeit und Transparenz erfüllt.
Um die Integrität weiter sicherzustellen, wird jeder Modellprüfpunkt kryptografisch signiert, sodass Entwickler seine Authentizität und Herkunft überprüfen können.
IBMs direkte Zusammenarbeit mit der Entwicklergemeinschaft, einschließlich eines Die „Ask Me Anything“-Sitzung auf Reddit signalisiert ein Engagement für die Förderung der Akzeptanz und das Sammeln von Feedback.
Die Benutzer im Forum zeigten Begeisterung und einer bemerkte: „Das ist groß, wenn es wahr ist, für ein 1B-Modell … das könnte ein echtes sein.“ Arbeitstier.“
Angesichts der Pläne, später im Jahr 2025 größere Modelle und auf das Denken ausgerichtete „Thinking“-Varianten auf den Markt zu bringen, scheint die Nano-Familie nur der erste Schritt in einer umfassenderen Strategie zu sein, um effiziente, produktionsreife KI für ein breiteres Publikum Wirklichkeit werden zu lassen.