IBM heeft vandaag zijn Granite 4.0 Nano-familie gelanceerd, een nieuwe lijn open-source AI-modellen ontworpen voor extreme efficiëntie.
Deze modellen, uitgebracht op 29 oktober 2025, zijn klein genoeg om op laptops en zelfs rechtstreeks in een webbrowser te draaien, wat de focus van de industrie op enorme, servergebonden systemen uitdaagt.
Met afmetingen vanaf slechts 350 miljoen parameters wil de Nano-familie krachtige AI toegankelijk maken voor ontwikkelaars en bedrijven zonder dat dit nodig is dure cloudinfrastructuur.
De release, die volgt op het debuut van de grotere Granite 4.0-modellen eerder in oktober, duidt op een strategische impuls in de richting van kleinere, meer toegankelijke AI voor on-device en edge computing-applicaties.
Kleine modellen, grote toegankelijkheid: Nano draait op je laptop
De nieuwste zet van IBM daagt de’groter is beter’-mantra uit en geeft prioriteit aan efficiëntie en toegankelijkheid boven pure schaal. De Granite 4.0 Nano-familie omvat vier modellen, variërend van een klein 350 miljoen parameters naar een meer capabele versie van 1,5 miljard parameters.
Hun ontwerp maakt ze ideaal voor ontwikkelaars die applicaties bouwen op consumentenhardware of aan de rand, waar afhankelijkheid van de cloud onpraktisch is. Het doel is om een nieuwe klasse AI-applicaties mogelijk te maken die waarde hechten aan privacy, lage latentie en onafhankelijkheid van dure datacenters.
De kleinste varianten kunnen comfortabel werken op een moderne laptop met 8-16 GB RAM. In een opmerkelijke demonstratie van hun lichtheid bevestigde Joshua Lochner, een machine learning-ingenieur bij Hugging Face, dat”de kleinste zelfs lokaal in je eigen webbrowser kunnen draaien”, bevestigde hij.
Dit niveau van toegankelijkheid verlaagt de toegangsbarrière voor ontwikkelaars en kleine bedrijven, waardoor een verschuiving naar lokale AI mogelijk wordt gemaakt.
De familie is opgesplitst in twee architecturale stijlen om de flexibiliteit te maximaliseren. Twee modellen, Granite-4.0-H-1B en H-350M, gebruiken de hybride state-space (SSM) en Transformer-architectuur.
Twee andere, Granite-4.0-1B en 350M, zijn pure Transformer-varianten, die een bredere compatibiliteit bieden met bestaande tools zoals llama.cpp.
Een IBM-productleider verduidelijkte de naamgeving en merkte op dat het niet-hybride 1B-model feitelijk dichterbij is aan 2B-parameters, maar werd genoemd om aan te sluiten bij zijn hybride broer of zus.
Hoewel de hybride variant een echt 1B-model is, ligt de niet-hybride variant dichter bij 2B. IBM heeft ervoor gekozen om de naamgeving afgestemd te houden op de hybride variant om de verbinding gemakkelijk zichtbaar te maken.
Boven hun gewicht: Nano’s benchmarkprestaties
Onder de motorkap erven de Nano-modellen dezelfde innovatieve architectuur die maakte de oorspronkelijke Granite 4.0-familie opmerkelijk.
Door het combineren van zeer efficiënte Mamba-2-lagen met een klein aantal traditionele Transformer-blokken, bereiken deze modellen aanzienlijke prestatieverbeteringen met een beperkt budget.
Deze hybride aanpak pakt direct het”kwadratische knelpunt”aan van pure Transformer-modellen, waarbij de verwerkingseisen stijgen naarmate de invoerlengte toeneemt.
Het belangrijkste kwantitatieve hoogtepunt is de dramatische efficiëntiewinst: de nieuwe hybride modellen kunnen verlaagt de GPU-geheugenvereisten met meer dan 70% tijdens inferentie, vooral voor workloads met lange contexten of veel gelijktijdige gebruikers.
Deze architecturale keuze maakt deel uit van een bredere industriële race om AI-efficiëntie, waarbij bedrijven als Google nieuwe methoden onderzoeken om de rekenkosten te verlagen en onderzoekers nieuwe compressietechnieken ontwikkelen.
Ondanks hun minimale footprint leveren de Nano-modellen indrukwekkende resultaten op belangrijke industriële benchmarks, waardoor ze in directe concurrentie komen met gevestigde kleine taalmodellen (SLM’s) zoals die van Alibaba. Qwen3 en Gemma van Google.
Volgens door IBM gedeelde gegevens scoort het Granite-4.0-H-1B-model 78,5 op IFEval voor het volgen van instructies, waarmee het beter presteert dan het grotere Qwen3-1.7B-model.
Op het Berkeley Function Calling Leaderboard (BFCLv3), een kritische test voor agentische workflows, de Granite-4.0-1B-variant leidt zijn grootteklasse met een score van 54,8.
IBM Granite 4.0 Nano Berkeley Function Calling Leaderboard v3 (BFCLv3) (Bron: IBM)
Deze resultaten suggereren dat strategisch ontwerp en hoogwaardige trainingsgegevens kleinere modellen in staat kunnen stellen effectief te concurreren met veel grotere op gespecialiseerde, ondernemingsrelevante taken.
IBM Granite 4.0 Nano Berkeley Function Calling Leaderboard v3 (BFCLv3) (Bron: IBM)
Een open en vertrouwde basis voor Enterprise AI
Voor ontwikkelaars en bedrijven die op hun hoede zijn voor leverancierlock-in, biedt de tolerante Apache 2.0-licentie aanzienlijke vrijheid om de modellen te gebruiken, aan te passen en te distribueren, zelfs voor commerciële doeleinden.
Deze open benadering is een kernonderdeel van IBM’s strategie om een betrouwbaar bedrijf op te bouwen ecosysteem rond zijn Granite-modellen, waardoor ze worden gepositioneerd als een betrouwbaar Westers alternatief voor krachtige open-sourcemodellen van concurrenten.
Naast de open licentie versterkt IBM het vertrouwen met strenge bestuursnormen.
De Granite-familie is de eerste open-source-modelserie die ISO/IEC 42001:2023-certificering heeft behaald, een internationale standaard het verifiëren dat het AI-beheersysteem van IBM voldoet aan strenge eisen op het gebied van verantwoording en transparantie.
Om de integriteit verder te garanderen, is elk modelcontrolepunt cryptografisch ondertekend, waardoor ontwikkelaars de authenticiteit en herkomst ervan kunnen verifiëren.
IBM’s directe betrokkenheid bij de ontwikkelaarsgemeenschap, waaronder een “Ask Me Anything”-sessie op Reddit geeft blijk van toewijding aan het bevorderen van adoptie en het verzamelen van feedback.
Gebruikers op het forum toonden enthousiasme, met één opmerking:”Dit is groot als het waar is voor een 1B-model… dit zou een echt werkpaard kunnen zijn.”
Met plannen om later in 2025 grotere modellen en op redeneren gerichte”denk”-varianten uit te brengen, lijkt de Nano-familie slechts de eerste stap te zijn in een bredere strategie om efficiënte, productieklare AI werkelijkheid te maken voor een breder publiek.