Qualcomm ist am Montag in den Markt für KI-Rechenzentren eingestiegen und hat neue Chips auf den Markt gebracht, um die Spitzenreiter Nvidia und AMD herauszufordern. Qualcomm stellte seine AI200-und AI250-Beschleuniger vor, die für den wachsenden KI-Inferenzmarkt entwickelt wurden.

Qualcomm setzt auf ein Design mit enormer Speicherkapazität, um Kunden niedrigere Kosten und hohe Effizienz zu bieten. Dieser Schritt ist ein wichtiger strategischer Wandel für den Mobilfunkriesen. Die Anleger begrüßten die Nachricht und ließen die Aktie des Unternehmens um 15 % steigen. Die neue Hardware soll im Jahr 2026 auf den Markt kommen und dem KI-Wettrüsten einen leistungsstarken neuen Player hinzufügen.

Eine strategische Wette auf dem KI-Inferenzmarkt

Qualcomm nutzt jahrzehntelange Erfahrung in mobilen Prozessoren mit geringem Stromverbrauch und ist ein kalkuliertes Spiel für das Rechenzentrum machen. Das Unternehmen geht einer direkten Konfrontation mit Nvidia im KI-Trainingsbereich aus dem Weg, einem Markt, den der GPU-Riese dominiert.

Stattdessen zielt es auf den schnell wachsenden Inferenzmarkt ab, der Folgendes umfasst Ausführen bereits trainierter Modelle für Echtzeitanwendungen. Der strategische Dreh-und Angelpunkt von seinem Mobile-First-Fokus war ein bewusster Weg.

„Wir wollten uns zunächst in anderen Bereichen beweisen, und nachdem wir dort unsere Stärke aufgebaut hatten, war es für uns ziemlich einfach, einen Schritt weiter in die Rechenzentrumsebene vorzudringen“, sagte Durga Malladi, SVP & GM bei Qualcomm.

Dieser Fokus auf Inferenz ist eine gemeinsame Strategie unter den Herausforderern von Nvidia. Intel hat kürzlich seine eigene „Crescent Island“-GPU mit einem ähnlichen Ziel vorgestellt. Wie Intels CTO Sachin Katti erklärte: „KI verlagert sich von statischem Training hin zu Echtzeit-Inferenz, die überall möglich ist – gesteuert durch agentische KI.“

Dieser branchenweite Wandel schafft eine Chance für neue Architekturen, die Leistung pro Watt priorisieren und Betriebskosten gegenüber der reinen Rechenleistung, die für das Training benötigt wird, priorisieren.

Zur Unterstützung seiner Hardware ist Qualcomm Einführung eines offenen Software-Stacks, der für eine einfache Einführung konzipiert ist.

Durch die Betonung der nahtlosen Kompatibilität mit wichtigen KI-Systemen Mit Frameworks und Ein-Klick-Bereitstellung für Modelle von Entwicklerzentren wie Hugging Face möchte das Unternehmen eine praktikable Alternative zu Nvidias proprietärem CUDA-Ökosystem bieten und Reibungsverluste für Unternehmen und Cloud-Anbieter reduzieren.

Speicher statt Muskeln: Ein anderer Ansatz für das Chip-Design

In einer direkten Herausforderung für den GPU-zentrierten Status quo, Bei den neuen Beschleunigern von Qualcomm stehen Speicherkapazität und Effizienz im Vordergrund. Die AI200-Karte wird über enorme 768 GB LPDDR-Speicher verfügen.

Es stellt eine strategische Abkehr vom teuren High-Bandwidth-Memory-Standard (HBM) in High-End-Chips von Nvidia und AMD dar.

HBM bietet zwar eine überlegene Bandbreite, ist jedoch kostspielig und kann einen Engpass in der Lieferkette darstellen. Durch den Einsatz von LPDDR zielt Qualcomm darauf ab, umfangreiche KI-Modelle auf eine einzige Karte zu laden und so den Bedarf an kostspieligen und stromintensiven Datenübertragungen zwischen mehreren Chips zu reduzieren.

Seine Designphilosophie konzentriert sich auf die Senkung der Gesamtbetriebskosten (TCO) für Rechenzentrumsbetreiber. Der fortschrittlichere AI250, der für 2027 geplant ist, treibt dieses Konzept mit einem speichernahen Rechenlayout weiter voran.

Qualcomm behauptet, dass diese Architektur eine über zehnmal höhere effektive Speicherbandbreite liefern kann und so die Engpässe beseitigt, die Inferenzaufgaben oft verlangsamen. Laut Durga Malladi, SVP & GM bei Qualcomm: „Mit Qualcomm AI200 und AI250 definieren wir neu, was für KI-Inferenz im Rack-Maßstab möglich ist.“

Qualcomm wird die Technologie als einzelne Beschleunigerkarten oder als komplette, flüssigkeitsgekühlte Server-Racks anbieten.

Vollständige Rack-Systeme werden mit 160 Kilowatt betrieben, eine Leistungsaufnahme, die mit der der bestehenden Systeme vergleichbar ist GPU-Racks von Mitbewerbern, aber mit dem Versprechen einer höheren Effizienz für Inferenz-Workloads, was sich direkt auf das Betriebsbudget eines Rechenzentrums auswirkt.

Betritt ein überfülltes Feld: Qualcomm vs. die Titanen

Für Cloud-Anbieter und große Unternehmen könnte die Ankunft eines weiteren großen Anbieters willkommenen Preiswettbewerb und Lieferkettenstabilität mit sich bringen.

Seit Jahren ist die KI Der Hardwaremarkt wurde überwiegend von Nvidia dominiert, dessen leistungsstarke GPUs und das CUDA-Software-Ökosystem zum Industriestandard geworden sind. Diese Dominanz hat zu Lieferengpässen und hohen Kosten geführt und große Player wie Oracle und OpenAI dazu veranlasst, aktiv nach Alternativen von AMD zu suchen und sogar kundenspezifische Chips zu entwickeln.

Der Einstieg von Qualcomm verschärft diesen Wettbewerb. Eine begeisterte Marktreaktion, zu der auch ein Anstieg der Qualcomm-Aktie um 15 % gehörte, signalisiert den starken Glauben der Anleger an das Potenzial des Unternehmens, einen bedeutenden Anteil zu erobern.

Qualcomm hat mit Humain aus Saudi-Arabien bereits einen bedeutenden Frühkunden gewonnen, der sich verpflichtet hat, Systeme mit einer Leistung von bis zu 200 Megawatt einzusetzen.

Mit der Markteinführung des AI200 im Jahr 2026 und des AI250 im Jahr 2027 verpflichtet sich Qualcomm zu einem jährlichen Veröffentlichungsrhythmus, um mit seinen Konkurrenten Schritt zu halten.

Das Unternehmen legt außerdem Wert auf Flexibilität und ermöglicht es Kunden, seine Komponenten in ihre eigenen benutzerdefinierten Serverdesigns zu integrieren.

„Wir haben versucht, sicherzustellen, dass unsere Kunden entweder alles nehmen oder sagen können: ‚Ich werde alles kombinieren‘“, Malladi sagte. Während das KI-Wettrüsten weiter eskaliert, ist Qualcomm dank seiner differenzierten Strategie ein hervorragender neuer Konkurrent im Kampf um die Zukunft des Rechenzentrums.

Categories: IT Info