Google befindet sich Berichten zufolge in fortgeschrittenen Verhandlungen, um den Blackwell B200-GPUs von Nvidia aus CoreWeave zu vermieten und eine mögliche Verschiebung des Unternehmens zu markieren, wie das Unternehmen seine KI-Operationen skaliert. Der mögliche Deal, Zuerst berichtete die Informationen zuerst, garantiert auf leistungsstarke AI-Kompute, ohne auf interne TPU-Rollungsrechnungen zu warten. TPUs-Bustom-Chips, die für KI-Training und Inferenz im Maßstab optimiert wurden-erforscht die externe Kapazität, um die eskalierende Nachfrage zu bewältigen. CoreWeave, ein Cloud-Anbieter, der sich um den GPU-Stack von Nvidia baut, ist ein potenzieller Partner mit dem Inventar und der Geschwindigkeit, um die Anforderungen an die Hyperscale zu erfüllen. Das Unternehmen begann ursprünglich als Kryptowährungs-Mining-Unternehmen src=”https://winbuzzer.com/wp-content/uploads/2025/01/nvidia-rtx-black-yspecs-jensen-huang-25-official Billionen-Parameter-Modelle mit verbesserter Energieeffizienz. Benchmark-Daten zeigen die neuen 72-GPU-Server, die Lieferleistungsverbesserungen von 2,8 bis 3,4-mal im Vergleich zur Vorgängergeneration
Obwohl die Aktie ursprünglich schwankte, stieg die Aktien von CoreWeave innerhalb von Tagen nach dem Handel auf 43,50 USD. Dennoch sieht sich das Unternehmen um beträchtliche finanzielle Verpflichtungen aus. CoreWeave erzielte 2024 einen Umsatz von 1,9 Milliarden US-Dollar-von nur 228,9 Mio. USD im Vorjahr-verzeichnete aber auch einen Nettoverlust von 863 Mio. USD. Die Infrastruktur ist größtenteils gemietet, nicht im Besitz von Schulden in Höhe von 8 Milliarden US-Dollar und zusätzlichen Mietverpflichtungen in Höhe von 2,6 Milliarden US-Dollar. Das Unternehmen plant, 1 Milliarde US-Dollar für Börsengänge zu verwenden, um die Schulden zu verringern. Unter den Hyperscalern
Google hat das Interesse von Google, den Rechen von CoreWeave zu mieten, eine breitere Verschiebung bei der Verwaltung von Hyperzalern der AI-Infrastruktur wider. Microsoft verdoppelt interne Hardware-Investitionen. Amazon erweitert seine interne Trainien-und Inferentia-Chip-Linien weiter. OpenAI, unterstützt von einer Investition von 40 Milliarden US-Dollar von SoftBank, baut seine Unabhängigkeit von Azure durch alternative Berechnung von Geschäften wie dem mit CoreWeave auf.
Google von Google scheint hybrider zu sein. Während es die Trillium-TPU-Familie weiterentwickelt, bietet das Leasing-Hochleistungs-NVIDIA-Hardware eine Möglichkeit, die Rechenressourcen sofort zu skalieren, wenn KI-Dienste anspruchsvoller werden. Für ein Unternehmen, das großflächige Modelle wie Gemini und eine wachsende Suite von AI-Produkten unterstützt, ist das Warten auf interne Bereitstellungen möglicherweise keine Option.
Es gibt Risiken. Der Blackwell-GPUs von NVIDIA bietet erhebliche Leistungssteigerungen, aber ihre Effizienzverbesserungen können mit Kompromisse bei der Softwareoptimierung und dem Stromauszug verbunden sein. Ihre Vorteile der realen Welt variieren je nach Konfiguration der Workload-Konfiguration, und unabhängige Tests sind erforderlich, um die Ansprüche der Hersteller in verschiedenen Anwendungsfällen zu validieren. Ob dies eine vorübergehende Lösung oder eine längerfristige Strategie ist, bleibt abzuwarten. Aber in einer Branche, in der Computer zu Währung geworden ist, kann der Zugang-selbst wenn er gemietet wird-den Unterschied ausmachen.