AI Chip Unicorn GROQ zeichnet eine große globale Erweiterung nach einer neuen Finanzierungsrunde in Höhe von 750 Millionen US-Dollar auf, die seine Bewertung auf 6,9 Milliarden US-Dollar erhöhte. href=”https://www.wsj.com/business/ai-unicorn-grroq-charts-data-center-expansion-pLan-5d6a130e”target Partnerschaften, darunter ein tiefes Bündnis mit der nationalen KI-Entität von Saudi-Arabien, Humain und einer Integration in die Entwicklerplattform, die das Gesicht umarmt. Um etablierte Spieler wie Nvidia herauszufordern, indem sie spezialisierte, kostengünstigere Hardware anbieten. Mit hoher Geschwindigkeit und niedrigen Kosten.”target=”_ leer”> BlackRock und Deutsche Telekom-Kapitalpartner . Der Pfad ist jedoch nicht ohne Herausforderungen.
Es wurde im Juli berichtet, dass GRQ seine Umsatzprognose von 2025 von über 2 Milliarden US-Dollar auf 500 Millionen US-Dollar revidiert hatte. Ein Sprecher bemerkte zuvor, dass selbst bei einer doppelten Infrastruktur „es heute noch nicht genügend Kapazität geben würde, um die Nachfrage zu befriedigen.“
Die neuen Rechenzentren, die für 2026 geplant sind, sind eine direkte Reaktion auf diese Kapazitätskrise. und leistungsstarke Allianzen. Diese Integration macht Groq ein Offizieller Anbieter von Inferenz auf der Plattform . Aus Saudi-Arabien, das im Februar 2025 einen Investitionsvertrag in Höhe von 1,5 Milliarden US-Dollar abgeschlossen hat. Diese Partnerschaft macht CRQ zu einem wichtigen Technologieanbieter für Humain, dem neuen staatlichen KI-Unternehmen des Königreichs. Es baut auf frühere Zusammenarbeit auf, einschließlich eines Projekts mit Aramco 2024 zur Gründung eines AI-Rechenzentrums, das als frühzeitiger Test für die GROQ-Technologie in der Region diente. Durch die Sicherung des Zugangs zu der hochmodernen US-Chip-Technologie zielt das Königreich darauf ab, eine souveräne KI-Fähigkeit aufzubauen, ein Ziel, das für seinen Multi-Milliarden-Dollar-Infrastrukturplan von zentraler Bedeutung ist.
Dies spiegelt ein differenziertes Verständnis der Hardware-Landschaft wider. Humain CEO Tareq Amin betonte die Dringlichkeit und sagte: „Die Welt ist hungrig nach Kapazität. Es gibt zwei Wege, die Sie aufnehmen könnten: Sie nehmen es langsam und wir nehmen definitiv nicht langsam, oder Sie gehen schnell.”href=”https://groq.com/lpu-architecture”target=”_ leer”> Sprachverarbeitungseinheit (LPU) Architektur . Im Gegensatz zu dem vielseitigen GPUs, mit dem der größte Teil der KI-Branche mit Strom versorgt wird, sind LPUs speziell für die Anforderungen der KI-Inferenz konzipiert, die Berechnung und den Speicher auf dem Chip Co-Lokalisierung des Chips. Während ältere Modelle berechnet wurden, sind moderne Transformatoren speichergebunden. Die Architektur von GREQ ist eine direkte Wette zu dieser neuen Realität. Das unabhängige Unternehmen Künstliche Analyse bestätigte die Bereitstellung von Alibabas QWEN3 32B-Modell-Läufen von Alibaba bei ungefähr 535 Token pro Sekunde. Das Unternehmen bietet Zugriff auf das leistungsstarke QWEN3 32B-Modell mit nur 0,29 USD pro Million Input-Token und 0,59 USD pro Million Output-Token, eine überzeugende Rate, die für die Unterholz der amtierenden Cloud-Anbieter ausgelegt ist. Vorschlag gegen Dienste wie AWS Bedrock und Google Vertex AI. Startups wie