Google führt eine Zangenbewegung in der Branche der künstlichen Intelligenz (KI) durch, verdrängt gleichzeitig OpenAI mit „Produktfreude“ in seinem neuen Gemini 3-Modell und bedroht Nvidias Hardware-Monopol durch einen möglichen Mega-Deal mit Meta.
Am Dienstag tauchten Berichte auf, dass Meta, die Muttergesellschaft von Facebook, dies tut in Diskussionen, Googles Chips für das KI-Training zu nutzen. Die Nachricht löste eine heftige Marktreaktion aus und sendete einen Rückgang der Nvidia-Aktie um 3,6 % im vorbörslichen Handel, was auf eine mögliche Verschiebung der Machtverhältnisse auf dem Chipmarkt hindeutet.
In der Zwischenzeit Die jüngste Performance der Google-Aktie hat der allgemeinen Branchentrübung getrotzt und ist seit Ende Oktober um etwa 16 % gestiegen. Investoren scheinen darauf zu wetten, dass die Doppelstrategie des Suchgiganten aus aggressiven Produktveröffentlichungen und Infrastrukturausbau die Wettbewerbsvorteile seiner Konkurrenten erfolgreich untergräbt.
The Product Pincer: Gemini’s Rise & The Three-Way War
Googles November Die Offensive umfasst die doppelte Veröffentlichung des Gemini 3-Updates und „Nano Banana“, offiziell als Gemini 3 Pro Image gebrandet. Eine neue „Deep Think“-Argumentations-Engine unterstützt diese Modelle und geht über die einfache Token-Vorhersage hinaus zur logischen Problemlösung.
Die Benutzererfahrung hat sich von utilitaristischen Reaktionen hin zu „Produktbegeisterung“ verlagert, einem wichtigen Unterscheidungsmerkmal, das zuvor OpenAI innehatte.
Salesforce-CEO Marc Benioff verließ ChatGPT öffentlich, nannte den Gemini-Sprung „verrückt“ und erklärte: „Ich gehe nicht zurück. Der Sprung ist verrückt – Argumentation, Geschwindigkeit, Bilder, Videos … alles ist schärfer und schneller. Es fühlt sich an, als hätte sich die Welt gerade wieder verändert.“
Heilige Scheiße. Ich benutze ChatGPT seit 3 Jahren jeden Tag. Ich habe gerade zwei Stunden mit Gemini 3 verbracht. Ich werde nicht zurückkehren. Der Sprung ist wahnsinnig – Argumentation, Geschwindigkeit, Bilder, Videos … alles ist schärfer und schneller. Es fühlt sich an, als hätte sich die Welt gerade wieder verändert. ❤️ 🤖 https://t.co/HruXhc16Mq
-Marc Benioff (@Benioff) 23. November 2025
OpenAI ist intern ins Wanken geraten; Interne Warnungen von Sam Altman warnen die Mitarbeiter vor „rauen Stimmungen“ und „wirtschaftlichem Gegenwind“, wenn sie sich ihrem ersten echten Mitbewerber gegenübersehen.
Das Narrativ der totalen Google-Dominanz wird jedoch durch die Veröffentlichung von Claude Opus 4.5 durch Anthropic am 24. November noch komplizierter 3 Pro liegt bei 76,2 %.
Es gibt einen guten Grund, warum Google diesen Oktober beschlossen hat, Anthropic mit einer neuen, milliardenschweren Cloud-Partnerschaft zu unterstützen.
Die Architektur von Anthropic führt einen neuartigen Ansatz für das Kontextmanagement ein, der sich speziell mit der „Aufblähung“ befasst, die komplexe Agenten-Workflows plagt. In der zusammen mit dem Modell veröffentlichten technischen Dokumentation heißt es:
„Anstatt alle Werkzeugdefinitionen im Voraus zu laden, erkennt das Tool Search Tool Werkzeuge bei Bedarf. Claude sieht nur die Werkzeuge, die es tatsächlich für die aktuelle Aufgabe benötigt.“
„Dies stellt eine Reduzierung der Token-Nutzung um 85 % dar, während der Zugriff auf Ihre gesamte Werkzeugbibliothek erhalten bleibt. Interne Tests zeigten erhebliche Genauigkeitsverbesserungen bei MCP-Bewertungen bei der Arbeit mit großen Werkzeugbibliotheken.“
Ein solcher Drei-Wege-Deadlock deutet auf eine Es handelt sich eher um einen fragmentierten Markt als um eine einfache Absetzung des etablierten Betreibers. Während Google an Dynamik gewinnt, steigt die technische Obergrenze in allen großen Labors weiter an.
Der Infrastruktur-Coup: Der Chip-Krieg verschiebt sich
Die Reaktion des Marktes wird durch einen Bericht von The Information untermauert Meta befindet sich in fortgeschrittenen Gesprächen über die Nutzung der Tensor Processing Units (TPUs) von Google.
Konkret geht es bei der Vereinbarung darum, dass Meta im Jahr 2026 TPUs über Google Cloud mietet und sie dem Bericht zufolge bis 2027 direkt in Rechenzentren einsetzt.
Googles jahrzehntelange Wette auf kundenspezifische Chips bestätigt seine These der „vertikalen Integration“ und bietet eine Absicherung gegen die Preismacht von Nvidia. Es gibt einen Präzedenzfall für einen solchen Wandel, da Anthropic am 24. Oktober bestätigte, dass das Unternehmen bereits 1 Million TPUs neben AWS Trainium-Chips verwendet, wie bereits bestätigt.
Um diesen Trend zu festigen, haben Google und Anthropic kürzlich eine bahnbrechende Cloud-Partnerschaft angekündigt. Thomas Kurian, CEO von Google Cloud, bemerkte: „Die Entscheidung von Anthropic, den Einsatz von TPUs deutlich auszuweiten, spiegelt das starke Preis-Leistungs-Verhältnis und die Effizienz wider, die seine Teams seit mehreren Jahren mit TPUs erleben.“
Verzweiflung bestimmt den aktuellen Kampf um Rechenleistung. Wenn Meta, einer der weltweit größten GPU-Käufer, auf TPUs diversifiziert, signalisiert dies einen strukturellen Wandel auf dem Markt für KI-Hardware.
Finanzielles Urteil: Der Blase trotzen
Während der breitere Technologiesektor mit Volatilität und Ängsten vor einer „KI-Blase“ konfrontiert ist, ist die Google-Aktie seit Ende Oktober um etwa 16 % gestiegen und hat damit den Markttrends getrotzt. Investoren bewerten Alphabet nicht nur als Werberiesen, sondern auch als unterbewertetes KI-Infrastrukturunternehmen neu.
CNBC-Moderator Jim Cramer lobte die Einführung von Gemini: sagt „Wir müssen erkennen, dass Gemini die größte Bedrohung für ChatGPT darstellt, die wir bisher gesehen haben. Es gibt einfach keinen Zweifel daran – Gemini ist für OpenAI existenziell.“
[eingebetteter Inhalt]
Die Marktbegeisterung wird durch die Fähigkeit von Google angetrieben, interaktive Tools bereitzustellen, die Benutzer in seinem Ökosystem halten. Um die Produktlücke schnell zu schließen, nutzt Google seinen gesamten Stack.
Im Gegensatz zu Microsoft, das auf die Modelle von OpenAI setzt, besitzt Google den gesamten Stack vom TPU-Chip bis zur Suchoberfläche. Die vertikale Kontrolle ermöglicht eine engere Integration und schnellere Iterationszyklen, ein deutlicher Vorteil im aktuellen Marktklima.