Google eskalerar sitt bud på dominans av AI-maskinvara. På torsdagen tillkännagav företaget att sitt mest kraftfulla anpassade chip, Ironwood TPU, nu går in i allmän tillgänglighet för sina molnkunder, för att hantera denna nya efterfrågan av AI. processor tacklar realtidsarbetet bakom chatbots. För att stödja dessa AI-system lanserade Google också nya, kostnadseffektiva Axion-processorer för dagliga datoruppgifter.
Det här strategiska draget riktar sig till nyckelkunder som Anthropic och vässar Googles utmaning mot marknadsledaren Nvidia i den kritiska kampen om AI-infrastruktur.
Ironwood: A Custom Silicon Powerhouse for the Age of Inference
För att driva nästa generations AI-modeller satsar Google på en vertikalt integrerad strategi.
I mittpunkten i detta arbete är dess sjunde generationens Tensor Processing Unit, Ironwood, som först avslöjades i april,
är tillgänglig i april,
. specialbyggd för vad Google kallar”inferenstiden”, övergången från att utbilda massiva modeller till att distribuera dem för användbara, lyhörda interaktioner i stor skala.
Ironwood levererar ett betydande steg i prestanda, designat för att hantera de komplexa kraven från både utbildning och betjäning av dagens största AI-modeller.
Enligt Google erbjuder den nya arkitekturen en
uppnå häpnadsväckande 42,5 exaFLOPS FP8-beräkningskraft, ett mått som är väsentligt för aritmetiken med låg precision som dominerar moderna AI-arbetsbelastningar.
Denna råa kraft är kopplad med fokus på effektivitet; Ironwood har dubbelt så hög prestanda per watt som Trillium, vilket gör det till Googles mest strömeffektiva chip hittills.
Google TPU Peak Flops Per Watt (Källa: Google)
Denna prestandanivå är bara användbar om den kan skalas, och Ironwoods arkitektur är konstruerad för massiv, sammanhängande drift”>en enkel Iporonwood-drift.
9 216 individuella chips, vilket gör att de kan fungera som en enda, enhetlig superdator. Grunden för detta system är ett höghastighets Inter-Chip Interconnect (ICI)-tyg som ger upp till 9,6 terabit per sekund av bandbredd mellan chips, vilket skapar en tät 3D Torus-topologi.
Det här nätverket gör det möjligt för chipsen att få tillgång till en kolossal, delad pool på 1,77 Petabyte av High-Bandwidth Memory, vilket eliminerar stora dataflaskskala (AI) jobb.
För att ansluta dessa kluster av chips använder Google ett dynamiskt OCS-nätverk (Optical Circuit Switch). Det här omkonfigurerbara tyget är nyckeln till både skala och motståndskraft.
Som detaljerat beskrivs i företagets tekniska översikt kan OCS optiskt koppla förbi alla nya, fullständiga kretsar och endast koppla upp nya, felaktiga kretsar. enheter.
Google Ironwood TPU Architecture (Källa: Google)
För kunder som kör utbildningsjobb som kan pågå i flera veckor är denna dynamiska feltolerans en kritisk funktion som förhindrar kostsamma avbrott och maximerar den produktiva drifttiden för hela systemet.
Det är avgörande att denna avancerade hårdvara är djupt integrerad med en samdesignad mjukvarufilosofi-stack byggd på en systemoptimering. Kärnan är Googles Accelerated Linear Algebra (XLA) kompilator, som översätter högnivåkod från populära ramverk som JAX och PyTorch till mycket optimerade maskininstruktioner.
Kompilatorn är uttryckligen utformad för att rikta in sig på TPU:s specialiserade hårdvara, inklusive dess täta Matrix Multiply Units (MXUs) och Vector Processing Units (VPUs). Genom att automatiskt sammansmälta operationer till effektiva kärnor, ger XLA kraftfull”out-of-the-box”-prestanda.
För slutsatsen har företaget optimerat stacken ytterligare genom ena vLL-art-serving-motorn på Ironwood genom en ny, enhetlig backend, vilket gör dess enorma kraft mer tillgänglig för utvecklare som distribuerar modeller i produktionen.
Googles hårdvaru-push är en komponent i en mycket större, flerdelad infrastrukturstrategi.
I de senaste rapporterna har vi lyft fram några av Googles ambitiösa planer på projektets strategiska datacenter för månen i Australien, från ett geopolitiskt datacenter för”Jul”i Australien. Suncatcher, som syftar till att bygga TPU-drivna datacenter i rymden.
Initiativen lyfter fram de kolossala resurser som krävs för att ligga i framkanten av AI.
[inbäddat innehåll]
Axions expansion: Redefiniing General-Purpose Compute
för en kraftfull, modern applikation utöver den kraftfulla och effektiva AI-tillämpningen dagliga arbetsbelastningar.
Google åtgärdar detta med en utökning av sin anpassade Arm-baserade Axion CPU-portfölj. Företaget meddelade att deras nya virtuella N4A-maskiner nu är i förhandsvisning, tillsammans med den kommande förhandsvisningen av C4A metal, dess första Arm-baserade bar-metal-instanser.
De här processorerna är designade för att leverera överlägsen pris-prestanda och hanterar de allmänna uppgifterna som stöder AI-applikationer, inklusive dataförberedelse, containeriserade mikrotjänster och webbservering.Google Axion CPU (Källa: Google)
Tidig feedback från kunder visar på betydande vinster. Sergei Koren, Chief Infrastructure Architect på ZoomInfo, berömde de nya instanserna och sa:”I vår förhandsgranskning av de nya N4A-instanserna mätte vi en 60 % förbättring i pris-prestanda för dessa viktiga arbetsbelastningar jämfört med deras x86-baserade motsvarigheter.”
Liknande rapporterade en förbättring av 30 % av videoarbetets prestanda för kärnan. till x86-baserade virtuella datorer.
Google positionerar Axion som ett tydligt och mer effektivt alternativ till traditionella processorer.
Enligt Mark Lohmeyer, VP och GM för AI och datorinfrastruktur på Google Cloud,”De kommer att ha 50 % högre prestanda än jämförbara x86-generations %8-processorer och jämförbara x86-generations % bättre energieffektivitet. instanser.”
Strategic Adoptions and the AI Arms Race
Anthropics massiva engagemang fungerar som en kraftfull validering för Googles anpassade kisel. AI-labbet, utvecklare av Claude-familjen av modeller, planerar att få tillgång till upp till 1 miljon TPU:er, vilket signalerar starkt förtroende för plattformens kapacitet för både träning och slutledning.
James Bradbury, företagets Head of Compute, förklarade fördelen:”Ironwoods förbättringar i både slutledningsprestanda och skalbarhet för träning kommer att hjälpa oss att skala effektivt samtidigt som vi bibehåller den hastighet och tillförlitlighet som våra kunder förväntar sig.”
Ändå existerar denna stora affär i en komplex verklighet med flera moln. Även om partnerskapet är en betydande vinst för Google, klargör rapporter att Anthropic har en diversifierad infrastrukturstrategi, där Amazon Web Services förblir dess primära molnleverantör.
Det speglar en bredare branschtrend där stora AI-labb undviker beroende av en enda leverantör, en strategi som tidigare sågs när OpenAI började använda Google Cloud för att komplettera sin kärnstruktur för Microsoft Azure.. AI-kapprustning, Googles anpassade kiselinsatser är helt inriktade på att utmana Nvidias marknadsdominans. Häpnadsväckande investeringar krävs för att konkurrera.
För att möta den skyhöga efterfrågan höjde Google nyligen den höga delen av sin investeringsprognos för året till 93 miljarder USD från 85 miljarder USD.
Ett sådant enormt ekonomiskt engagemang visar att kontroll av den underliggande hårdvaran nu ses som en avgörande konkurrensfördel. Axion-processorer för allmänna ändamål, Google presenterar en omfattande, gemensamt designad lösning.
Företaget satsar på att erbjuda kunderna en optimerad och kostnadseffektiv hårdvarustack, från chipet till datacentret, kommer att vara nyckeln till att vinna nästa fas av AI-revolutionen.