Google eskalerer sitt bud på AI-maskinvaredominans. Torsdag kunngjorde selskapet den kraftigste tilpassede brikken, Ironwood TPU, nå på vei inn i generell tilgjengelighet for sine nettskykunder, for å håndtere denne nye etterspørselen. prosessor takler sanntidsarbeidet bak chatbots. For å støtte disse AI-systemene lanserte Google også nye, kostnadseffektive Axion-prosessorer for daglige dataoppgaver.

Dette strategiske grepet retter seg mot nøkkelkunder som Anthropic og skjerper Googles utfordring til markedsleder Nvidia i den kritiske kampen om AI-infrastruktur.

Ironwood: A Custom Silicon Powerhouse for the Age of Inference

For å drive neste generasjon AI-modeller satser Google på en vertikalt integrert strategi.

Kjernen i denne innsatsen er den syvende generasjons Tensor Processing Unit, Ironwood, som først ble avslørt i april,

er tilgjengelig i april,

. spesialbygd for det Google kaller «inferensens tidsalder», skiftet fra å trene massive modeller til å distribuere dem for nyttige, responsive interaksjoner i stor skala.

Ironwood leverer et betydelig sprang i ytelse, designet for å håndtere de komplekse kravene til både opplæring og servering av dagens største AI-modeller.

Ifølge Google tilbyr den nye arkitekturen en 10 ganger toppytelsesforbedring sammenlignet med TPU v5p-forgjengeren og mer enn fire ganger bedre ytelse per brikkegenerasjon sammenlignet med den største I

oppnå svimlende 42,5 exaFLOPS FP8-datakraft, en metrikk som er essensiell for aritmetikken med lav presisjon som dominerer moderne AI-arbeidsbelastninger.

Denne råkraften er kombinert med fokus på effektivitet; Ironwood kan skryte av dobbelt ytelse per watt av Trillium, noe som gjør den til Googles mest strømeffektive brikke til dags dato.

Google TPU Peak Flops Per Watt (Kilde: Google)

Dette ytelsesnivået er bare nyttig hvis det kan skaleres, og Ironwoods arkitektur er konstruert for massiv, sammenhengende operasjon «>en enkelt Iporonwood-operasjon.

9 216 individuelle brikker, slik at de kan fungere som en enkelt, samlet superdatamaskin. Grunnlaget for dette systemet er et høyhastighets Inter-Chip Interconnect (ICI)-stoff som gir opptil 9,6 terabit per sekund med båndbredde mellom brikker, og skaper en tett 3D Torus-topologi.

Dette nettverket lar brikkene få tilgang til en kolossal, delt pool på 1,77 Petabyte med høybåndsbredde, og eliminerer store dataflaske-AI-flaskestørrelser. jobber.

For å koble sammen disse klyngene med brikker, bruker Google et dynamisk OCS-nettverk (Optical Circuit Switch). Dette rekonfigurerbare stoffet er nøkkelen til både skala og motstandsdyktighet.

Som detaljert i selskapets tekniske oversikt, kan OCS optisk omgå ny, fullstendig feilende maskinvare og koble til nye, komplette kretser. enheter.

Google Ironwood TPU Architecture (Kilde: Google)

For kunder som kjører treningsjobber som kan vare i flere uker, er denne dynamiske feiltoleransen en kritisk funksjon som forhindrer kostbare avbrudd og maksimerer den produktive oppetiden til hele systemet.

Det er avgjørende at denne avanserte maskinvaren er dypt integrert med en co-designet programvarefilosofi-optimaliseringsstabel med systemoptimalisering. I kjernen er Googles Accelerated Linear Algebra (XLA) kompilator, som oversetter høynivåkode fra populære rammeverk som JAX og PyTorch til svært optimaliserte maskininstruksjoner.

Kompilatoren er eksplisitt designet for å målrette mot TPUs spesialiserte maskinvare, inkludert dens tette Matrix Multiply Units (MXUs) og Vector Processing Units (VPUs). Ved å automatisk smelte sammen operasjoner til effektive kjerner, gir XLA kraftig «out-of-the-box»-ytelse.

For slutningsvis har selskapet optimalisert stabelen ytterligere ved å ena vLL-art-serving-motoren. på Ironwood gjennom en ny, enhetlig backend, noe som gjør dens enorme kraft mer tilgjengelig for utviklere som distribuerer modeller i produksjon.

Googles maskinvare-push er en del av en mye større, flerstrenget infrastrukturstrategi.

I de siste rapportene har vi fremhevet noen av Googles ambisiøse planer på Project’s AI’s geopolitiske datasenter, fra et geopolitisk datasenter for «Månen» i Australia. Suncatcher, som tar sikte på å bygge TPU-drevne datasentre i verdensrommet.

Initiativene fremhever de kolossale ressursene som kreves for å holde seg i forkant av AI.

[innebygd innhold]

Axion’s Expansion: Redefinering General-Purpose Compute

Forutover spesialiserte, effektive applikasjoner for AI krever kraftige og effektive applikasjoner. daglige arbeidsbelastninger.

Google tar tak i dette med en utvidelse av sin tilpassede Arm-baserte Axion CPU-portefølje. Selskapet kunngjorde at de nye virtuelle N4A-maskinene nå er i forhåndsvisning, sammen med den kommende forhåndsvisningen av C4A metal, dets første armbaserte bare-metal-forekomster.

Disse prosessorene er designet for å levere overlegen prisytelse og håndterer de generelle oppgavene som støtter AI-applikasjoner, inkludert dataforberedelse, containeriserte mikrotjenester og nettservering. høyde=600″src=”data:image/svg+xml;nitro-empty-id=MTY3OToxMjk3-1;base64,PHN2ZyB2aWV3Qm94PSIwIDAgMTI4MCA4ODIiI HdpZHRoPSIxMjgwIiBoZWlnaHQ9Ijg4MiIgeG1sbnM9Imh0dHA6Ly93d3cudzMub3JnLzIwMDAvc3ZnIj48L3N2Zz4=”>Google Axion CPU (Kilde: Google)

Tidlige tilbakemeldinger fra kunder fremhever betydelige gevinster. Sergei Koren, Chief Infrastructure Architect hos ZoomInfo, berømmet de nye forekomstene og uttalte:”I vår forhåndsvisning av de nye N4A-forekomstene målte vi en 60 % forbedring i prisytelse for disse nøkkelarbeidsbelastningene sammenlignet med deres x86-baserte motparter.”

Tilsvarende rapporterte vi en forbedring på 30 % av videoarbeidet i kjernebelastningen. til x86-baserte VM-er.

Google posisjonerer Axion som et tydelig og mer effektivt alternativ til tradisjonelle prosessorer.

Ifølge Mark Lohmeyer, VP og GM for AI og datainfrastruktur hos Google Cloud,”De vil ha 50 % høyere ytelse enn sammenlignbare x86-generasjons %86-prosessorer enn sammenlignbare x80 %-prosessorer og bedre energieffektivitet. forekomster.”

Strategic adoptions and the AI Arms Race

Anthropics enorme engasjement fungerer som en kraftig validering for Googles tilpassede silisium. AI-laboratoriet, utvikler av Claude-familien av modeller, planlegger å få tilgang til opptil 1 million TPU-er, noe som signaliserer sterk tillit til plattformens evner for både trening og slutninger.

James Bradbury, selskapets Head of Compute, forklarte fordelen:”Ironwoods forbedringer i både slutningsytelse og opplæringsskalerbarhet vil hjelpe oss å skalere effektivt samtidig som vi opprettholder hastigheten og påliteligheten kundene våre forventer.”

Likevel eksisterer denne store avtalen innenfor en kompleks virkelighet med flere skyer. Selv om partnerskapet er en betydelig seier for Google, klargjør rapportene at Anthropic opprettholder en diversifisert infrastrukturstrategi, med Amazon Web Services som fortsatt den primære skyleverandøren.

Det reflekterer en bredere bransjetrend der store AI-laboratorier unngår avhengighet av én enkelt leverandør, en strategi som tidligere ble sett da OpenAI begynte å bruke Google Cloud for å supplere sin kjernestruktur i Microsoft Azure... AI-våpenkappløp, Googles tilpassede silisiuminnsats er rettet mot å utfordre Nvidias markedsdominans. Svimlende investeringer kreves for å konkurrere.

For å møte den skyhøye etterspørselen, økte Google nylig den høye delen av investeringsprognosen for året til 93 milliarder dollar fra 85 milliarder dollar.

Et slikt enormt økonomisk engasjement viser at kontroll av den underliggende maskinvaren nå blir sett på som en kritisk konkurransefordel.

Ved både spesialisering og effektivitet Axion CPUer for generelle formål, presenterer Google en omfattende, co-designet løsning.

Bedriften satser på at det å tilby kundene en optimalisert og kostnadseffektiv maskinvarestabel, fra brikken til datasenteret, vil være nøkkelen til å vinne neste fase av AI-revolusjonen.

Categories: IT Info