Google DeepMind avslørte sin nye AI-værmodell, WeatherNext 2, 17. november, og markerte et betydelig sprang i globale prognoser.
Systemet bruker en ny metode kalt Functional Generative Network (FGN) for å lage spådommer åtte ganger raskere og med større detaljer enn forgjengeren. Gjennombruddet forbedrer prognosene for komplekse hendelser som orkaner ved å generere hundrevis av mulige scenarier på minutter.
Google gir nå tilgang til modellens data gjennom sine skyplattformer. Dette grepet tar sikte på å akselerere forskning og forbedre offentlig sikkerhet ettersom AI blir mer sentralt i værvitenskapen, selv når offentlige datakilder står overfor usikkerhet.
En rask, mer nøyaktig arkitektur.jpg>En ny arkitektur. Prognoser
I hjertet av WeatherNext 2 er en ny arkitektur beskrevet i nyere forskning. I motsetning til forgjengeren GenCast, som brukte en diffusjonsbasert tilnærming, er WeatherNext 2 bygget på et såkalt Functional Generative Network.
Denne FGN-metoden injiserer nøye strukturert «støy» direkte inn i modellens parametere. Det lar systemet generere et stort ensemble av fysisk realistiske og sammenhengende værscenarier fra ett enkelt utgangspunkt.
Hver prediksjon tar mindre enn ett minutt på en enkelt TPU, en oppgave som vil kreve timer på en tradisjonell superdatamaskin.
Denne effektiviteten kommer ikke på bekostning av nøyaktighet. I følge Googles evalueringer, overgår WeatherNext 2 den forrige toppmoderne modellen, GenCast, på 99,9 % av alle variabler og prognoser for ledetider. Den nye modellen demonstrerer en gjennomsnittlig forbedring på 6,5 % i nøyaktighet målt med Continuous Ranking Probability Score (CRPS), en nøkkelmåling for sannsynlighetsprognoser.
Den tilbyr også høyere tidsoppløsning, med spådommer tilgjengelig med 6-timers intervaller og eksperimentelle muligheter for 1-times tidstrinn, for å gi detaljerte beslutningsdata som detaljerte beslutningstaker. href=”https://developers.google.com/weathernext/guides/models”target=”_blank”>offisiell modelldokumentasjon.
FGN-tilnærmingen er spesielt effektiv til å modellere både individuelle værelementer (“marginaler”) og deres komplekse interaksjoner (“ledd”). Ved å trene kun på individuelle datapunkter som temperatur eller vindhastighet, lærer modellen den underliggende fysikken for å forutsi storskalasystemer som atmosfæriske elver og sykloner.
Men Google bemerker at modellen har noen begrensninger, inkludert potensialet for mindre visuelle «bikekake»-artefakter i prognoser for visse variabler, som skissert i dens oversikt over brukstilfeller og begrensninger.
[innebygd innhold]
Fra forskningslaboratorium til offentlige plattformer og partnerbyråer
Google har avslørt sine tidligere gjennombrudd, og har avslørt sin virkelige AI-applikasjon til å flytte AI-applikasjonen sin. WeatherNext 2s prognosedata er nå tilgjengelig for forskere og utviklere gjennom Googles Earth Engine-og BigQuery-plattformer.
I tillegg lar et nytt program for tidlig tilgang på Google Clouds Vertex AI organisasjoner generere sine egne tilpassede prognoser ved hjelp av modellen.
Dette initiativet fortsetter en bred teknologisk trend innen stadig voksende utvikling. Selskaper som Microsoft, Nvidia og IBM har alle utviklet sine egne avanserte prognosesystemer, slik som Microsofts Aardvark Weather og NASA/IBM Prithvi WxC-modellen.
Som Kirstine Dale, Chief AI Officer ved Met Office, bemerket om den generelle trenden,”Vi ser potensialet for en reell trinnvis endring som vi begynte å bruke… datamaskiner.”
Googles strategi inkluderer også direkte samarbeid med sentrale offentlige etater. I et landemerkepartnerskap har U.S. National Hurricane Center (NHC) integrert en eksperimentell Google AI-modell i sin operative arbeidsflyt for orkansesongen 2025.
Dette samarbeidet, det første for det føderale byrået, vil sette AI-generert veiledning foran eksperter på menneskelige spådommere, og blande maskinelle hastigheter med menneskelig ekspertise.
The Looming Crisis: AI’s Reliance on Endangered Public Data
Mens de teknologiske fremskritt akselererer, står hele feltet overfor en grunnleggende trussel. AI-værmodeller som WeatherNext 2 er trent på flere tiår med historiske data, mye av det fra offentlige arkiver administrert av byråer som US National Oceanic and Atmospheric Administration (NOAA).
Disse viktige datakildene er nå i fare på grunn av foreslåtte budsjettkutt og alvorlig bemanningsmangel på NOAA, så
. Weather Service (NWS) utstedte et åpent brev som advarte om de potensielle konsekvensene.
“Vårt verste mareritt er at værmeldingskontorene vil være så underbemannet at det vil være unødvendig tap av liv,”skrev de. Siden tidlig i 2025 har NWS mistet over 550 ansatte, noe som har etterlatt noen prognosekontorer kritisk underbemannet akkurat når orkansesongen begynner.
En tidligere NHC-sjef beskrev innsatsen for å fylle ledige stillinger som bare å”stokke fluktstolene på Titanic,”og la til:”Du fyller et hull et sted, og du har ikke skapt data et eller annet sted, og du har ikke gått.”ubemerket av det vitenskapelige miljøet. Cambridge University-professor Richard Turner uttrykte sin bekymring, og uttalte:”Samfunnet har ikke – overraskende, etter mitt syn – våknet opp til denne faren ennå… Jeg tror kuttene er veldig farlige i en tid da klimaet virkelig endrer seg.”
Selv om nylige kongresshandlinger har presset tilbake mot de mest alvorlige budsjettkuttene, og gitt en viss lettelse for disse offentlige datastabilitetene, forblir disse langsiktige datastabilitetene.
Paradokset er sterkt: ettersom privat innovasjon innen vær-AI når nye høyder, avhenger suksessen av en offentlig datainfrastruktur som kjemper for dens overlevelse.
Det nye partnerskapet mellom Google og NHC fremhever det enorme potensialet til AI for å redde liv, men det viser også det presserende behovet for å beskytte åpne data som gjør slike fremskritt mulig i været, en sentral revolusjon.