Google Research introducerade den 7 november 2025 ett nytt maskininlärningsparadigm kallat Nested Learning, designat för att lösa katastrofal glömska i AI-modeller.
Det här långvariga problemet gör att modeller raderar gammal kunskap när de lär sig ny information. Som ett proof-of-concept avslöjade teamet”Hope”, en självmodifierande arkitektur som ständigt kan lära sig och anpassa sig.
Den nya metoden behandlar en AI inte som ett enda program, utan som ett system av kapslade inlärningsprocesser som uppdateras i olika takt. Det här tillvägagångssättet efterliknar hur mänskligt minne fungerar, och syftar till att skapa mer dynamiska och effektiva AI-system som kan förbättras över tid utan konstant omskolning från grunden.
The Challenges of Catastroph’AI: Att glömma
En grundläggande svaghet hos många avancerade AI-modeller är deras oförmåga att lära sig sekventiellt. När ett neuralt nätverk tränas på ny data, glömmer det ofta plötsligt och drastiskt information som det tidigare bemästrat.
Det här fenomenet, känt som katastrofal glömning eller katastrofal störning, har varit ett stort hinder för att skapa AI som verkligen kan utvecklas med nya erfarenheter sedan det först identifierades av forskare i slutet av 198.
Kognitionsforskare kallar “stabilitets-plasticitetsdilemmat”. Ett effektivt inlärningssystem måste vara tillräckligt plastiskt för att skaffa ny kunskap, men också tillräckligt stabilt för att förhindra att den nya kunskapen skriver över befintliga minnen.
De flesta vanliga neurala nätverk, särskilt de som använder backpropagation, är mycket plastiska. Deras interna parametrar, eller vikter, justeras för att minimera fel vid nya uppgifter.
Men eftersom dessa nätverk använder distribuerade representationer, där kunskap lagras över ett brett spektrum av delade vikter. Att uppdatera dessa vikter för en ny uppgift stör oundvikligen mönstren som krävs för att återkalla gammal information.
Katastrofala glömmer inträffar när parametrar som inte borde röra sig, skakas om av en plötslig stor gradient när förvirringen stiger. Denna process lägger effektivt nya data ovanpå gamla, vilket leder till en drastisk och ofta fullständig förlust av den ursprungliga inlärningen.
Denna begränsning står i stark kontrast till mänsklig inlärning, som vanligtvis involverar gradvis glömning snarare än en plötslig utplåning av färdigheter eller kunskaper.
Googles tillkännagivande drar en kraftfull analogi till anterograd amnesi där en person inte kan bilda ett nytt minnesförlust. Nuvarande stora språkmodeller (LLM) är på liknande sätt begränsade; deras kunskap är begränsad till deras omfattande förträningsdata och den omedelbara informationen som matas in i deras sammanhangsfönster.
De kan inte integrera nya erfarenheter i sin kärnkunskapsbas. Som Google Research-bloggen säger:”När det kommer till ständigt lärande och självförbättring är den mänskliga hjärnan guldstandarden.”
Det här hindret är inte bara ett teoretiskt olägenhet; det är ett betydande praktiskt hinder som hindrar AI från att anpassa sig till dynamiska, verkliga miljöer där ny information är konstant.
Nested Learning: A New Paradigm Unifying Architecture and Optimization
För att ta itu med en av AI:s mest ihållande brister har Googles forskare föreslagit en helt ny struktur för lärande.
paradigm, kallat Nested Learning (NL), går bortom den traditionella synen på att stapla lager. Istället behandlar den en modell inte som en monolitisk enhet utan som en samling sammanlänkade optimeringsproblem på flera nivåer som körs samtidigt.
Det här tillvägagångssättet förenar i grunden en modells arkitektur och dess träningsalgoritm, och ser dem som olika”nivåer”av samma kärnprocess.
Varje gränssnitt har sin egen nivå inom det olika ramverket. informationsström som den lär sig av. Den uppdateras med sin egen frekvens. Den här designen är inspirerad av den multi-timescale bearbetning som observeras i den mänskliga hjärnan, där olika neurala kretsar fungerar med olika hastigheter, besläktad med hjärnvågor.
Som forskningsrapporten säger,”NL avslöjar att befintliga metoder för djupinlärning lär sig av data genom att komprimera sitt eget sammanhangsflöde, och förklara hur inlärning i sammanhanget möjliggör inlärning i ett större format,
“vissa delar av modellen kan snabbt anpassa sig till ny information medan andra konsoliderar kunskap långsammare.
En central insikt i Nested Learning är dess omformning av standard maskininlärningskomponenter som former av associativt minne. Uppsatsen visar att själva backpropagationsprocessen kan modelleras som ett associativt minne som lär sig att mappa en datapunkt till dess”lokala överraskningssignal”, vilket är felet eller gradienten.
Denna signal kvantifierar hur oväntad data är. Om man går längre, omtolkar ramverket vanliga optimerare, såsom Adam eller SGD med Momentum, som”Deep Optimizers.”
Dessa är i huvudsak minnesmoduler som lär sig att komprimera historien om tidigare gradienter för att informera om framtida uppdateringar, snarare än att bara vara statiska matematiska formler.
Medan konceptet med inlärning är djupgående i forskningen har en djupgående rot. Google-teamet själva citerar grundläggande arbete från tidigt 1990-tal, inklusive en artikel från 1992 av Jürgen Schmidhuber om neurala nätverk som teoretiskt skulle kunna modifiera sina egna inlärningsregler.
Nested Learning syftar till att tillhandahålla ett praktiskt och sammanhängande ramverk för att äntligen förverkliga dessa långvariga teoretiska ambitioner, och skapa en tydlig väg mot modeller som verkligen kan lära sig hur man lär sig.