OpenAI-medgründer Ilya Sutskever holdt i går en tankevekkende presentasjon på NeurIPS 2024, og ga en visjon om kunstig intelligens som blander bemerkelsesverdig løfte med dyp usikkerhet.

NeurIPS 2024, eller den trettiåttende årlige konferansen om nevrale informasjonsbehandlingssystemer, er en av de mest fremtredende og innflytelsesrike konferansene innen kunstig intelligens og maskinlæring. Arrangementet finner sted fra 10. til 15. desember 2024 på Vancouver Convention Center i Vancouver, Canada.

Under sin presentasjon beskrev Sutskever den eventuelle fremveksten av superintelligent AI – systemer som er i stand til resonnement, uforutsigbarhet, og selvbevissthet – og de etiske dilemmaene disse fremskrittene kan utgjøre.

Nå ledende Safe Superintelligence Inc. ( SSI) etter sin OpenAI-avgang i mai, tror Sutskever at det å skalere opp modeller kanskje ikke lenger er løsningen for å fremme kunstig intelligens.

I en tale til et publikum av forskere og industriledere understreket Sutskever at superintelligent AI ville representere en grunnleggende avvik fra dagens systemer. Mens nåværende AI utmerker seg i oppgaver som krever mønstergjenkjenning og intuisjon, kommer den til kort når det kommer til resonnement – ​​en kognitiv prosess som krever forståelse og syntetisering av kompleks informasjon.

«Jo mer et system resonnerer, jo mer uforutsigbart blir det,» forklarte Sutskever, og understreket en nøkkelutfordring i AIs fremtidige utvikling.

Han forutså at resonnement, uforutsigbarhet og til og med selvet-bevissthet vil definere neste generasjon AI-systemer I motsetning til dagens modeller, som han beskrev som”veldig lite agent”, vil superintelligente systemer være genuint. autonome.

“Til slutt – før eller siden – kommer disse systemene faktisk til å være agenter på virkelige måter,” sa han, og antydet at dette skiftet kan fundamentalt omforme hvordan AI samhandler med verden.

Veien til superintelligens: Revisiting the Evolution of AI

For å forstå spranget mot superintelligens, Sutskever besøkte de store milepælene innen AI-utvikling. Han begynte med å reflektere over de tidlige suksessene til Long Short-Term Memory (LSTM)-nettverk. , en stift av maskinlæring på 2000-tallet

«LSTM-er var i hovedsak et ResNet rotert 90°,» spøkte han og refererte til den lagdelte utformingen av disse. nevrale nettverk. Selv om LSTM-er var effektive til å beholde sekvensiell informasjon, slet med skalerbarhet og effektivitet, noe som begrenset deres anvendelighet til større datasett og mer komplekse oppgaver.

Gjennombruddet kom med Transformers, som erstattet LSTM-er som den foretrukne arkitekturen for mange avanserte AI systemer. I motsetning til sine forgjengere, kunne Transformers behandle enorme mengder data samtidig, noe som muliggjør betydelig fremgang på områder som naturlig språkbehandling og bildegjenkjenning.

Disse innovasjonene banet vei for modeller som OpenAIs GPT-serie, som utnytter Transformers til å generere menneskelignende tekst og utføre sofistikerte oppgaver.

Sutskever tilskrev mye av denne fremgangen til bruken av skaleringslover – prinsippet om at større modeller trent på større datasett gir bedre ytelse.”Hvis du har et veldig stort datasett, og du trener et veldig stort nevralt nettverk, er suksess garantert,”sa han, og fremhevet drivkraften bak OpenAIs arbeid.

Likevel advarte han om at skalering har sine grenser:”Vi har nådd toppdata Det er bare ett internett.”

Tidligere talsmann for å utvide modellstørrelser for å oppnå bedre resultater, har Sutskevers synspunkter endret seg. industriens erkjennelse av at skalering kommer med avtagende avkastning.”2010-tallet var skaleringens tidsalder, nå er vi tilbake i undrings-og oppdagelsens tidsalder igjen. Alle ser etter den neste tingen,”sa Sutskever nylig, og understreket at”Å skalere det riktige betyr mer nå enn noen gang.”

Denne flaskehalsen har fått forskere til å utforske alternative strategier, inkludert syntetiske data. Syntetiske data, generert for å etterligne informasjon fra den virkelige verden, tilbyr en måte å trene opp AI-systemer uten å stole på stadig knappere datasett av høy kvalitet.

Men Sutskever erkjente at syntetiske data kommer med sine egne utfordringer, og bemerket:”Det er en stor utfordring å finne ut hva syntetiske data betyr og hvordan de skal brukes.”

Building Reasoning Systems: The Technical Hurdles Ahead

Et av de sentrale temaene i Sutskevers foredrag var utfordringen med å bygge AI systemer som er i stand til å resonnere, som OpenAis nye o1-modeller, som GPT-4o er avhengige av statistiske korrelasjoner og mønstergjenkjenning for å løse problemer, men resonnement krever en mer nyansert forståelse av kontekst, kausalitet og logikk.

“Resonneringssystemer er uforutsigbare fordi de går utover intuisjon,”forklarte Sutskever. Denne uforutsigbarheten, selv om den er et kjennetegn på intelligens, gjør også slike systemer vanskelige å kontrollere og teste.

De beregningsmessige kravene til resonnement gir enda et lag av kompleksitet. I motsetning til enklere oppgaver, som kan parallelliseres og optimaliseres for hastighet, involverer resonnement prosesser som krever integrasjon på tvers av flere lag med informasjon.

Disse prosessene bruker betydelig mer ressurser, noe som gjør skalerbarhet til et vedvarende problem. Sutskever understreket at det å løse disse utfordringene vil være avgjørende for å realisere potensialet til superintelligent AI.

Til tross for disse hindringene, forble han optimistisk med tanke på feltets bane.”Vi gjør all denne fremgangen. Det er forbløffende,”sa han, og pekte på den raske utviklingen av AI-evner det siste tiåret. Hans kommentarer reflekterte både spenningen og forsiktigheten som kjennetegner utviklingen av resonnementsystemer.

Etiske implikasjoner av Superintelligent AI: Rights, Coexistence, and Accountability

Da Sutskever gikk over fra tekniske fremskritt til bredere implikasjoner fordypet han seg i et av de mest omstridte temaene innen kunstig intelligens: den etiske behandlingen av autonome systemer. Han spekulerte i at etter hvert som superintelligent AI modnes, kan det kreve anerkjennelse og sameksistens sammen med menneskeheten.

“Det er ikke. et dårlig resultat hvis AI-er ønsker å sameksistere med oss ​​og ha rettigheter,”sa han og presenterte en provoserende visjon om AI som mer enn bare et verktøy eller en teknologi.

Sutskevers kommentarer stemmer overens med nye debatter rundt AI-styring og etikk, der forskere i økende grad vurderer rettighetene og ansvaret til intelligente systemer. Selv om ideen om å gi rettigheter til AI kan virke spekulativ, reiser den praktiske spørsmål om ansvarlighet og byrå.

Hvis et system kan resonnere, lære og tilpasse seg uavhengig, hvem er ansvarlig for dets handlinger? Disse spørsmålene, foreslo Sutskever, fremhever behovet for et nytt etisk rammeverk som er skreddersydd for egenskapene til superintelligent AI.

Under spørsmål og svar-økten spurte et publikum hvordan menneskeheten kan motivere AI til å handle på måter som er i tråd med menneskelige verdier. Sutskevers svar reflekterte både kompleksiteten til problemet og den iboende usikkerheten til AIs fremtid.

“Insentivstrukturene vi lager vil forme hvordan disse systemene utvikler seg,”sa han, men la raskt til:”Jeg føler meg ikke trygg på å svare på spørsmål som dette fordi ting er så utrolig uforutsigbare.”

Utfordringen med hallusinasjoner og upålitelige utdata

En av de praktiske hindringene i AI-utvikling er fenomenet hallusinasjoner – utdata som er unøyaktige, ulogiske eller fullstendig oppdiktede. Mens nåværende AI-systemer er utsatt for slike feil, hevdet Sutskever at resonneringsevner kan redusere forekomsten betydelig.

«Det er svært sannsynlig at fremtidige modeller vil autokorrigere hallusinasjonene sine gjennom resonnement,» sa han, og sammenlignet denne prosessen med autokorrigeringsfunksjonen i moderne tekstbehandlere.

Denne funksjonen ville tillate AI-systemer å gjenkjenne inkonsekvenser i svarene deres og avgrense resultatene deres i sanntid. For eksempel kan en resonnementaktivert AI brukt i juridisk forskning identifisere avvik i rettspraksissiteringer eller logikk. hull i argumenter, noe som gjør utgangene langt mer pålitelige

Men Sutskever erkjente de tekniske vanskelighetene ved å bygge slike systemer”Jeg sier forresten ikke hvordan. Jeg sier at det vil skje,”bemerket han, og understreket usikkerheten rundt denne utviklingen.

Regulating Superintelligent AI: The Global Innsats

Sutskevers refleksjoner om den uforutsigbare naturen til superintelligent AI understreket hvor presserende regelverk er. Over hele verden sliter beslutningstakere med hvordan de skal styre AI-utvikling på måter som balanserer innovasjon med sikkerhet.

EUs AI-lov har for eksempel som mål å etablere klare retningslinjer for bruk av AI, med fokus på høyrisikoapplikasjoner som ansiktsgjenkjenning og autonom beslutningstaking.

I USA utforsker lovgivere lignende tiltak, spesielt i kritiske sektorer som helsevesen og finans.”Uten klare rammer kan det raske utviklingstakten føre til uforutsette konsekvenser,”advarte Sutskever, og understreket viktigheten av proaktivt styresett.

Internasjonale organisasjoner, inkludert OECD, har også bidratt til det regulatoriske landskapet ved å utstede prinsipper for pålitelig AI Disse initiativene tar sikte på å sikre rettferdighet, ansvarlighet og åpenhet i AI-systemer, noe som reflekterer en global konsensus om behovet for. tilsyn

Allikevel, som Sutskever påpekte, gir utfordringen med å regulere systemer som er iboende uforutsigbare et lag av kompleksitet til disse anstrengelsene.

“Folk føler at’agenter’er fremtid,”sa han og refererte til den økende autonomien til avanserte AI-systemer. Å sikre at disse AI-agentene, som de fra Googles nye Agentspace-plattform, opptrer på måter som er trygge og på linje med samfunnsverdier, krever ikke bare teknisk innovasjon, men også robuste juridiske og etiske rammer.

Forberedelse for den samfunnsmessige virkningen av autonome systemer

Integrasjonen av superintelligent AI i samfunnet vil ha vidtrekkende implikasjoner, omforme bransjer, styresett og til og med menneskelig identitet. Autonome systemer som er i stand til å resonnere og ta beslutninger kan revolusjonere felt som helsevesen, transport og miljøvitenskap, og gi enestående fordeler.

For eksempel kan AI-drevet medisinsk diagnostikk analysere pasientdata med uovertruffen nøyaktighet, og muliggjøre tidligere oppdagelse av sykdommer og forbedre resultater. På samme måte kan autonome kjøretøyer utstyrt med resonneringsevner tilpasse seg komplekse trafikkscenarier, noe som øker sikkerheten og effektiviteten.

I miljøvitenskap kan AI behandle massive datasett for å modellere klimaendringer med større presisjon, og gi praktisk innsikt for globale beslutningstakere.

Men de samfunnsmessige fordelene ved superintelligent AI kommer med risiko. Etter hvert som disse systemene får autonomi, vil de utfordre eksisterende normer for ansvarlighet og kontroll. Hvem er ansvarlig når et autonomt kjøretøy forårsaker en ulykke, eller når et resonnement-aktivert medisinsk system stiller en feil diagnose?

Sutskever understreket at å ta opp disse spørsmålene vil kreve samarbeid på tvers av disipliner. «Vi må forholde oss til AI-systemer som er utrolig uforutsigbare,» advarte han, og understreket viktigheten av årvåkenhet når disse teknologiene utvikler seg.

De filosofiske implikasjonene: intelligens, autonomi og menneskehetens rolle

Fremveksten av superintelligent AI stiller dype spørsmål om menneskelig identitet og naturen til Ettersom disse systemene overgår menneskelige evner i resonnement, tilpasningsevne og kreativitet, kan de utfordre langvarige antakelser om hva som skiller menneskeheten.

Sutskever foreslo at selvbevissthet, ofte ansett som et kjennetegn på bevissthet, kan dukke opp naturlig i avanserte AI-systemer”Når man resonnerer, blir selvbevissthet en del av et systems verdensmodell,”sa han. antyder at slike systemer ville utvikle en forståelse av seg selv som enheter innenfor et bredere miljø.

Dette skiftet reiser eksistensielle spørsmål. Hva betyr det for mennesker å sameksistere med maskiner som ikke bare er intelligente, men også autonome? Etter hvert som AI-systemer tar på seg stadig mer komplekse roller i samfunnet, kan de redefinere vår forståelse av intelligens og byrå.

Historisk sett har mennesker vært målestokken for kognitiv fortreffelighet, men bruken av resonneringsmaskiner kan føre til en bredere, mer inkluderende definisjon av intelligens.

Sutskever erkjente at disse filosofiske spørsmålene strekker seg lenger enn tekniske hensyn. «Det er definitivt også umulig å forutsi fremtiden. Virkelig, alle slags ting er mulig,» bemerket han, og understreket usikkerheten rundt AIs langsiktige innvirkning.

Hans kommentarer gjenspeiler en økende bevissthet om at utviklingen av superintelligent AI ikke bare er en teknologisk bestrebelse, men også en dyp kulturell og filosofisk utfordring.

Reimagining menneskelige roller i en AI-drevet Verden

Integrasjonen av superintelligent AI vil uunngåelig omforme samfunnsstrukturer, fra utdanning og sysselsetting til styring og kreativitet Når disse systemene tar på seg roller som tradisjonelt er reservert for mennesker, vil de tvinge oss til å revurdere hva det betyr å bidra meningsfullt til samfunnet.

For eksempel, i kreative bransjer, genererer AI-systemer allerede kunst, musikk og litteratur, mens disse resultatene ofte etterligner menneskelig kreativitet, superintelligent AI kunne flytte grensene for hva som er mulig, og skape helt nye uttrykksformer

Tilsvarende kan AI-drevne veiledere tilpasse læringsopplevelser, skreddersy innhold til individuelle behov på måter som. Det kan ikke menneskelige lærere.

Allikevel vekker disse fremskrittene også bekymringer om forflytning og ulikhet. Hvis superintelligent AI kan utkonkurrere mennesker i et bredt spekter av oppgaver, hvilke roller vil forbli unikt menneskelige?

Sutskever foreslo at menneskehetens tilpasningsevne vil bli testet i denne nye æraen, men han avsto fra å gi enkle svar. I stedet oppmuntret han til refleksjon og dialog, og sa:”Når disse systemene utvikler seg, må vi revurdere alt vi vet om arbeid, kreativitet og intelligens.”

Større implikasjoner for etikk og styring

Når AI-systemer blir mer autonome, vil de utfordre eksisterende normer for ansvarlighet og styring Sutskever fremhevet viktigheten av å skape robuste rammeverk for å veilede utviklingen og distribusjonen av superintelligente systemer, men erkjente også vanskelighetene med å regulere systemer som er iboende uforutsigbare

“Uforutsigbarheten til resonnementsystemer gjør det vanskelig å lage definitive regler,”sa han , og oppfordrer forskere og beslutningstakere til å samarbeide om fleksible, adaptive tilnærminger.

En potensiell løsning ligger i å tilpasse AI-atferd med menneskelige verdier gjennom insentivstrukturer. Ved å nøye utforme målene og parameterne til autonome systemer, kan utviklere sikre at AI fungerer på måter som gagner samfunnet. Sutskever innrømmet imidlertid at denne oppgaven er beheftet med kompleksitet.

“Jeg føler meg ikke trygg på å gi definitive svar fordi ting er så utrolig uforutsigbare,”sa han under spørsmål og svar-økten, og gjenspeiler utfordringene med å balansere innovasjon med etiske hensyn.

En ny æra for menneskeheten og AI

Ankomsten av superintelligent AI er ikke bare en teknologisk milepæl, den markerer begynnelsen på en ny æra for menneskeheten Når maskiner inntar roller som en gang ble ansett som unikt menneskelige, vil de tvinge oss til å konfrontere vår egen identitet og formål

Sutskevers presentasjon på NeurIPS 2024 fungerte både som en feiring av. AIs prestasjoner og en oppfordring til handling for forskere, beslutningstakere og publikum til å engasjere seg i de etiske og samfunnsmessige spørsmålene som ligger foran oss.

“Vi gjør all denne fremgangen Det er forbløffende,”sa han og reflekterte over de raske fremskritt det siste tiåret. Likevel var hans avskjedsord en påminnelse om usikkerheten som følger med en slik transformativ endring:”Alle slags ting er mulig.”

Categories: IT Info