Den nettopp utgitte AI Safety Index 2024 fra Future of Life Institute (FLI) har avslørt alvorlige mangler i AI-sikkerhetspraksis i seks ledende selskaper, inkludert Meta, OpenAI og Google DeepMind.

AI Safety Index rangerte Anthropic høyest med en”C”-karakter, men resten av selskapene – Meta, OpenAI, Google DeepMind, xAI og Zhipu AI – fikk dystre resultater, med Meta som svikter direkte

Funnene understreker det presserende behovet for sterkere styring og risikostyring i en bransje som driver med å utvikle stadig mer avanserte AI-systemer.

FLI-president Max Tegmark beskrev situasjonen rett ut til IEEE Spectrum: «Jeg føler at lederne i disse selskapene er fanget i et kappløp mot bunnen som ingen av dem kan komme seg ut av, uansett hvor godhjertede de er.”

The FLI evaluerte selskapene på seks kategorier, inkludert risikovurdering, styring og eksistensielle sikkerhetsstrategier. Til tross for industriens fokus på å utvikle kraftige systemer, fremhever rapporten et betydelig gap mellom teknologiske evner og effektive sikkerhetstiltak.

Antropisk leder flokken med en middelmådig”C”

Anthropic fremsto som den beste ytelsen i indeksen, selv om”C”-karakteren indikerer at det fortsatt er betydelig rom for forbedring. Selskapets”policy for ansvarlig skalering”skilte seg ut som et positivt eksempel.

Denne policyen krever at alle modeller gjennomgår strenge risikovurderinger for å identifisere og redusere katastrofale skader før utplassering. I tillegg har Anthropic konsekvent oppnådd sterke resultater på etablerte sikkerhetsbenchmarks, og gir den en”B-“i kategorien for å adressere aktuelle skader, den høyeste poengsummen på det området.

Til tross for sin relativt sterke resultater, ble Anthropic også kritisert for mangelen på en omfattende strategi for å håndtere eksistensielle risikoer – et problem som ble delt av alle selskapene som ble evaluert.

Kilde: FutureOfLife-initiativet

Anmelderne bemerket at selv om Anthropic, OpenAI og Google DeepMind har formulert innledende tilnærminger til eksistensiell sikkerhet, forblir denne innsatsen foreløpig og utilstrekkelig til å møte omfanget av utfordringen.

Meta scorer en”F”ettersom sikkerhetshensyn monteres

I motsatt ende av spekteret fikk Meta en feilkarakter for sin utilstrekkelige styrings-og sikkerhetspraksis. Rapporten identifiserte store hull i Metas gjennomsiktighetsrammeverk og eksistensielle sikkerhetsstrategier knyttet til utviklingen av kunstig intelligens.

Den dårlige visningen av Meta fremhever et bredere problem innen bransjen til tross for betydelig investeringer i AI-forskning, har mange selskaper ikke prioritert styringsstrukturene som er nødvendige for å sikre at teknologiene deres er trygge og i samsvar med samfunnsverdier. Denne mangelen på prioritering forsterkes av et konkurransemiljø som belønner rask utplassering fremfor forsiktighet.

Åpenhet: Et vedvarende svakt punkt

Åpenhet var et annet kritisk område der selskapene presterte dårligere. Bare xAI og Zhipu AI fullførte de skreddersydde sikkerhetsspørreskjemaene sendt av FLI, og ga dem litt høyere score i denne kategorien.

De andre selskapene klarte ikke å gi detaljert innsikt i deres interne sikkerhetspraksis, og understreket ytterligere opasiteten som ofte omgir AI-utvikling.

Som svar på rapporten utstedte Google DeepMind en uttalelse som forsvarer sin tilnærming, og sier:”Mens indeksen inneholder noe av Google DeepMinds AI sikkerhetsinnsats, og reflekterer bransjevedtatte benchmarks, strekker vår omfattende tilnærming til AI-sikkerhet utover det som er fanget.”

Men anmelderne forble ikke overbevist, og påpekte at uten større åpenhet er det umulig å vurdere om disse påstander oversettes til meningsfull handling.

Max Tegmark understreket viktigheten av eksternt press, bemerker,”Hvis et selskap ikke føler eksternt press for å oppfylle sikkerhetsstandarder, vil andre personer i selskapet bare se deg som en plage, noen som prøver å bremse ting og kaste grus i maskineriet. Men hvis disse sikkerhetsforskerne plutselig er ansvarlige for å forbedre selskapets omdømme, vil de få ressurser, respekt og innflytelse.”

Eksistensielle risikostrategier: en vanlig fiasko

Et av de mest bekymringsfulle funnene i indeksen var selskapenes universelle unnlatelse av å utvikle robuste eksistensielle risikostrategier, mens de fleste selskapene offentlig streber etter å skape kunstig general intelligens (AGI) – AI-systemer som er i stand til kognisjon på menneskelig nivå – ingen har utarbeidet omfattende planer for å sikre at disse systemene forblir på linje med menneskelige verdier.

Tegmark fremhevet alvoret i dette problemet, som sier:”Sannheten er at ingen vet hvordan man kontrollerer en ny art som er mye smartere enn oss.”

Stuart Russell gjentok denne følelsen, advarselen,”Når disse systemene blir større, er det mulig at den nåværende teknologiretningen aldri kan støtte de nødvendige sikkerhetsgarantiene.”

Mangelen på konkrete eksistensielle sikkerhetsstrategier var spesielt urovekkende gitt de økende mulighetene til AI-systemer. Anmeldere understreket at uten klare rammer kan risikoen som AGI utgjør, eskalere raskt.

Historien til AI Safety Index

AI Safety Index bygger på tidligere FLI-initiativer, inkludert den mye omtalte 2023-pausen brev,” som ba om en midlertidig stans i utviklingen av avanserte AI-systemer for å etablere robuste sikkerhetsprotokoller.

Brevet, signert av over 33 700 personer, inkludert høyprofilerte navn som Elon Musk og Steve Wozniak, ble til slutt ignorert av selskapene den var målrettet mot. praksis.

Ifølge Stuart Russell, en professor i informatikk ved UC Berkeley og en av rapportens anmeldere,”Funnene tyder på at selv om det er mye aktivitet hos AI-selskaper som går under overskriften”sikkerhet”, er det ennå ikke veldig effektivt. Ingen av den nåværende aktiviteten gir noen form for kvantitativ garanti for sikkerhet.”

Indeksen har som mål å fremme åpenhet, styrke interne sikkerhetsteam og oppmuntre eksternt tilsyn for å forhindre potensielt katastrofale risikoer.

A Call for Regulatory Oversight

FLI-rapporten avsluttes med en oppfordring til sterkere regulatoriske rammer for å løse hullene identifisert i indeksen. Tegmark foreslo opprettelsen av et tilsynsorgan som ligner på U.S. Food and Drug Administration (FDA) for å evaluere AI-systemer før de distribueres

Et slikt byrå kan håndheve obligatoriske sikkerhetsstandarder, og flytte industriens konkurransepress fra. prioriterer hastighet fremfor å prioritere sikkerhet.

Turing Award-vinneren Yoshua Bengio, en annen paneldeltaker på indeksen, støttet dette forslaget, som sier:”Evalueringer som dette fremhever sikkerhetspraksis og oppmuntrer selskaper til å ta i bruk mer ansvarlige tilnærminger.”Bengio hevdet at uavhengig tilsyn er avgjørende for å sikre at selskaper ikke skjærer hjørner i jakten på markedsdominans.

Hvordan indeksen ble satt sammen

2024 AI Safety Index ble utviklet gjennom en grundig evalueringsprosess ledet av et panel av syv uavhengige eksperter, inkludert Bengio, Russell og Encode Justice-grunnlegger Sneha Revanur.

Panelet vurderte selskapene på tvers av 42 indikatorer som spenner over seks kategorier: risikovurdering, nåværende skader, åpenhet, styring, eksistensiell sikkerhet og kommunikasjon.

Metodikken kombinerte offentlige data, som f.eks. policydokumenter, forskningsartikler og industrirapporter, med svar på et tilpasset spørreskjema. Den begrensede deltakelsen fra selskaper i denne prosessen understreket imidlertid utfordringene med å oppnå åpenhet i bransjen.

David Krueger, en paneldeltaker og AI-forsker, sa: «Det er grusomt at selve selskapene hvis ledere forutsier AI, kan ende menneskeheten har ingen strategi for å avverge en slik skjebne.”

Implikasjoner for fremtiden til AI Styring

2024 AI Safety Index tegner et nøkternt bilde av den nåværende tilstanden til AI-styring. av avanserte AI-teknologier

Rapporten krever akutte tiltak for å etablere sterkere sikkerhetsprotokoller og regulatorisk tilsyn for å sikre at AI-utvikling. stemmer overens med samfunnsinteresser.

Som Tegmark bemerket,”Uten eksternt press og robuste standarder, er løpet å utvikle AI kan føre til katastrofale konsekvenser.”

Categories: IT Info