Det hvite hus har annonsert at ytterligere åtte teknologiselskaper, inkludert Adobe, IBM, Nvidia, Cohere, Palantir, Salesforce, Scale AI og Stability AI har forpliktet seg til utviklingen av trygg, sikker og pålitelig kunstig intelligens (AI). Dette trekket bygger på Biden-Harris-administrasjonens innsats for å håndtere AI-risikoer og utnytte fordelene.

I juli, da initiativet ble lansert, gikk ledende amerikanske teknologiselskaper, inkludert OpenAI, Google, Microsoft, Amazon, Anthropic, Inflection AI og Meta, med på den frivillige beskyttelsen. Forpliktelsene er delt inn i tre kategorier: Sikkerhet, sikkerhet og tillit, og gjelder generative modeller som overgår gjeldende industrigrense.

Nøkkelforpliktelser skissert

Bedriftene har gått med på en rekke tiltak rettet mot å sikre ansvarlig utvikling og distribusjon av AI. Disse inkluderer:

Gjennomføring av både intern og ekstern sikkerhetstesting av AI-systemer før deres løslatelse. Dele informasjon på tvers av industrien og med myndigheter, sivilsamfunn og akademia om håndtering av AI-risiko. Investering i cybersikkerhet og innsidesikring av trusler for å beskytte proprietære og ikke-utgitte modellvekter. Tilrettelegge for tredjeparts oppdagelse og rapportering av sårbarheter i deres AI-systemer. Utvikle mekanismer for å sikre at brukere kan identifisere AI-generert innhold, for eksempel vannmerking. Offentlig rapportering av AI-systemenes evner, begrensninger og områder med hensiktsmessig og upassende bruk. Prioritering av forskning på samfunnsrisiko som AI utgjør, inkludert skadelig skjevhet, diskriminering og personvernhensyn. Utvikle og distribuere AI-systemer for å møte samfunnets store utfordringer.

Internasjonalt samarbeid og bredere initiativ

Biden-Harris-administrasjonen har også samarbeidet aktivt med internasjonale partnere, inkludert land som Australia, Brasil, Canada, Tyskland, India, Japan , og Storbritannia, blant andre. Disse samarbeidene tar sikte på å utvikle en enhetlig tilnærming til AI-sikkerhet og regulering. Administrasjonen er også arbeider på en Executive Order on AI for ytterligere å beskytte amerikanernes rettigheter og sikkerhet.

I tillegg til disse forpliktelsene har Biden-Harris-administrasjonen tatt flere skritt for å sikre AIs ansvarlige utvikling. Dette inkluderer lanserer”AI Cyber ​​Challenge,” innkaller til møter med topp AI-eksperter og konsernsjefer, publiserer en plan for en AI Bill of Rights, og investerer i National AI Research Institutes.

“Så lenge vi er gjennomtenkte og målte, kan vi sikre sikker, pålitelig og etisk distribusjon av AI-systemer,”nevnte NVIDIA-sjefforsker William Dally i et nylig vitnesbyrd fra Senatet. Han la vekt på balansen mellom AI-regulering, nasjonale sikkerhetshensyn og potensielt misbruk av AI-teknologi.

Categories: IT Info