Kuusitoista tunnettua tekoälyyritystä, mukaan lukien Google, Microsoft, IBM ja OpenAI, ovat suostuneet poistamaan teknologiansa käytöstä, jos ne osoittavat merkkejä haitallisista seurauksista. Tämä sitoumus tehtiin AI Seoul Summit 2024 Etelä-Koreassa, merkittävä tapahtuma viime vuoden tekoälyn turvallisuushuippukokouksen jälkeen. Edellinen huippukokous johti Bletchleyn julistukseen, jonka 28 maata ja EU allekirjoittivat ja jossa hahmoteltiin visio tekoälyriskien hallinnasta ilman sitovia sitoumuksia.

Tekoälyturvallisuussitoumukset

Soulin huippukokouksessa otettiin käyttöön Frontier AI Safety Commitments, jotka vaativat osallistuvia yrityksiä julkaisemaan turvallisuuskehykset. Näissä viitekehyksessä kerrotaan yksityiskohtaisesti, kuinka he aikovat mitata ja hallita tekoälymalleihinsa liittyviä riskejä. Yritysten on täsmennettävä, milloin riskejä ei voida hyväksyä, ja hahmoteltava toimia, joihin ne ryhtyvät tällaisissa skenaarioissa. Jos riskien vähentäminen epäonnistuu, allekirjoittajat ovat sitoutuneet pysäyttämään ongelmallisen tekoälymallin tai-järjestelmän kehittämisen tai käyttöönoton.

Allekirjoittajat ovat sitoutuneet useisiin aloitteisiin, kuten tekoälymalliensa yhdistämiseen, tiedon jakamiseen ja investointeihin. kyberturvallisuuden alalla ja kannustaa kolmannen osapuolen haavoittuvuusraportointia. He ovat myös sitoutuneet merkitsemään tekoälyn tuottamaa sisältöä, asettamaan etusijalle yhteiskunnallisten riskien tutkimuksen ja käyttämään tekoälyä globaaleihin haasteisiin vastaamiseen.

Allekirjoittajien joukossa ovat OpenAI, Microsoft, Amazon, Anthropic, Cohere, G42, Inflection AI, Meta, Mistral AI, Naver, Samsung Electronics, Technology Innovation Institute, xAI ja Zhipu.ai. Näiden sitoumusten yksityiskohtien odotetaan valmistuvan osoitteessa “AI Action Summit”on suunniteltu pidettäväksi vuoden 2025 alussa.

Organisaatiot ovat sopineet seuraavasta Frontier AI:sta Turvallisuussitoumukset:

Tulos 1. Organisaatiot tunnistavat, arvioivat ja hallitsevat tehokkaasti riskejä kehittäessään ja ottaessaan käyttöön äärimmäisiä tekoälymallejaan ja-järjestelmiään. Ne

I. Arvioi niiden rajamallien tai järjestelmien aiheuttamat riskit tekoälyn elinkaaren aikana, myös ennen kyseisen mallin tai järjestelmän käyttöönottoa, ja tarvittaessa ennen koulutusta ja sen aikana käyttöön otettujen lieventämiskeinojen tehokkuutta niiden ennakoitavissa olevaan käyttöön ja väärinkäyttöön liittyvien riskien vähentämiseksi. Heidän olisi myös tarvittaessa otettava huomioon sisäisten ja ulkoisten arviointien tulokset, kuten riippumattomien kolmansien osapuolten arvioijien ja kotimaidensa hallitukset [alaviite 2]. ] ja muut elimet, jotka niiden hallitukset pitävät aiheellisina.

II. Määritä kynnysarvot [alaviite 3], joilla mallin tai järjestelmän aiheuttamia vakavia riskejä pidettäisiin sietämättöminä, ellei niitä riittävästi vähennetä. Arvioi, onko näitä kynnysarvoja rikottu, mukaan lukien sen seuraaminen, kuinka lähellä malli tai järjestelmä on tällaista rikkomista. Nämä kynnysarvot olisi määriteltävä luotettujen toimijoiden, mukaan lukien tarvittaessa organisaatioiden kotihallitukset, mukaan. Niiden olisi mukauduttava asiaankuuluviin kansainvälisiin sopimuksiin, joissa niiden kotihallitukset ovat osapuolina. Niihin tulee myös liittää selvitys siitä, miten kynnysarvot on päätetty, ja konkreettisia esimerkkejä tilanteista, joissa mallit tai järjestelmät aiheuttaisivat sietämättömän riskin.

III. Selvitä, kuinka riskinvähennykset tunnistetaan ja toteutetaan, jotta riskit pysyisivät määritetyissä kynnysarvoissa, mukaan lukien turvallisuuteen ja turvallisuuteen liittyvät riskien lieventämiset, kuten järjestelmän käyttäytymisen muuttaminen ja vankkojen turvatoimien toteuttaminen julkaisemattomille mallipainoille.

IV. Määrittele selkeät prosessit, joita he aikovat noudattaa, jos heidän mallinsa tai järjestelmänsä aiheuttaa riskejä, jotka täyttävät tai ylittävät ennalta määritetyt kynnysarvot. Tämä sisältää prosesseja järjestelmien ja mallien edelleen kehittämiseksi ja käyttöönottamiseksi vain, jos ne arvioivat, että jäännösriskit jäävät kynnysarvojen alapuolelle. Äärimmäisissä tapauksissa organisaatiot sitoutuvat olemaan kehittämättä tai ottamaan käyttöön mallia tai järjestelmää ollenkaan, jos riskien lieventämisellä ei voida pitää riskejä kynnysarvojen alapuolella.

V. Investoi jatkuvasti parantamaan kykyään toteuttaa sitoumuksia i-iv, mukaan lukien riskien arviointi ja tunnistaminen, kynnysarvojen määrittely ja lieventämisen tehokkuus. Tähän tulisi sisältyä prosesseja, joilla arvioidaan ja seurataan lieventämistoimenpiteiden riittävyyttä ja tunnistetaan tarvittaessa lisälievennyksiä sen varmistamiseksi, että riskit pysyvät ennalta määritettyjen kynnysarvojen alapuolella. Ne edistävät ja ottavat huomioon uusia parhaita käytäntöjä, kansainvälisiä standardeja ja tiedettä tekoälyriskien tunnistamisesta, arvioinnista ja vähentämisestä.

Tulos 2. Organisaatiot ovat vastuussa rajojen turvallisesta kehittämisestä ja käyttöönotosta. AI mallit ja järjestelmät. He:

VI. Noudata I-V:ssä hahmoteltuja sitoumuksia, mukaan lukien kehittämällä ja tarkistamalla jatkuvasti sisäisiä vastuullisuus-ja hallintopuitteita sekä jakamalla tähän tehtävät rooleja, vastuita ja riittävästi resursseja.

Tulos 3. Organisaatioiden lähestymistavat rajatylittävään tekoälyyn turvallisuus on riittävän avointa ulkoisille toimijoille, mukaan lukien hallitukset. He:

VII. Tarjoa julkista avoimuutta edellä mainittujen (I–VI) täytäntöönpanon suhteen, paitsi jos se lisää riskiä tai paljastaisi arkaluonteisia kaupallisia tietoja siinä määrin, että se on suhteeton yhteiskunnalliseen hyötyyn nähden. Niiden olisi silti jaettava yksityiskohtaisempia tietoja, joita ei voida jakaa julkisesti luotettujen toimijoiden kanssa, mukaan lukien tarvittaessa heidän kotihallituksensa tai nimitetty elin.

VIII. Selitä, kuinka ulkopuoliset toimijat, kuten hallitukset, kansalaisyhteiskunta, tutkijat ja yleisö, ovat mukana prosessissa, jossa arvioidaan tekoälymalliensa ja-järjestelmiensä riskejä sekä turvallisuuskehysten riittävyyttä (kuten on kuvattu kohdassa I-VI) ja heidän noudattamisensa tässä kehyksessä.”

Maailmanlaajuinen yhteistyö ja tulevaisuuden suunnitelmat

Yhdessä kirjoitetussa julkaisussa Ison-Britannian pääministeri Rishi Sunak ja Etelä-Korean presidentti Yoon Suk Yeol korostivat nopeuttamisen kiireellisyyttä ponnistelut tekoälyn hallinnassa Soulin huippukokouksessa hyväksyttiin myös Soulin julistus, jossa korostetaan tekoälyn hallintokehysten yhteentoimivuuden merkitystä hyötyjen maksimoimiseksi ja riskien vähentämiseksi. Australia, YK, OECD ja EU sekä alan johtajat.

Categories: IT Info