Euroopan unioni on julkaissut viimeisen AI-käytännesäännöt torstaina Brysselissä. Nämä uudet vapaaehtoiset säännöt ohjaavat teknologiayrityksiä siitä, kuinka noudattaa EU: n suurta AI-lakia. Koodi kattaa tehokkaimpien AI-järjestelmien turvallisuuden, läpinäkyvyyden ja tekijänoikeudet. EU haluaa varmistaa, että AI on kehitetty turvallisesti edistäen innovaatioita blokkilla. Yli 45 eurooppalaisen jättiläisen, mukaan lukien Airbus, Mistral AI ja Siemens, koalitio vaati 3. heinäkuuta kahden vuoden”kello-pysäytys”AI-laissa. He mainitsivat vahingoittavan sääntelyn epävarmuutta. Vain päivää myöhemmin se hylkäsi kysynnän. Komission tiedottaja Thomas Regnier totesi: “Anna minun olla mahdollisimman selkeä, kellon pysäyttämistä ei ole. Harmeaika ei ole. Ei ole taukoa”viivästymisen spekuloinnin lopettaminen. Tämä yritysasenne korostaa EU: n sitoutumista aikajanaan.
Tämä viimeaikainen takaisku on osa pitkäaikaisia keskusteluja. Jo kesäkuussa 2023 150 yritystä varoitti, että laki oli liian raskaana. Paine on myös transatlanttista. Yhdysvaltain hallitus esitti muodollisen väitteen huhtikuussa 2025 väittäen, että säännöt olivat liiallisia.
Jotkut eurooppalaiset johtajat ovat puolustaneet teollisuutta. Yksi Euroopan parlamentin jäsen, Aura Salla, on ollut kriittinen todennut:”Sääntelyn ei pitäisi olla paras vientituote E.U. Se vahingoittaa omia yrityksiämme”, joka heijastaa kilpailukykyä koskevia huolenaiheita. href=”https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai”Target=”_ tyhjä”> Vapaaehtoinen työkalu, joka on suunniteltu auttamaan teollisuutta valmistautumaan pakollisen noudattamisen saavuttamiseksi. Satojen sidosryhmien panoksella kehitetty se tarjoaa käytännön ohjeita AI-lain monimutkaisten velvoitteiden täyttämisestä.
Asiakirja on rakennettu kolmeen erilliseen lukuun, joista jokainen osoittaa huolenaihetta: Copyright ja . Tämä porrastettu lähestymistapa sovelletaan erilaisia sääntöjä mallin mahdollisiin vaikutuksiin. Läpinäkyvyysluvussa on valtuudet laaja dokumentaatio. Kehittäjien on annettava yksityiskohtia malliarkkitehtuurista, koulutustiedoista, energiankulusta ja suorituskyvyn arvioinnista standardisoidun muodon avulla. Se vaatii kehittäjiä toteuttamaan politiikat EU: n tekijänoikeuslain noudattamiseksi. Tähän sisältyy Web-raapimisen opintojen kunnioittaminen ja toimenpiteiden toteuttaminen riskin vähentämiseksi, että mallit aiheuttavat loukkaavaa sisältöä.
systeeminen riski tehokkaimmille malleille
Kolmas luku, turvallisuus ja turvallisuus on paljon tiukempi. Sen säännöt on varattu edistyneimmille malleille, jotka katsotaan aiheuttaa”systeeminen riski”yleisölle . Tämä on keskeinen ero EU: n riskipohjaisessa sääntelystrategiassa. Tähän sisältyy jatkuvaa riskinarviointia, kilpailevaa testausta ja yksityiskohtaista tapausraportointia Äskettäin muodostetut EU AI-toimistot . AI-mallit, kasvava huolenaihe sääntelijöille.
Vaikka monet teknologiayritykset vastustavat näitä sääntöjä, Microsoft on kääntynyt linjausstrategiaan. Microsoftin presidentti Brad Smith korosti äskettäin, että yrityksen menestys riippuu eurooppalaisesta luottamuksesta ja toteaa: “Tunnustamme, että liiketoimintamme on kriittisesti riippuvainen asiakkaiden, maiden ja hallitusten luottamuksen ylläpitämisestä ympäri Eurooppaa”, osana laajempaa lupausta kunnioittaa blokin lakeja.
AI-lain käyttöönotto on jo käynnissä. Kiellukset”Ei hyväksyttävä riski”AI tuli voimaan helmikuussa 2025. GPAI-mallien avainsääntöjä sovelletaan elokuussa 2025, täyden täytäntöönpanon kanssa vuonna 2026.
lausunnossa EU: n varatoimitusjohtaja Henna Virkkunen sanoi, että politiikka oli “tärkeä askel edistyneimmistä A.I.-malleista Euroopassa, joka ei ole vain innovatiivinen, ja se on vain turvallinen ja läpinäkyvä” Fram-A. AI Euroopassa.