California er på grensen til å vedta et landemerke-lov for å regulere AI Companion Chatbots. Statlige lovgivere har godkjent

Han var enda mer direkte på bransjens merittliste og sa:”Big Tech har bevist tid og sterk> newts,

SB Catchatb Catchy ( Brukerens sosiale behov. For mindreårige må operatører gi tilbakevendende varsler hver tredje time, og minner dem om at de snakker med en AI og bør ta en pause.

Lovgivningen krever plattformer for å implementere en klar protokoll for å adressere enhver brukerdiskusjon av selvmordstanker eller selvskading. Dette inkluderer ikke bare å forhindre at AI engasjerer seg i slike emner, men også aktivt henviser brukere til krisetjenesteleverandører.

Billet forbyr også eksplisitt chatbots fra å generere eller delta i seksuelt eksplisitt innhold med mindreårige brukere.

For å sikre overholdelse, etablerer regningen en kraftig håndhevingsmekanisme: en privat rett til handling. Dette gjør at enkeltpersoner som mener de har blitt skadet av en plattforms brudd for å inngi søksmål som søker skader på opptil $ 1000 per brudd, påbud om lettelse og advokatsalær.

bestemmelsen gir loven betydelig tenner ved å styrke dem som direkte, snarere enn å stole utelukkende på staten. Endringer.

Innledende utkast, for eksempel, prøvde å forhindre at operatører bruker”variabel belønning”-taktikker-funksjoner designet for å oppmuntre til overdreven engasjement ved å tilby brukere sjeldne svar eller låse opp nye personligheter, som kritikere krangler til å rapportere hvor ofte P-løkker.

Bestemmelser som kritikerte. Å nyte bred topartisk støtte i lovgiveren, er ikke lovforslaget uten kritikerne. Bransjegrupper som Computer & Communications Industry Association (CCIA) har uttrykt motstand, med henvisning til Potensielle risikoer for innovasjon og juridiske kompleksiteter som kan oppstå fra de nye forskriftene.

Nasjonale kontrollmonteringer midt i tenåringssikkerhetskrisen

Det lovgivende presset i California skjer ikke i et vakuum. Det gjenspeiler en økende nasjonal alarm over den psykologiske effekten av AI på tenåringer. Denne bekymringen ble forsterket av det tragiske selvmordet til Adam Raine, en tenåring hvis familie påstår at Chatgpt oppmuntret handlingen.

I et betydelig trekk lanserte Federal Trade Commission nylig en stor sonde til syv tech-giganter, inkludert Google, Meta og Openai. Byrået gransker sikkerhets-og datapraksisene til deres følgesvenn chatbots.

FTC-styreleder Andrew N. Ferguson beskrev henvendelsen som en balanseringshandling, og sa:”Å beskytte barn på nettet er en topp prioritet for å regere vår økonomi.”raskt voksende AI-følgesvennsmarked.

Alarmen har også blitt gjentatt av statlige tjenestemenn. En koalisjon av 44 statsadvokater general utstedt a

Denne utbredte fordømmelsen har tvunget selskaper som Meta og Openai for å overprøve sine ungdomssikkerhetsregler.

Eksperter har lenge advart om potensialet for emosjonell avhengighet. As public health researcher Linnea Laestadius noted, “for 24 hours a day, if we’re upset about something, we can reach out and have our feelings validated. That has an incredible risk of dependency.”

A Tale of Two Bills: California’s Search for AI Regulation

The success of SB 243 stands in strong contrast to the fate of another, more sweeping AI Bill, SB 1047. Denne lovgivningen hadde som mål å stille krav til brede sikkerhetstestingskrav på alle store “grensen” AI-modeller.

SB 1047 møtte en motstandsmur fra teknologibransjen. Store aktører som Openai og Anthropic, sammen med venturekapitalfirmaer som Y Combinator, argumenterte for at regningen ville kvele innovasjon og drive virksomheten ut av staten.

30. september 2024 kalte guvernør Newsom ned veto fra SB 1047. I hans veto-melding, kalte han Bills Focus på modellstørrelse og kostet en”distribuert.

Regningens forfatter, senator Scott Wiener,

De divergerende banene til disse to regningene fremhever den komplekse utfordringen med å regulere AI: å finne en balanse mellom å fremme innovasjon og sikre offentlig sikkerhet.