Tesla Cybertruck-eksplosjonen utenfor Trump International Hotel i Las Vegas har utløst nasjonale debatter om de etiske implikasjonene av generativ AI. På nyttårsdag detonerte Matthew Livelsberger, en tidligere grønn beret fra U.S. Army, en kjøretøybåren eksplosiv enhet (VBIED) som skadet syv personer og forårsaket betydelig skade på eiendom.
Som Las Vegas Metropolitan Police avslørte under en pressekonferanse, brukte Livelsberger ChatGPT for å samle informasjon for planlegging angrepet. Saken markerer det første kjente tilfellet av AI som ble utnyttet i en voldelig hendelse i hjemmet, og reiser presserende spørsmål om tilgjengeligheten og reguleringen av disse teknologiene.
Bakgrunn og hendelsen
Eksplosjonen skjedde 1. januar 2025 utenfor Trump International Hotel. Livelsberger, 37, konstruerte VBIED ved hjelp av fyrverkeri, pyrotekniske materialer og drivstoff lagret i sengen til en Tesla Cybertruck.
etterforskere mener at bombe detonerte for tidlig, sannsynligvis utløst av en skytevåpenglimt inne i kjøretøyet, og forhindret et mer katastrofalt utfall. Til tross for dette skadet eksplosjonen syv tilskuere og forårsaket panikk over Las Vegas Strip.
Assisterende sheriff Dori Koren uttalte at enhetens for tidlige detonasjon sannsynligvis forhindret et mer alvorlig utfall, potensielt inkludert dødsfall.
[ innebygd innhold]
Myndighetene identifiserte raskt Livelsberger som gjerningsmannen, og oppdaget omfattende notater og digitale bevis på den bærbare datamaskinen hans og smarttelefon. Disse postene inkluderte søk og spørsmål som ble lagt inn i ChatGPT, der han søkte informasjon om eksplosiver, skytevåpen og teknikker for å opprettholde anonymitet.
Les pressemeldingen her:
Se den frigitte informasjonen under nyhetskonferanse her: https://t.co/acEaqdQ95V pic.twitter.com/Wd5BCeqYDk— LVMPD (@LVMPD) 8. januar, 2025
AIs rolle i angrepet
ChatGPT inneholder sikkerhetstiltak for å blokkere skadelige forespørsler, for eksempel de som er relatert til vold eller ulovlige aktiviteter. Etterforskere avslørte imidlertid at Livelsberger omgikk disse restriksjonene ved å omformulere forespørslene sine og stole på offentlig tilgjengelige data samlet av verktøyet.
OpenAI, utvikleren av ChatGPT, fortalt CNN selskapet er”trist over denne hendelsen og forpliktet til å se AI-verktøy brukes ansvarlig.”
“Modellene våre er designet for å avvise skadelige instruksjoner og minimere skadelig innhold. I dette tilfellet svarte ChatGPT med informasjon som allerede er offentlig tilgjengelig på internett og ga advarsler mot skadelige eller ulovlige aktiviteter. Vi samarbeider med politiet for å støtte etterforskningen deres, sa en talsperson for OpenAI.
Relatert: y0U hA5ε tU wR1tε l1Ke tHl5 to Break GPT-4o, Gemini Pro og Claude 3.5 Sonnet AI sikkerhetstiltak
Lovhåndhevelse fremhevet implikasjonene av denne saken, og bemerket at AI ikke eksplisitt tilrettela skade, men ga Livelsberger logistisk innsikt.
Assisterende sheriff Dori Koren bemerket at AIs engasjement fremhevet utfordringer med å regulere nye teknologier og sikre at de ikke blir misbrukt.
Relatert: AI Safety Index 2024-resultater: OpenAI, Google, Meta, xAI Fall Short; Antropisk på toppen
Den menneskelige dimensjonen: Motivasjoner og kamper
Livelsbergers bakgrunn som dekorert veteran tilfører fortellingen kompleksitet. Han var hjemmehørende i Colorado Springs, han serverte flere kampturer og mottok flere utmerkelser. Imidlertid avslørte hans personlige skrifter strever med posttraumatisk stresslidelse (PTSD) og følelser av fremmedgjøring.
Notater gjenvunnet fra mobiltelefonen hans ga innsikt i sinnstilstanden hans. I en oppføring beskrev han eksplosjonen som en”vekker for et samfunn som har gått seg vill.”
Andre skrifter berømmet skikkelser som Elon Musk og Donald Trump, som han så på som potensielle forenere av en splittet nasjon understreket imidlertid at det ikke var bevis for politisk målretting eller ekstremistiske tilknytninger.
Sheriff Kevin McMahill uttalte at hendelsen ikke var. knyttet til organisert terrorisme, men så ut til å være et resultat av personlige kamper kombinert med tilgang til potensielt farlige verktøy.
Relatert: Deliberative Alignment: OpenAIs sikkerhetsstrategi for sine o1-og o3-tenkemodeller
Etiske og regulatoriske implikasjoner
Hendelsen i Las Vegas understreker de etiske dilemmaene rundt Generativ AI Mens verktøy som ChatGPT er utformet for konstruktive formål, avslører misbruk av sårbarheter i eksisterende sikkerhetstiltak.
Spencer Evans, en spesialagent fra FBI, kommenterte at saken understreker viktigheten av samarbeid mellom utviklere, regulatorer, og rettshåndhevelse for å håndtere risikoene forbundet med generativ kunstig intelligens.
Eksperter foreslår ulike strategier for å redusere risikoer, inkludert forbedret overvåking av AI-plattformer, obligatoriske rapporteringsmekanismer for mistenkelig aktivitet og offentlige bevisstgjøringskampanjer om etisk bruk. OpenAI har uttalt at de jobber aktivt med interessenter for å avgrense sikkerhetsprotokollene sine, og balanserer innovasjon med sikkerhet.