Explozia Tesla Cybertruck în fața hotelului Trump International din Las Vegas a stârnit dezbateri naționale despre implicațiile etice ale inteligenței artificiale generative. În ziua de Anul Nou, Matthew Livelsberger, o fostă beretă verde a armatei SUA, a detonat un dispozitiv exploziv transportat pe vehicule (VBIED) care a rănit șapte persoane și a provocat daune materiale semnificative.
Așa cum a dezvăluit poliția metropolitană din Las Vegas în timpul unei conferințe de presă, Livelsberger a folosit ChatGPT pentru a aduna informații pentru planificare atacul. Cazul marchează primul exemplu cunoscut de exploatare a inteligenței artificiale într-un incident violent domestic, ridicând întrebări stringente cu privire la accesibilitatea și reglementarea acestor tehnologii.
Contextul și evenimentul
Explozia a avut loc la 1 ianuarie 2025, în afara hotelului Trump International. Livelsberger, 37 de ani, a construit VBIED folosind artificii, materiale pirotehnice și combustibil depozitat în patul unui Cybertruck Tesla.
Investigatorii cred că bombă a detonat prematur, probabil declanșată de un fulger de armă de foc în interiorul vehiculului, prevenind un rezultat mai catastrofal. În ciuda acestui fapt, explozia a rănit șapte trecători și a provocat panică în Las Vegas Strip.
Șeriful adjunct Dori Koren a declarat că detonarea prematură a dispozitivului a prevenit probabil un rezultat mai grav, care poate include decese.
[ conținut încorporat]
Autoritățile l-au identificat rapid pe Livelsberger drept făptuitor, descoperind note extinse și dovezi digitale pe laptopul și smartphone-ul său. Aceste înregistrări au inclus căutări și solicitări introduse în ChatGPT, unde a căutat informații despre explozibili, arme de foc și tehnici de păstrare a anonimatului.
Citiți comunicatul de presă aici:
Vizualizați informațiile publicate în timpul conferință de presă aici: https://t.co/acEaqdQ95V pic.twitter.com/Wd5BCeqYDk— LVMPD (@LVMPD) 8 ianuarie, 2025
Rolul AI în atac
ChatGPT încorporează măsuri de protecție pentru a bloca interogările dăunătoare, cum ar fi cele legate de violență sau activități ilegale. Cu toate acestea, anchetatorii au dezvăluit că Livelsberger a ocolit aceste restricții reformulând solicitările sale și bazându-se pe datele disponibile public agregate de instrument.
OpenAI, dezvoltatorul ChatGPT, a spus CNN, compania este „întristată de acest incident și se angajează să vadă instrumentele AI utilizate în mod responsabil.”
„Modelele noastre sunt concepute pentru a refuza instrucțiunile dăunătoare și pentru a minimiza conținutul dăunător. În acest caz, ChatGPT a răspuns cu informații deja disponibile public pe internet și au oferit avertismente împotriva activităților dăunătoare sau ilegale. Lucrăm cu forțele de ordine pentru a sprijini investigația lor”, un purtător de cuvânt al OpenAI a spus.
Legate: y0U hA5ε tU wR1tε l1Ke tHl5 to Break GPT-4o, Gemini Pro și Claude 3.5 Sonnet AI Safety Measures
Aplicațiile legii au evidențiat implicațiile acestui caz, observând că AI nu a facilitat în mod explicit prejudiciul, ci a oferit lui Livelsberger informații logistice.
Șeriful adjunct Dori Koren a remarcat că implicarea AI a evidențiat provocările în reglementarea tehnologiilor emergente și în asigurarea faptului că acestea nu sunt utilizate abuziv.
Legate: Rezultatele AI Safety Index 2024: OpenAI, Google, Meta, xAI Fall Short; Antropic în vârf
Dimensiunea umană: Motivații și lupte
Experimentul lui Livelsberger ca veteran decorat adaugă complexitate narațiunii. Originar din Colorado Springs, a servit în mai multe turnee de luptă și a primit mai multe laude. Cu toate acestea, scrierile sale personale au dezvăluit lupte cu tulburarea de stres post-traumatic (PTSD) și sentimente de alienare.
Notele recuperate de pe telefonul său mobil au oferit o perspectivă asupra stării sale de spirit. Într-o intrare, el a descris explozia drept „un apel de trezire pentru o societate care și-a pierdut drumul.”
Alte scrieri au lăudat figuri precum Elon Musk și Donald Trump, pe care el îi considera potențiali unificatori ai o națiune divizată, totuși, anchetatorii au subliniat că nu există dovezi de țintire politică sau afilieri extremiste.
Șeriful Kevin McMahill a declarat că incidentul nu a fost legat de terorismul organizat, dar părea a fi rezultatul unor lupte personale combinate cu accesul la instrumente potențial periculoase.
Legate: Alinierea deliberativă: Strategia de siguranță a OpenAI pentru modelele sale de gândire o1 și o3
Implicații etice și de reglementare
Incidentul din Las Vegas subliniază dilemele etice din jurul În timp ce instrumente precum ChatGPT sunt concepute în scopuri constructive, utilizarea lor greșită dezvăluie vulnerabilități în garanțiile existente.
Spencer Evans, un agent special al FBI, a comentat că cazul subliniază importanța colaborării dintre dezvoltatori, autorități de reglementare, și aplicarea legii pentru a aborda riscurile asociate cu IA generativă.
Experții propun diverse strategii pentru a atenua riscurile, inclusiv monitorizarea îmbunătățită a IA. platforme, mecanisme obligatorii de raportare a activităților suspecte și campanii de conștientizare a publicului cu privire la utilizarea etică. OpenAI a declarat că lucrează activ cu părțile interesate pentru a-și perfecționa protocoalele de siguranță, echilibrând inovația cu securitatea.