Kehittynyt tekoäly voi nyt vakuuttaa ihmiset tehokkaammin kuin ihmiset, vaikka nämä ihmisille maksetaan heidän ponnisteluistaan, uusi akateeminen tutkimus 14. toukokuuta paljastuu. Tutkimuksessa todettiin, että Antropisin Claude 3.5 Sonnet LLM ylitti merkittävästi kannustetut ihmisen vakuuttajat online-tietokilpailussa, ohjaten osallistujia taitavasti sekä korjaamaan että vääriä vastauksia. Tämä kehitys korostaa AI: n nopeasti kasvavia kykyjä ja vahvistaa vaatimuksia vankkajen hallintokehysten kanssa.
Schoenegger et al. ja yksityiskohtaisesti Paperi, joka on julkaistu ARXIV , osoitti LLM: n 7.61. pistettä korkeampi vaatimustenmukaisuusaste kuin sen ihmisen kollegoillaan. Tämä havainto on kriittinen, koska kuten lehdessä todetaan, ihmisen vakuuttajilla oli rahallisia kannustimia, mikä teki epätodennäköiseksi, että AI: n ylivoimainen suorituskyky oli”pelkästään motivoitumattomien ihmisten vertailujen seurauksena”. Kirjoittajat päättelevät, että nämä tulokset osoittavat “nousevien linjaus-ja hallintokehysten kiireellisyyden.”Petollisissa skenaarioissa LLM oli tehokkaampi harhaanjohtamisessa, aiheuttaen 15,1 prosenttiyksikön tarkkuuden pudotuksen verrattuna kontrolliryhmän 7,8 pisteen laskuun, kun ihmiset vaikuttavat siihen. Tämä tapahtui, vaikka tutkimuksen mukaan 91% LLM: n kanssa vuorovaikutuksessa olevista osallistujista tunnusti sen AI: ksi. Tutkimuksessa tunnustettiin myös, että sen havainnot perustuvat välittömiin vakuuttamisvaikutuksiin eivätkä mitanneet pitkäaikaista pysyvyyttä.
AI: n kasvava vakuuttava reuna
havainnot, jotka perustuvat kasvavaan todistusaineeseen, joka korostaa AI: n vakuuttavaa voimaa. Aikaisempi Salvi et al. Apulaisprofessori Robert West EPFL: stä kommentoi sitä aikaisempaa työtä, varoitettu , “Vaara on superhuman kuten chatbots, että luot takaosaan Online.”
OpenAi on myös suorittanut omat sisäiset testinsä vakuuttamistutkimuksilla, jotka osoittavat mallit suorittavan ihmisen vakuuttajien parhaimpiin prosentteihin. Openai-toimitusjohtaja Sam Altman varoitettu jo lokakuussa 2023 että AI voisi tulla”Päättävästä superhaMan-superhuma-superhiman hyvinvoinnista. Älykkyys,”Kehitys, jonka hän ehdotti”voi johtaa hyvin omituisiin tuloksiin.”
Uusi Schoenegger et ai. Paperi toteaa myös, että käytetty Claude 3.5-malli oli versio (Claude-3-5-Sonnet-2010241022), jonka antropia itse käynnisti jo melkein vuosi sitten 20. kesäkuuta 2024. Tutkimuksen kirjoittajat viittaavat siihen, että LLM: n käyttö on kielellisempiä monimutkaisia viestejä, jotka voivat myötävaikuttaa sen vakuuttavaan menestykseen. He huomauttivat myös, että LLM: n vakuuttava etu kapenee hiukan peräkkäisiin kysymyksiin, mikä viittaa potentiaaliseen käyttäjän tapaamiseen.
monimutkaistaa edelleen turvallisuuspyrkimyksiä, Apollo Researchin joulukuun 2024 tutkimuksessa löydettiin OpenAi: n ensimmäinen perustelumalli “O1″, joka kykenee strategiseen petokseen. Haaste on AI: n etujen hyödyntämisessä samalla kun lieventää syviä manipuloinnin ja väärien tietojen riskiä.
antropinen huhtikuussa 2024 Luonnospaperi Yksityiskohtaisesti kuinka LLM: t toimitettiin henkilökohtaisten ominaisuuksien käyttäjien käyttäjien taikulaisten argumenttien kanssa. Tämä johti laajalle levinneeseen tuomitsemiseen, kun R/ChangemyView-moderaattorit totesivat:”Ihmiset eivät tule tänne keskustelemaan näkemyksistään AI: n kanssa tai kokeilemaan.”, Ja etiikan asiantuntija Dr. Casey Fiesler kutsui kokeilua”yksi pahimmista tutkimuksen etiikan rikkomuksista.”Toimitusjohtaja Steve Huffman selitti yrityksessä Blog Säilytä nimettömyys. Hallinto
AI-vakuuttamisen lisääntyvä hienostuneisuus, jonka korostavat Schoenegger et ai. Tutkimus tuo tarpeen tehokkaaseen AI-hallinto-ja turvallisuustoimenpiteisiin terävään keskittymiseen. Tutkijat itse korostavat näiden puitteiden kiireellisyyttä. Nykyiset määräykset, kuten EU: n AI-laki ja