Egy pakisztáni újság felhívta a figyelmet az ellenőrizetlen mesterséges intelligencia kimenet növekvő problémájára, miután tévedésből csevegő szöveget nyomtatott ki egy chatbotból. November 12-i kiadásában a Dawn egy mesterséges intelligencia által generált üzenetet is tartalmazott, hogy a nyilvánvalóan generált cikket „csípősebbé tegye”, nyilvános bocsánatkérésre kényszerítve saját szabályainak megszegéséért.

Egy ilyen hiba nem elszigetelt eset, hanem a mesterséges intelligencia meghibásodásának szélesebb tendenciájának része. A bíróságokon használt hamis jogi forrásoktól a hibás kormányzati jelentésekig, a generatív mesterséges intelligencia alapos emberi felülvizsgálat nélkül történő elfogadásának rohanása aláássa a közbizalmat. Ez egy olyan tendencia, amely komoly, valós problémákat okoz a nagy intézmények számára.

„Akarod, hogy ezt csináljam legközelebb?”: A Newspaper nyilvános mesterségesintelligencia-hírlapja

A nagy tekintélyű pakisztáni angol nyelvű újság, a Dawn egy cikket közölt az autóeladásokról, amely egy bizarr, gép által generált bejegyzéssel zárult. A cikk záró bekezdés helyett egy klasszikus chatbot szöszmöt tartalmazott.

A mesterséges intelligencia megkérdezte a felhasználóját: „Ha akarod, készíthetek egy”-s”és puncsna oldalas, statikus oldalvonalas változatot is. merész, infografikára kész elrendezés – tökéletes a maximális olvasói hatás érdekében. Szeretnéd, hogy legközelebb ezt tegyem?“

Tudom, hogy az újságírók a mesterséges intelligenciát használják munkájuk során, de ez egy kicsit sok!

A Dawn Business pages íróasztalnak legalább az utolsó részt meg kellett volna szerkesztenie!

😆😆😆 pic.twitter.com/JWNdHNWvnv

— omar r quraishi (@omar_quraishi) 2025. november 12.

Az olvasók által gyorsan és gyorsan terjesztett, a lapszámot gyorsan kijavító újság észrevette hivatalos bocsánatkérés. A cikk online változatához csatolt megjegyzésben a szerkesztő elismerte: „Ezt az újságjelentést eredetileg mesterséges intelligencia felhasználásával szerkesztették, ami sérti a Dawn jelenlegi mesterségesintelligencia-irányelvét. … A mesterséges intelligencia irányelvének megsértését sajnálattal közöljük. Az Az újság hivatalos irányelvei kifejezetten tiltják a mesterséges intelligencia felhasználását hírek generálására vagy szerkesztésére szigorú emberi felügyelet nélkül.

Míg a Dawn egy pillanatnyi megszégyenítést jelentett a nyilvánosság számára, egy sokkal mélyebb és jelentősebb probléma erőteljes szimbólumaként szolgál. A generatív mesterséges intelligencia megfelelő felügyelet nélküli idő előtti bevezetése iparágakban nagy horderejű kudarcokhoz vezet, aláásva a szakmai színvonalat és a közbizalmat.

Rendszerszintű probléma: amikor a mesterséges intelligencia nagy téttel rendelkező területeken hallucinál

A jogászoktól a közegészségügyi szakterületekig nem lehet nehéz utat találni. kritikus feladatokat bízott meg. A hallucinációként ismert jelenség, amikor egy mesterséges intelligencia magabiztosan talál ki tényeket, forrásokat vagy adatokat, tartós és veszélyes hibának bizonyul.

Egy közelmúltbeli és költséges példa a tanácsadói világból származik. A Deloitte globális cég kénytelen volt visszafizetni 97 000 dollárt az ausztrál kormánynak, miután egy 440 000 dolláros jelentésről kiderült, hogy tele van mesterséges intelligencia idézetekkel.

Jelentésében, amely az ország jóléti rendszerének érzékeny áttekintése, nem létező könyvekre és jogesetekre hivatkozott. Deborah O’Neill ausztrál munkáspárti szenátor éles szemrehányást tett, és kijelentette:”A Deloitte-nak emberi intelligenciaproblémája van. Ez nevetséges lenne, ha nem lenne olyan siralmas.”

Akut problémák jelennek meg a közszférában is. Júliusban olyan jelentések jelentek meg, amelyek szerint az Egyesült Államok Élelmiszer-és Gyógyszerügyi Hatósága új, „Elsa” mesterséges intelligenciája, amelynek célja a gyógyszerengedélyezés felgyorsítása, ehelyett nem létező orvosi tanulmányokat gyártott.

Az FDA egyik frusztrált munkatársa megbízhatatlannak minősítette az eszközt a CNN-nek, és kijelentette, hogy „magabiztosan hallucinál”, míg egy másik sajnálatosan sajnálkozva panaszkodott: „Sok időmet elpazaroltam. Hasonlóan, az Anthropic mesterségesintelligencia-cég ügyvédeinek is hivatalosan bocsánatot kellett kérniük egy bírótól, miután saját Claude AI-juk feltalált egy bírósági beadványban használt jogi idézetet.

Különösen az újságírásban volt már többször előfordult ilyen tévedés. Egy feltűnően hasonló ügyben októberben a német Der Spiegel magazinnak javítania kellett egy cikket, amely egy kósza mesterséges intelligencia által generált mondatot tartalmazott, amely a szöveg megváltoztatását javasolta. alacsony szintű tartalommal rendelkező farmokra korlátozódnak, de elismert, elismert sajtóorgánumokban jelennek meg, rávilágítva a szerkesztői munkafolyamatok rendszerszintű meghibásodására.

Ezek nem elszigetelt események. A BBC és a European Broadcasting Union (EBU) által koordinált mérföldkőnek számító nemzetközi tanulmány feltárta ennek a megbízhatatlanságnak a rendszerszerűségét.

Több mint 3000 válasz kiértékelése után az eredmények azt mutatták, hogy az AI-asszisztensek a hírekkel kapcsolatos válaszok 45%-ában jelentős hibákat produkálnak. Ahogy Jean Philip De Tender, az EBU médiaigazgatója kifejtette: „Ez a kutatás meggyőzően azt mutatja, hogy ezek a hibák nem elszigetelt incidensek. Rendszerszintűek, határokon átnyúlóak és többnyelvűek, és úgy gondoljuk, hogy ez veszélyezteti a közbizalmat.”

Eroding Trust: The Real-World Cost of Unchecked AI Slop

A Wikimedia Foundation a közelmúltban az emberi forgalom megdöbbentő, 8%-os visszaeséséről számolt be, egyenesen az AI keresőeszközöket és chatbotokat hibáztatva, amiért elszippantják a látogatókat azáltal, hogy a tartalmat forrásmegjelölés nélkül összegzik.

Egy ilyen tendencia fenyegeti az enciklopédia-modellt. Ahogy a Wikimedia vezető termékigazgatója, Marshall Miller figyelmeztetett: „Ha kevesebb látogatást tesz a Wikipédiában, kevesebb önkéntes gyarapíthatja és gazdagíthatja a tartalmat, és kevesebb egyéni adományozó támogathatja ezt a munkát.“

Belső szinten a platform már harcot vív az AI által generált beadványok ellen, amelyet az egyik önkéntes közösség „ampítónak” minősített. törlési politikája, amely a legrosszabb csúszás eltávolítására irányul.

Ezek az ismétlődő hibák végső soron kritikus tanulságot adnak az AI jelenlegi állapotáról. A hibákért való felelősség nem terhelhető a gépre.

Ahogyan a Google korábbi vezető döntéshozója, Cassie Kozyrkov megjegyezte, miután a Cursor AI kódszerkesztőjének támogató robotja egy hamis vállalati szabályzatot talált ki: „Ez a zűrzavar elkerülhető lett volna, ha a vezetők megértik, hogy (1) az AI hibázik, (2) a mesterséges intelligencia hibázik, (2) a mesterséges intelligencia, és ezekért a hibákért nem lehet felelősséget vállalni (3) becsapott egy embernek kiállító gép.“

Ami Hajnalban történt, az egyszerűen a legújabb emlékeztető arra, hogy a mesterséges intelligencia korában a minőség-ellenőrzés utolsó, nélkülözhetetlen rétege továbbra is a szorgalmas emberi felügyelet marad.

Categories: IT Info