Yhdysvaltain elintarvike-ja lääkehallinnon uusi AI-avustaja “ELSA”, joka käynnistettiin kesäkuussa huumeiden hyväksynnän mullistamiseksi, valmistelee sen sijaan olemattomia tutkimuksia ja luo enemmän työtä ihmisen arvioijoilleen. 23. heinäkuuta pidetyn CNN-raportin mukaan työkalu on epäluotettava kriittisiin tehtäviin. Se korostaa todistamattoman tekniikan käyttöönoton vakavia riskejä korkean panoksen hallituksen rooleissa, mikä kaiku toistaa teknologiateollisuudessa.

AI paljastettiin fanfaareilla. HHS: n sihteeri Robert F. Kennedy Jr. julisti:”AI-vallankumous on saapunut.”Kuitenkin kulissien takana FDA: n työntekijät kertoivat CNN: lle, että Elsa vääristää tutkimusta ja vaatii jatkuvaa valppautta, heikentäen sen tarkoitusta.

korkean panoksen epäonnistumisten malli toimialalla

FDA: n ongelmat eivät ole yksittäisiä tapauksia. Toukokuussa 2025 AI-yrityksen Antropicin laillinen tiimi piti pyytää anteeksi sen jälkeen, kun Claude AI keksi laillisen viittauksen tekijänoikeuksien oikeudenkäyntiin. Tapauksen tuomari totesi, että”AI: n tuottaman AI: n tuottaman hallusinaation välisen eron maailma.”

Vain kuukautta aikaisemmin AI-koodieditorin käyttäjät täyttivät fake-yrityspolitiikan, joka aiheutti käyttäjän takaiskua, joka vaati julkista anteeksipyyntöä. Gmailin AI: n virhe on kääntänyt virheellisesti saksalaisia sähköposteja aiheuttaen merkittävää sisällön manipulointia. Kuten yksi kastikelaboratorioiden analyytikko, joka on merkitty kohdistintapahtuman jälkeen, “antamalla käyttäjille ilmoitetaan” tämän vastauksen AI: n tuottama’on todennäköisesti riittämätön toimenpide käyttäjän uskollisuuden palauttamiseksi.”

Tämä mielipide viittaa siihen, että teollisuus oppii hitaasti, että yksinkertaiset vastuuvapauslausekkeet ja läpinäkyvyystoimenpiteet eivät ole riittäviä luottamuksen ja luotettavuuden välisissä asioissa. ja todellisuus

Tämä korkean profiilin virheet pakottavat laajemman teollisuuden uudelleenkalibroinnin. Call Center AI-tutkimus havaitsi, että se loi usein enemmän työtä ihmisen edustajille. Analyytikkoyritys Gartner käänsi myös keskeisen ennusteen, nyt Puolet organisaatioiden ennustaminen luopuu aikomuksesta korvata ihmisen tukihenkilöstö AI . Tämä käytännöllinen muutos tunnustaa tekniikan nykyiset rajoitukset ja heijastaa kasvavaa ymmärrystä siitä, että AI-virheiden kustannukset voivat olla suuremmat kuin automaation edut.

ELSA-fiasko tapahtui juuri kun Valkoinen talo paljasti AI-toimintasuunnitelmansa,”strategiaa, joka edistää purkamista AI-kehitystä. Tämä nopeiden, tarkistamattomien innovaatioiden pyrkimys on ristiriidassa tekniikan epäluotettavuuden todellisuuden kanssa. Dr. Jonathan Chen, Stanfordin yliopiston professori, joka tutkii kliinisissä olosuhteissa AI: ta, varoitti: “Se on todella eräänlainen villi länsi tällä hetkellä. Teknologia liikkuu niin nopeasti, on vaikea edes ymmärtää tarkalleen mitä se on.”antoi lausunnon, jossa tunnustetaan generatiivisen AI: n käytön haasteet. ELSA-tapaus on kuitenkin voimakas, julkinen varoitus ennenaikaisen AI-käyttöönoton vaaroista hallituksessa.

Categories: IT Info