Ang bagong katulong ng AI ng AI ng A. ng Estados Unidos,”ELSA,”na inilunsad noong Hunyo upang baguhin ang pag-apruba ng droga, sa halip ay ang paggawa ng mga di-umiiral na pag-aaral at paglikha ng mas maraming trabaho para sa mga tagasuri ng tao. Ayon sa ulat ng Hulyo 23 CNN, ang tool ay hindi maaasahan para sa mga kritikal na gawain. Binibigyang diin nito ang mga malubhang panganib ng pag-aalis ng hindi pinagsama-samang teknolohiya sa mga mataas na pusta na tungkulin ng gobyerno, isang problema na sumigaw sa buong industriya ng tech. Ang kalihim ng HHS na si Robert F. Kennedy Jr ay nagpahayag,”Dumating na ang rebolusyon ng AI.”Ngunit sa likod ng mga eksena, sinabi ng mga empleyado ng FDA sa CNN na ang maling pagsasaliksik ng ELSA at nangangailangan ng patuloy na pagbabantay, na pinapabagsak ang layunin nito. Nahugas ng mga guni-guni Ang posisyon na ito, gayunpaman, ay nag-sidesteps ng pangunahing problema ng pagiging maaasahan para sa isang tool na ipinakilala upang mapalakas ang kahusayan at mapabilis ang mga kritikal na pagsusuri. Ang pagtingin mula sa loob ng ahensya ay higit na nakababahala. Inilarawan ng isang empleyado ang tool na hindi maaasahan para sa anumang gawain na hindi maaaring i-double-check, na nagsasabi na”may kumpiyansa na may kumpiyansa.”Ang isa pang pagdadalamhati sa bagong pasanin, na nagsasabing,”Nag-aaksaya ako ng maraming labis na oras dahil lamang sa mas mataas na pagbabantay na kailangan kong magkaroon.”Nabanggit ng mga kawani na hindi nito ma-access ang maraming mga kaugnay na dokumento, tulad ng mga kumpidensyal na pagsumite ng industriya, na ginagawa itong walang silbi para sa pangunahing pang-agham na gawa ng pagsusuri sa kaligtasan ng gamot at pagiging epektibo. Kapag nasubok sa mga pangunahing katanungan, nagbalik ito ng mga maling sagot. Ang kababalaghan na ito, kung saan ang isang AI ay bumubuo ng tiwala ngunit ganap na maling impormasyon, ay ang gitnang kapintasan na sumisira sa kasalukuyang henerasyon ng mga modelo.
Ang problema ay hindi natatangi sa pasadyang tool ng FDA. Kahit na ang pinaka advanced na mga komersyal na modelo ay nagdurusa dito. Halimbawa, ang OpenAI ay ipinahayag sa sarili nitong data ng kaligtasan na ang mga mas bagong modelo ng O3 at O4-mini na paradoxically ay gumawa ng impormasyon sa isang mas mataas na rate sa ilang mga benchmark kaysa sa kanilang mga nauna. Ito ay pinagsama kapag ang isang modelo ay hindi ma-access ang sarili nitong naunang pangangatuwiran, na pinilit ito na gumawa ng masalimuot na mga dahilan kung kailan pinag-uusapan ang tungkol sa proseso nito. Jonathan Chen, isang propesor ng Stanford University, inilarawan ang sitwasyon na walang tigil, na nagbabalaan,”Ito ay talagang uri ng ligaw na kanluran ngayon. Ang teknolohiya ay gumagalaw nang napakabilis, mahirap pa maunawaan kung ano mismo ito.”
Isang pattern ng mga pagkabigo sa mataas na pusta sa buong industriya
Ang mga problema ng FDA ay hindi isang nakahiwalay na insidente. Noong Mayo 2025, ang ligal na koponan para sa AI firm na Anthropic ay kailangang humingi ng tawad matapos na mag-imbento ng Claude AI ng isang ligal na pagsipi para sa isang demanda sa copyright. Ang hukom sa kaso ay nabanggit ang”mundo ng pagkakaiba sa pagitan ng isang hindi nakuha na pagsipi at isang guni-guni na nabuo ng AI.”Ang isang bug sa Gmail’s AI ay hindi wastong isinalin ang mga email ng Aleman, na nagdudulot ng makabuluhang pagmamanipula ng nilalaman. Tulad ng isang analyst mula sa Labs Labs na nabanggit pagkatapos ng insidente ng cursor,”ipaalam sa mga gumagamit na’ang tugon na ito ay nabuo ng AI’ay malamang na isang hindi sapat na panukala upang mabawi ang katapatan ng gumagamit.”Ang retorika at katotohanan
Ang isang pag-aaral ng call center AI ay natagpuan na madalas itong lumikha ng mas maraming trabaho para sa mga ahente ng tao. Ang firm ng analyst na si Gartner ay nagbabalik din ng isang pangunahing forecast, ngayon