Ang pangako ng hyper-effective, AI-powered customer service ay nahaharap sa isang makabuluhang tseke ng katotohanan. Sa kabila ng mabibigat na pamumuhunan mula sa mga higanteng tech tulad ng Amazon at Salesforce, ang bagong pananaliksik mula Hulyo 2025 ay nagpapakita na ang mga katulong sa AI sa mga call center ay madalas na lumikha ng mas maraming trabaho para sa kanilang mga katapat na tao. Ang mga pagkabigo sa high-profile, tulad ng isang patakaran sa pag-imbento ng kumpanya ng suporta sa kumpanya, ay binibigyang diin ang lumalagong agwat sa pagitan ng marketing ng teknolohiya at ang pagganap ng tunay na mundo. Ang pangunahing isyu ay ang pagkakakonekta sa pagitan ng ipinangakong automation at ang katotohanan ng pangangasiwa ng tao ay mahalaga pa rin. Ang kamakailang pag-aaral sa akademiko ay nagtatampok sa puwang na ito. Ang pananaliksik na tinanggap sa kumperensya ng ACM CSCW 2025 Sinuri ang mga katulong sa AI sa isang sentro ng tawag sa utility ng isang Intsik. Ang mga natuklasan ay stark. Ang AI ay nakipaglaban sa mga pangunahing gawain tulad ng pag-transcribe ng mga accent at numero nang tumpak. Ang sistema ng pagkilala sa emosyon ng AI ay natagpuan din na hindi maaasahan, madalas na maling pag-iwas sa normal na pagsasalita bilang negatibo. Kailangang manu-manong iwasto nila ang hindi tumpak na mga buod at tanggalin ang kalabisan na teksto. Nabanggit ng mga may-akda ng pag-aaral na lumikha ito ng mga bagong”pag-aaral”at”pagsunod”na pasanin para sa mga kinatawan ng serbisyo sa customer (CSR). Ang nakatagong paggawa na ito ay direktang sumasalungat sa mga nakuha na kahusayan na madalas na pangunahing katwiran para sa pag-ampon ng mga mamahaling sistema ng AI sa unang lugar. Noong Abril 2025, naranasan ng kumpanya ng editor ng AI code na si Cursor ang una nang ang sarili nitong suporta na”hallucinated”isang pekeng patakaran. Hindi wastong sinabi ng bot sa mga gumagamit ang kanilang mga subscription ay limitado sa isang solong aparato.

Ang maling impormasyon ay mabilis na kumalat, na nagiging sanhi ng backlash ng gumagamit. Ang co-founder ng cursor na si Michael Truell ay kailangang mag-isyu ng isang pampublikong paghingi ng tawad sa mga platform tulad ng Hacker News , na nagpapatunay,”Wala kaming ganoong patakaran.”Inilahad niya ang error sa kanilang”front-line AI Support Bot.”Ang tiwala ng bot ngunit maling mga sagot ay nagpalakas lamang sa kaguluhan. Ang pag-label lamang ng mga tugon ng AI ay hindi sapat upang ipaalam sa mga gumagamit na ang isang tugon ay nabuo ng AI ay isang hindi sapat na panukala upang mabawi ang katapatan ng gumagamit. Noong Hunyo 2025, ang firm ng analyst na si Gartner ay gumawa ng isang