Premtimi i shërbimit ndaj klientit hiper-efikas, me AI, po përballet me një kontroll të rëndësishëm të realitetit. Megjithë investimet e rënda nga gjigantët e teknologjisë si Amazon dhe Salesforce, hulumtime të reja nga korriku 2025 zbulojnë se asistentët e AI në qendrat e thirrjeve shpesh krijojnë më shumë punë për homologët e tyre njerëzorë. Dështimet e profilit të lartë, të tilla si një politikë e kompanisë për shpikjen e BOT, nënvizojnë hendekun në rritje midis marketingut të teknologjisë dhe performancës së tij në botën reale. Ështja thelbësore është shkëputja midis automatizimit të premtuar dhe realitetit të mbikëqyrjes njerëzore që ende është thelbësore.
Një studim i fundit akademik nxjerr në pah këtë hendek. hulumtim i pranuar në Konferencën ACM CSCW 2025 ekzaminoi asistentët e AI në qendrën e thirrjeve të një ndërmarrje kineze. Gjetjet ishin të rrepta. AI luftoi me detyrat themelore si transkriptimi i thekseve dhe numrave me saktësi. Sistemi i njohjes së emocioneve të AI gjithashtu u gjet të jetë i pasigurt, shpesh keq klasifikues i të folurit normal si negativ. Ata duhej të korrigjonin manualisht përmbledhje të pasakta dhe të fshinin tekstin e tepërt. Autorët e studimit vunë re që kjo krijoi ngarkesa të reja”mësimore”dhe”pajtueshmërie”për përfaqësuesit e shërbimit të klientit (CSR). Kjo punë e fshehur kundërshton drejtpërdrejt fitimet e efikasitetit që shpesh janë justifikimi kryesor për miratimin e sistemeve të tilla të shtrenjta të AI në radhë të parë. Në prill 2025, kompania e redaktorit të kodit AI Cursor e përjetoi këtë të dorës së parë kur bot mbështetja e vet”halucinoi”një politikë të rreme. Bota u tha gabimisht përdoruesve abonimet e tyre ishin të kufizuara në një pajisje të vetme.
Informacioni i rremë u përhap me shpejtësi, duke shkaktuar reagimin e përdoruesit. Bashkëthemeluesi i kursorit Michael Truell duhej të lëshonte një Apologjia publike në platforma si Hacker News , duke konfirmuar:”Ne nuk kemi asnjë politikë të tillë.”Ai i atribuoi gabimit në bot e tyre të mbështetjes së AI të linjës së përparme.”Përgjigjet e sigurta, por të rreme të bot-it amplifikuan vetëm kaosin.
Incidenti shërben si një përrallë paralajmëruese. Thjesht etiketimi i përgjigjeve të AI nuk është i mjaftueshëm për t’i njoftuar përdoruesit se një përgjigje u krijua nga AI është një masë e pamjaftueshme për të rikuperuar besnikërinë e përdoruesit. Në qershor 2025, firma e analistit Gartner bëri një . Tani parashikon që deri në vitin 2027, gjysma e të gjitha organizatave që prisnin të zëvendësojnë stafin mbështetës me AI do të braktisin ato plane.
Konsensusi i ri tregon drejt një modeli hibrid. Kathy Ross, një analist i lartë i drejtorit në Gartner, argumenton se”një qasje hibride, ku AI dhe agjentët njerëzorë punojnë në të njëjtën kohë, është strategjia më efektive për ofrimin e përvojave të jashtëzakonshme të klientit”. Kjo qasje shfrytëzon AI për atë që bën mirë-Data e marrjes dhe detyrave rutinore-ndërsa ruan elementin thelbësor njerëzor për ndërveprime komplekse ose të ndjeshme. Fokusi tani është në krijimin e mjeteve që shtojnë agjentët njerëzorë, duke i bërë ata më efektivë sesa t’i bëjnë ata të vjetëruar. Ata vazhdojnë të tregtojnë dhe zhvillojnë platforma të sofistikuara të agjentëve të AI, duke i përshtatur ato si të ardhmen e punës dixhitale. Salesforce ka qenë veçanërisht agresive me platformën e saj AgentForce. Kjo pasoi disponueshmërinë e përgjithshme të platformës Core AgentForce në fund të vitit 2024. Kompania madje kontrollon një normë të zgjidhjes së vetë-shërbimit 96% nga vendosja e saj e brendshme, duke e pozicionuar veten si një përdorues kryesor të teknologjisë së vet. Ndërkohë, fillimet e financuara mirë si Decagon, të cilat mblodhën 35 milion dollarë në qershor 2024, po luftojnë gjithashtu për një pjesë të tregut në rritje. Konflikti Qendror mbetet i pazgjidhur: një treg i rrjedhshëm me investime dhe ambicie, megjithatë një teknologji që ende lufton me besueshmërinë themelore.