Studie finner att AI i kundtjänst skapar fler problem än det löser

Löftet om hypereffektiv, AI-driven kundtjänst står inför en betydande verklighetskontroll. Trots stora investeringar från teknikjättar som Amazon och Salesforce visar ny forskning från juli 2025 att AI-assistenter i callcenter ofta skapar mer arbete åt sina mänskliga motsvarigheter.

Detta fynd förstärks av en färsk Gartner-prognos som minskar förutsägelser om AI som ersätter mänskliga agenter. Uppmärksammade misslyckanden, som en supportrobot som uppfinner företagets policy, understryker den växande klyftan mellan teknikens marknadsföring och dess verkliga prestanda.

Dessa bristfälliga system kan belasta anställda, skada förtroendet och alienera just de kunder som de är avsedda att betjäna. Kärnfrågan är kopplingen mellan utlovad automatisering och verkligheten av mänsklig tillsyn som fortfarande är väsentlig.

AI:s effektivitetslöfte kontra den röriga verkligheten

En färsk akademisk studie belyser denna klyfta.Forskning accepterad till ACM CSCW 2025-konferensenundersökte AI-assistenter på ett kinesiskt verktygs callcenter. Fynden var skarpa. AI:n kämpade med grundläggande uppgifter som att transkribera accenter och siffror korrekt.

SLÄKT:Vilken tid stänger Walmart Service Desk? Kundtjänst timme

Specifika misslyckanden inkluderade att misstolka homofoner, dela upp telefonnummer i värdelösa fragment och att misslyckas med att förstå uppringare med starka regionala accenter. AI:s emotion-igenkänningssystem visade sig också vara opålitligt, ofta felaktigt klassificerat normalt tal som negativt.

Detta tvingade mänskliga agenter till en ny roll: ständiga faktagranskare. De var tvungna att manuellt korrigera felaktiga sammanfattningar och radera överflödig text. Studiens författare noterade att detta skapade nya bördor för "inlärning" och "efterlevnad" för kundtjänstrepresentanterna (CSR).

Forskarna drog slutsatsen att "Obalansen mellan tekniska förväntningar och faktisk implementering återspeglar en vanlig förbiseende bland teknikdesigners, som överskattar effektivitetsvinster samtidigt som de underskattar de implicita inlärningsbördan för att anpassa sig till nya system." Detta dolda arbete motsäger direkt effektivitetsvinsterna som ofta är den primära motiveringen för att anta sådana dyra AI-system i första hand.

When Good Bots Go Bad: The High Cost of Hallucinations

Riskerna sträcker sig bortom ineffektivitet och till varumärkesskador. I april 2025 upplevde AI-kodredigeringsföretaget Cursor detta på egen hand när dess egen supportbot "hallucinerade" en falsk policy. Boten berättade felaktigt för användarna att deras prenumerationer var begränsade till en enda enhet.

Den falska informationen spred sig snabbt och orsakade bakslag från användare. Markörens medgrundare Michael Truell var tvungen att utfärda ettoffentlig ursäkt på plattformar som Hacker News, som bekräftar, "Vi har ingen sådan policy." Han tillskrev felet till deras "front-line AI support bot."

För att förvärra problemet orsakade en genuin teknisk bugg relaterad till sessionssäkerhet separata inloggningsproblem, vilket skapade en perfekt storm av användarfrustration. Botens självsäkra men falska svar förstärkte bara kaoset.

Händelsen fungerar som en varnande berättelse. Att bara märka AI-svar är inte tillräckligt för att låta användarna veta att ett svar genererades av AI är en otillräcklig åtgärd för att återställa användarlojalitet.

Från utbyte till förstärkning: en skiftande industrikonsensus

Denna blandning av akademiska resultat och offentliga misslyckanden underblåser en bredare förändring i branschens tänkande. I juni 2025 gjorde analytikerföretaget Gartner enbetydande revidering av en tidigare prognos. Den förutspår nu att 2027 kommer hälften av alla organisationer som förväntade sig att ersätta supportpersonal med AI att överge dessa planer.

Den nya konsensus pekar mot en hybridmodell. Kathy Ross, senior direktörsanalytiker på Gartner, hävdar att "En hybrid metod, där AI och mänskliga agenter arbetar tillsammans, är den mest effektiva strategin för att leverera exceptionella kundupplevelser." Detta tillvägagångssätt utnyttjar AI för vad den gör bra – datahämtning och rutinuppgifter – samtidigt som det väsentliga mänskliga elementet bevaras för komplexa eller känsliga interaktioner.

Denna pivot erkänner att den initiala visionen om helt autonom, människofri kundservice var för tidig. Fokus ligger nu på att skapa verktyg som förstärker mänskliga agenter, vilket gör dem mer effektiva snarare än att göra dem föråldrade.

Big Techs oförminskade push in i AI-agenter

Trots dessa utmaningar saktar inte stora teknikföretag in. De fortsätter att marknadsföra och utveckla sofistikerade AI-agentplattformar, och framställer dem som framtiden för digitalt arbete. Salesforce har varit särskilt aggressiv med sin Agentforce-plattform.

I maj 2025 lanserade företaget Agentforce for HR Service, designat för att automatisera internt medarbetarstöd. Detta följde den allmänna tillgängligheten av Agentforces kärnplattform i slutet av 2024.

Salesforces Kishan Chetan, EVP & GM för Service Cloud, hävdade, "Salesforce leder den här digitala arbetsrevolutionen över branscher, och nu tar vi Agentforce-kompetens och -åtgärder till HR-service så att företag kan påskynda förfrågningar och skala personalstöd när resurserna är begränsade." Företaget hyllar till och med en upplösningsgrad på 96 % från sin egen interna distribution, vilket positionerar sig som en primär användare av sin egen teknik.

Amazon är också en nyckelspelare, efter att ha förbättrat sin Amazon Connect-plattform med nya generativa AI-funktioner. Samtidigt tävlar välfinansierade startups som Decagon, som samlade in 35 miljoner dollar i juni 2024, också om en del av den växande marknaden. Den centrala konflikten förblir olöst: en marknad som präglas av investeringar och ambitioner, men ändå en teknik som fortfarande kämpar med grundläggande tillförlitlighet.

Related Posts