Zespoły obsługi klienta: Czy klienci korzystają z AI zanim się z Tobą skontaktują? Widzimy dużą zmianę w zapytaniach do wsparcia

Discussion Customer Service Support Strategy
SJ
SupportLead_Jennifer
Szefowa działu obsługi klienta · 31 grudnia 2025

Coś się zmieniło w naszej kolejce zgłoszeń. Przez ostatnie 6 miesięcy zauważyłam:

Zmiany, które widzimy:

  • Mniej prostych pytań „jak zrobić…”
  • Więcej złożonych, nietypowych zapytań
  • Klienci przychodzą z informacjami uzyskanymi od AI
  • Czasem klienci mają BŁĘDNE informacje od AI

Przykłady:

  • „ChatGPT powiedział mi, że wasz produkt potrafi X” (a nie potrafi)
  • „Już próbowałem kroków sugerowanych przez AI, nie zadziałały” (możemy zweryfikować, że faktycznie próbowali)
  • Pytania o funkcje, które byłyby przydatne, ale nie istnieją

Moje pytania:

  • Czy inne zespoły wsparcia też to widzą?
  • Jak radzicie sobie z klientami z błędnymi informacjami od AI?
  • Czy powinniśmy monitorować, co AI mówi o nas klientom?
  • Jak dostosować naszą strategię wsparcia?
10 comments

10 komentarzy

CM
CXDirector_Mark Ekspert Dyrektor ds. doświadczeń klienta · 31 grudnia 2025

Jennifer, to dzieje się w całej branży. Analizujemy to.

Nowa ścieżka klienta:

Dawniej: Problem → Google → Centrum pomocy firmy → Kontakt ze wsparciem Teraz: Problem → ChatGPT → (Może) Centrum pomocy firmy → Kontakt ze wsparciem

Co to zmienia:

  1. Proste pytania przekierowane – AI odpowiada na łatwe sprawy
  2. Zostają złożone zapytania – AI nie radzi sobie z nietypowymi przypadkami
  3. Przygotowani klienci – Już coś próbowali
  4. Wprowadzeni w błąd – AI podało złe informacje

Dane z naszego wsparcia:

Wskaźnik20242025Zmiana
Liczba zgłoszeń10 0008 500-15%
Złożone zgłoszenia3 0004 500+50%
Średni czas obsługi8 min12 min+50%
Rozwiązanie przy pierwszym kontakcie75%65%-10%

Mniej zgłoszeń, ale każde trwa dłużej, bo proste sprawy zniknęły.

SJ
SupportLead_Jennifer OP · 31 grudnia 2025
Replying to CXDirector_Mark

Te dane pokrywają się z naszym doświadczeniem. Wzrost o 50% w złożonych zgłoszeniach jest realny.

Jak radzicie sobie z przypadkami dezinformacji? Gdy klienci mówią „ChatGPT powiedział mi…”, a to jest nieprawda?

CM
CXDirector_Mark · 31 grudnia 2025
Replying to SupportLead_Jennifer

Jak radzimy sobie z dezinformacją AI:

  1. Nie obwiniamy klienta – Zaufali narzędziu, to zrozumiałe
  2. Wskazujemy źródło – „Rozumiem, że ChatGPT to zasugerował…”
  3. Delikatnie poprawiamy – „W rzeczywistości nasz produkt działa inaczej…”
  4. Podajemy dokumentację – Link do oficjalnych źródeł
  5. Raportujemy wzorce – Zbieramy częste nieporozumienia dla zespołu contentowego

Nasz proces:

Stworzyliśmy „rejestr błędnych przekonań AI”, do którego agenci wpisują wzorce. Najczęstsze eskalujemy do marketingu/zespołu treści.

Przykłady, które rozwiązaliśmy:

  • „AI mówi, że mamy nielimitowaną przestrzeń” → Uaktualniliśmy FAQ
  • „AI twierdzi, że integrujemy się z X” → Dodaliśmy jasne info, z czym NIE integrujemy się
  • „AI mówi, że nasza cena to X” → Zaktualizowaliśmy dane strukturalne z aktualnymi cenami
KR
KnowledgeManager_Rachel Menadżerka bazy wiedzy · 30 grudnia 2025

Perspektywa zarządzania wiedzą w kontekście zmian wywołanych AI:

Twoje treści pomocy szkolą teraz AI.

To, co znajduje się w centrum pomocy, dokumentacji i FAQ, jest tym, czego AI „uczy się” o Twoim produkcie. Jeśli Twoje treści są:

  • Niepełne → AI uzupełnia luki domysłami
  • Nieaktualne → AI podaje stare informacje
  • Niejasne → AI źle interpretuje

Rozwiązanie:

Traktuj treści pomocy jak dane treningowe dla AI. Muszą być:

  1. Kompleksowe (opisujące wszystkie funkcje)
  2. Aktualne (często odświeżane)
  3. Jasne (jednoznaczny język)
  4. Prawdziwe (zgodne z faktami)
  5. Wyraźnie wskazujące ograniczenia (czego NIE robicie)

Co zmieniliśmy:

Dodaliśmy sekcje takie jak:

  • „Czego [Produkt] NIE robi”
  • „Częste nieporozumienia dotyczące [Produktu]”
  • „Różnice między [Produktem] a [Konkurencją]”

To pomaga AI przekazywać trafne informacje ZANIM klienci skontaktują się ze wsparciem.

ST
SupportOps_Tom · 30 grudnia 2025

Perspektywa operacyjna na zmianę:

Wpływ na zatrudnienie:

Jeśli proste zgłoszenia maleją, a złożone rosną, potrzebujesz:

  • Mniej agentów pierwszej linii
  • Więcej specjalistów 2/3 linii
  • Innego szkolenia (złożone rozwiązywanie problemów zamiast odtwarzania procedur)
  • Większych oczekiwań co do czasu obsługi

Jak się dostosowaliśmy:

  1. Zmniejszyliśmy zespół 1. linii o 20%
  2. Awansowaliśmy najlepszych do 2. linii
  3. Zmieniliśmy metryki sukcesu (czas obsługi → jakość rozwiązania)
  4. Stworzyliśmy workflow „eskalacji AI” dla przypadków dezinformacji

Rzeczywistość kosztowa:

Niższy wolumen, ale większa złożoność = mniej więcej ten sam koszt całkowity ALE satysfakcja klienta wzrosła, bo mniej prostych zgłoszeń oznacza krótszy czas oczekiwania na złożone sprawy.

CL
ContentStrategist_Linda Ekspert · 30 grudnia 2025

Strategia treści, by ograniczyć dezinformację AI:

Problem: AI to czarna skrzynka – nie możesz jej bezpośrednio poprawić. ALE możesz wpływać na to, czego się „uczy”.

Co robimy:

  1. Kompleksowe FAQ – Każde często zadawane pytanie jasno wyjaśnione
  2. Wyraźne ograniczenia – Czego NIE robimy, jasno opisane
  3. Dane o cenach w schemacie – Aktualne ceny w danych strukturalnych
  4. Opisy funkcji – Jasny, jednoznaczny język
  5. Treści porównawcze – Jak różnimy się od konkurencji

Monitoring:

Używamy Am I Cited do śledzenia, co AI mówi użytkownikom o nas. Gdy zauważymy dezinformację:

  1. Tworzymy/aktualizujemy treść na ten temat
  2. Dodajemy do FAQ, jeśli to częste pytanie
  3. Czekamy 4-8 tygodni, aż AI „nauczy się” poprawki
  4. Monitorujemy poprawę

To nie jest natychmiastowe, ale można systematycznie korygować rozumienie produktu przez AI.

AK
AIImplementer_Kevin · 29 grudnia 2025

Wdrożyliśmy AI w naszym workflow wsparcia. Oto wpływ:

Model wsparcia wspieranego przez AI:

  1. Klient zaczyna czat
  2. Bot AI obsługuje pierwszy kontakt
  3. Jeśli AI nie rozwiąże – eskalacja do człowieka
  4. Człowiek widzi, jakie rozwiązania już próbował AI

Efekty:

WskaźnikPrzed botem AIPo bocie AI
Zgłoszenia ludzkie100%40%
Satysfakcja klienta78%82%
Czas pierwszej odpowiedzi4 godz.Natychmiast
Czas obsługi przez człowieka8 min15 min

Kluczowy wniosek:

Gdy klient trafia do człowieka, już:

  • Opisał problem AI
  • Próbował rozwiązań AI
  • Potwierdził, co nie działa

Agenci zaczynają z pełnym kontekstem. Jest trudniej, ale wydajniej.

CS
CustomerVoice_Sarah · 29 grudnia 2025

Perspektywa badań klientów:

Przebadaliśmy 500 klientów pod kątem użycia AI przed kontaktem ze wsparciem:

ZachowanieProcent
Najpierw użyli AI62%
Próbowało rozwiązań AI48%
AI odpowiedziało na pytanie35%
AI podało błędne informacje18%
Wspomnieli o AI agentowi41%

Segment „AI-first”:

Zwykle to osoby:

  • Obyte z technologią
  • Wolące samoobsługę
  • Bardziej sfrustrowane, gdy JUŻ kontaktują się ze wsparciem (bo „proste” rozwiązania zawiodły)
  • Bardziej precyzyjne w opisie problemu

Implikacja:

Kiedy do Ciebie trafiają, są często bardziej sfrustrowani, ale też lepiej opisują problem.

SM
SupportTrainer_Mike · 28 grudnia 2025

Perspektywa szkoleniowa przy obsłudze klientów pod wpływem AI:

Nowe umiejętności potrzebne agentom:

  1. Świadomość AI – Wiedza, co AI może, a czego nie
  2. Radzenie sobie z nieporozumieniami – Poprawianie bez zawstydzania
  3. Zbieranie kontekstu – „Co już Pan(i) próbował(a)?”
  4. Umiejętność dokumentowania – Zgłaszanie przypadków związanych z AI
  5. Ocena eskalacji – Kiedy dezinformacja AI wymaga aktualizacji treści

Moduły szkoleniowe, które dodaliśmy:

  • „Zrozumienie klienta AI-first”
  • „Radzenie sobie z dezinformacją AI z wyczuciem”
  • „Co AI mówi klientom o naszym produkcie” (na podstawie monitoringu Am I Cited)
  • „Rejestrowanie wzorców dla poprawy treści”

Zmiana kulturowa:

Agenci widzą się teraz jako część pętli zwrotnej. Ich obserwacje dot. dezinformacji AI trafiają do zespołu treści, który aktualizuje dokumenty, co poprawia trafność AI.

SJ
SupportLead_Jennifer OP Szefowa działu obsługi klienta · 28 grudnia 2025

Ten wątek potwierdził moje podejrzenia i dał konkretne strategie. Najważniejsze wnioski:

Rzeczywistość:

  • AI przekierowuje proste zapytania (15% mniej zgłoszeń)
  • Rośnie liczba złożonych zapytań (+50%)
  • Czas obsługi rośnie (proste sprawy znikają)
  • Dezinformacja tworzy nowe wyzwania

Strategie do wdrożenia:

Krótkoterminowo:

  1. Stworzyć „rejestr błędnych przekonań AI” dla agentów
  2. Przeszkolić zespół w obsłudze klientów pod wpływem AI
  3. Dostosować metryki sukcesu, nie skupiać się wyłącznie na czasie obsługi
  4. Zacząć monitorować, co AI mówi o nas

Średnioterminowo:

  1. Zaktualizować treści pomocy, by były „przyjazne dla AI”
  2. Dodać jasne informacje o tym, czego NIE robimy
  3. Stworzyć pętlę zwrotną od wsparcia do zespołu treści
  4. Rozważyć model wsparcia wspieranego przez AI

Długoterminowo:

  1. Przebudować zespół pod obsługę złożonych zgłoszeń
  2. Zmienić rekrutację na umiejętności rozwiązywania problemów
  3. Zbudować systematyczny monitoring informacji AI

Dane z ankiety pokazujące, że 62% najpierw używa AI, są znaczące. To nie jest trend – to nowa norma.

Dziękuję wszystkim za operacyjne i strategiczne wskazówki.

Najczęściej zadawane pytania

Jak AI wpływa na zapytania do obsługi klienta?

AI zmienia obsługę klienta na kilka sposobów: klienci przychodzą przygotowani z informacjami od ChatGPT, proste zapytania są rozwiązywane przed kontaktem ze wsparciem, standardem stają się złożone pytania, klienci czasem mają błędne informacje od AI, które wymagają sprostowania, a ogólne wzorce zgłoszeń przesuwają się w stronę bardziej złożonych problemów.

Czy klienci korzystają z AI zanim skontaktują się ze wsparciem?

Tak, coraz więcej klientów korzysta z AI zanim skontaktują się ze wsparciem. Wielu klientów przychodzi już z konkretnymi informacjami, rozwiązaniami, które już wypróbowali, lub pytaniami, na które AI nie potrafiło odpowiedzieć. To zmienia dynamikę wsparcia – agenci obsługują bardziej złożone zapytania, a proste są przekierowywane do samoobsługi AI.

Czy firmy powinny monitorować, co AI mówi klientom na ich temat?

Tak, monitorowanie odpowiedzi AI na temat Twojej firmy jest ważne dla obsługi klienta. Jeśli AI przekazuje błędne informacje, klienci przychodzą zdezorientowani lub z błędnymi oczekiwaniami. Zrozumienie, co AI mówi klientom, pomaga zespołom wsparcia przygotować się na częste nieporozumienia i zapewnia, że ekosystem informacji AI o Twojej marce jest dokładny.

Monitoruj swoją markę w badaniach klientów

Śledź, co AI mówi klientom o Twojej firmie zanim skontaktują się ze wsparciem. Zrozum, jakie informacje klienci otrzymują od ChatGPT i Perplexity.

Dowiedz się więcej

Nasze treści wsparcia nie są cytowane przez AI – co robimy źle?

Nasze treści wsparcia nie są cytowane przez AI – co robimy źle?

Dyskusja społeczności na temat optymalizacji treści wsparcia pod kątem widoczności w AI. Zespoły wsparcia i tworzenia treści dzielą się strategiami, jak sprawić...

7 min czytania
Discussion Support Content +1