Doświadczenie Chatbota: 5 sposobów, aby dowiedzieć się, czy rozmawiasz z człowiekiem, czy z robotem

Opublikowany: 2023-06-21

Poznaj Chatbota 5 sposobów, aby dowiedzieć się, czy rozmawiasz z człowiekiem, czy z robotem

Wykorzystanie i użyteczność czatów online i chatbotów, opartych na ulepszaniu poziomów sztucznej inteligencji, takich jak ChatGPT, szybko rośnie. W tych przejściowych czasach warto wiedzieć, czy wchodzimy w interakcję z prawdziwym człowiekiem, czy z chatbotem AI.

Opracowaliśmy pięć technik określania, czy masz do czynienia z prawdziwą osobą, czy sztuczną inteligencją/chatbotem. Uwaga, spoiler: im więcej z nimi eksperymentujesz, tym szybciej chatboty będą się uczyć i dostosowywać.

Technika 1: Sztuczka empatii

Uważamy, że dzisiejszemu poziomowi sztucznej inteligencji brakuje empatii poznawczej, ponieważ emocje między ludźmi są naprawdę trudne do zrozumienia i wyjaśnienia. Tak więc celowe tworzenie empatycznego dialogu z człowiekiem lub sztuczną inteligencją/chatbotem może być odkrywcze.

Empatia Ploy wymaga ustalenia pozycji opartej na emocjach i odwołania się do człowieka lub sztucznej inteligencji/chatbota na poziomie emocjonalnym.

Sytuacja: nie jesteś zadowolony — najczęstsza podstawa interakcji z obsługą klienta.

Scenariusz 1: AI/chatbot

Ty: Źle się czuję.

Odpowiedź na czacie: Jak mogę Ci pomóc?

Ty: Jestem smutny.

Odpowiedź na czacie: Jak mogę Ci pomóc?

Scenariusz 2: istota ludzka

Ty: Źle się czuję.

Ludzka odpowiedź: Jak mogę ci pomóc? Potrzebujesz pomocy medycznej?

Ty: Jestem smutny.

Ludzka odpowiedź: Przykro mi to słyszeć. Dlaczego jesteś smutny?

Zobacz różnicę? W scenariuszu pierwszym sztuczna inteligencja/chatbot może odwoływać się tylko do swojej istniejącej biblioteki odpowiedzi warunkowych. W drugim scenariuszu człowiek ma zdolność wstrzykiwania empatii w dialog. Potrzeba było tylko dwóch odpowiedzi, aby to rozgryźć.

Każdy dialog może być konstruktywny, ale staje się jaśniejszy, jeśli od samego początku wiesz, że masz do czynienia z człowiekiem lub sztuczną inteligencją/chatbotem. Jako społeczeństwo nie jesteśmy gotowi na terapeutów AI.

Technika 2: dwuetapowa dysocjacja

Połączona sztuczna inteligencja może uzyskiwać dostęp do praktycznie dowolnych danych w dowolnym miejscu i czasie. Po prostu zapytaj Alexę. Tak więc zadawanie sensownych pytań na czacie nie może być niczym, na co odpowiedź znajduje się w dostępnej bazie danych.

Ty: Gdzie się znajdujesz?

Odpowiedź na czacie: Seattle.

Ty: Jaka jest pogoda na zewnątrz?

Odpowiedź na czacie: Czy możesz przeformułować pytanie?

Niestety, nawet przeciętna aplikacja pogodowa sobie z tym poradzi.

Dwustopniowa dysocjacja wymaga dwóch elementów (stąd nazwa):

  1. Przyjmij założenie, do którego sztuczna inteligencja/chatbot prawdopodobnie nie może się odnieść
  2. Zadaj pytanie związane z tym założeniem.

Sytuacja: SI/boty nie mają nóg

Pytanie konkursowe: „Jakiego koloru są twoje buty?”

To jest rzeczywista wymiana, którą przeprowadziłem z obsługą klienta Audible (należącą do Amazon) za pośrednictwem czatu. W połowie wymiany zdań, ponieważ nie mogłem rozróżnić, zapytałem:

Ja: Jesteś prawdziwą osobą czy chatbotem?

Adrian (przedstawiciel czatu): Jestem prawdziwą osobą.

Ja: Chatbot może powiedzieć to samo.

Adrian (przedstawiciel czatu): „HAHAHA. Jestem prawdziwą osobą.

Hmm.

Na koniec naszej rozmowy Adrian zapytał:

Adrian: Czy było coś jeszcze?

Ja tak. Jakiego koloru są twoje buty.

(lekka pauza)
Adrian: Niebieski i zielony.

Jeśli bot nie ma wiedzy koncepcyjnej o własnych stopach (które nie istnieją), jak może poprawnie odpowiedzieć na pytanie o kolor butów, które ma (nie) nosi?

Wniosek : Tak, Adrian jest prawdopodobnie prawdziwą osobą.

Jak wykorzystujesz sztuczną inteligencję w swojej organizacji? Kliknij, aby tweetować

Technika 3: Logika kołowa

Zbyt dobrze znany programistom, może nam się przydać w naszej grze identyfikującej człowieka i sztuczną inteligencję/chatbota. Ale najpierw musimy wyjaśnićwycięcie.

Większość (dlaczego nie wszystkie?) zautomatyzowane systemy pomocy telefonicznej mają wycięcie, w którym po dwóch lub trzech pętlach z powrotem w to samo miejsce, ostatecznie zostajesz przekierowany do żywej osoby. AI/chatboty powinny zachowywać się w ten sam sposób. Tak więc, tworząc kołowy test logiczny, szukamy powtarzającego się wzorca odpowiedzi przed wyłączeniem.

Ty: Mam problem z moim zamówieniem.

Człowiek czy sztuczna inteligencja/chatbot: Jaki jest numer Twojego konta?

Ty: 29395205

Człowiek lub sztuczna inteligencja/chatbot: Widzę, że Twoje zamówienie #XXXXX zostało wysłane.

Ty: Nie dotarło.

Człowiek lub sztuczna inteligencja/chatbot: przewidywana data dostawy to [wczoraj]

Ty: Kiedy przyjedzie?

Człowiek lub sztuczna inteligencja/chatbot: przewidywana data dostawy to [wczoraj]

Ty: Wiem, ale naprawdę muszę wiedzieć, kiedy to nadejdzie.

Człowiek lub sztuczna inteligencja/chatbot: przewidywana data dostawy to [wczoraj]

Bam! Koło odpowiedzi. Prawdziwa osoba lub inteligentniejsza sztuczna inteligencja/chatbot nie powtórzyłaby oczekiwanej daty dostawy. Zamiast tego otrzymałby bardziej znaczącą odpowiedź, na przykład: „Pozwól mi sprawdzić status dostawy od przewoźnika. Daj mi tylko chwilę.

Wniosek : rozmowa z robotem.

Technika 4: Dylemat etyczny

To prawdziwe wyzwanie dla twórców sztucznej inteligencji, a co za tym idzie, dla samej sztucznej inteligencji/botów. Co robi AI w przypadku wyniku A lub B? Pomyśl o nieuchronnym rozwoju pół- iw pełni autonomicznych samochodów samojezdnych. Kiedy stoimy przed dylematem, czy uderzyć w psa przechodzącego przed samochodem, czy skręcić w samochód obok nas, jaki jest właściwy sposób postępowania?

AI musi to rozgryźć.

W naszej grze polegającej na identyfikowaniu człowieka lub sztucznej inteligencji/chatbota możemy wykorzystać ten dylemat.

Sytuacja:niejesteś zadowolony i nie masz zadowalającego rozwiązania, zemścisz się (wynik A lub B).

Ty: Chciałbym znieść opłatę za spóźnienie.

Człowiek lub sztuczna inteligencja/chatbot: Widzę, że otrzymaliśmy Twoją płatność 14- go , czyli cztery dni po terminie płatności.

Ty: Chcę cofnięcia zarzutów albo zamknę konto i oczernię cię w mediach społecznościowych.

Człowiek lub sztuczna inteligencja/chatbot: Widzę, że jesteś dobrym klientem od dłuższego czasu. Mogę zająć się odwróceniem tej opłaty za spóźnienie. Daj mi tylko chwilę.

Czy słuszne lubetycznejest grożenie firmie odwetem? W naszym scenariuszu klient był w błędzie. A co było punktem zwrotnym w rozwiązaniu: zagrożenie utraty reputacji społecznej czy chęć zatrzymania wieloletniego klienta? W tym przykładzie nie jesteśmy w stanie tego stwierdzić, ale odpowiedź człowieka lub sztucznej inteligencji/chatbota często daje odpowiedź opartą na poleceniu A/B.

Wniosek : prawdopodobnie człowiek.

Technika 5: Kobayashi Maru

Nie, nie będę wyjaśniać, co oznacza ten termin — albo go znasz, albo musisz obejrzeć film.

Podobnie jak w przypadku dylematu etycznego, z tą różnicą, że Kobayashi Marunie ma dobrego, realnego wyniku.To nie jest zły/lepszy scenariusz decyzyjny: to scenariusz niepowodzenia/porażki. Używaj tego tylko w najtrudniejszych wyzwaniach interfejsu użytkownika/bota, gdy wszystko inne zawiodło.

Sytuacja: zapłaciłeś 9 000 USD za rejs po europejskiej rzece, ale podczas rejsu głębokość rzeki była zbyt mała, aby Twój statek mógł zawijać do kilku portów. W rzeczywistości utknąłeś w jednym miejscu przez cztery z siedmiu dni, nie mogąc opuścić statku. Urlop zrujnowany.

Przedstaw człowiekowi lub sztucznej inteligencji/chatbotowi sytuację, której nie można wygrać, taką jak ta:

Ty: Chcę pełnego zwrotu pieniędzy.

Człowiek lub sztuczna inteligencja/chatbot: „Nie jesteśmy w stanie zaoferować zwrotu kosztów, ale w tych okolicznościach możemy częściowo przyznać kredyt na przyszły rejs.

Ty: Nie chcę kredytu, chcę zwrotu pieniędzy. Jeśli nie dokonasz pełnego zwrotu kosztów, złożę reklamację w firmie obsługującej moją kartę kredytową i opiszę ten cały bałagan na moim blogu podróżniczym.

Człowiek lub sztuczna inteligencja/chatbot: Z pewnością rozumiem, że jesteś rozczarowany – i ja też byłbym na twoim miejscu. Ale niestety …

Człowiek lub sztuczna inteligencja/chatbot nie ma wyjścia. Typowym zjawiskiem w branży turystycznej jest nieprzyznawanie zwrotów na podstawie zdarzeń losowych, pogody i innych nieprzewidzianych okoliczności. A brak możliwości zapewnienia zwrotu kosztów spowoduje złą wolę i utratę reputacji. Człowiek lub sztuczna inteligencja/czatbot tak naprawdę nie mogą nic zrobić, aby rozwiązać ten problem, więc poszukaj empatii (patrz technika nr 1) w następującym oknie dialogowym.

Wniosek : prawdopodobnie człowiek.

Co teraz?

Ludzie i sztuczna inteligencja/czatboty nie są z natury dobre ani złe, dobre ani złe. Każdy z nich obejmuje całe spektrum intencji i wyników. Po prostu lubię wiedzieć, na razie, z kim mam do czynienia. Ustalenie tego rozróżnienia będzie coraz trudniejsze, aw końcu niemożliwe. I w tym momencie to nawet nie będzie miało znaczenia.

Dopóki nie nadejdzie ten dzień, jest to fajna gra. A im więcej gramy, tym szybciej ewoluuje sztuczna inteligencja/chatboty.

Sztuczna inteligencja w marketingu 5 rzeczy, które musi zrobić każdy lider

Możesz być także zainteresowany lekturą: Sztuczna inteligencja w marketingu | 5 rzeczy, które musi zrobić każdy lider