Doświadczenie Chatbota: 5 sposobów, aby dowiedzieć się, czy rozmawiasz z człowiekiem, czy z robotem
Opublikowany: 2023-06-21Wykorzystanie i użyteczność czatów online i chatbotów, opartych na ulepszaniu poziomów sztucznej inteligencji, takich jak ChatGPT, szybko rośnie. W tych przejściowych czasach warto wiedzieć, czy wchodzimy w interakcję z prawdziwym człowiekiem, czy z chatbotem AI.
Opracowaliśmy pięć technik określania, czy masz do czynienia z prawdziwą osobą, czy sztuczną inteligencją/chatbotem. Uwaga, spoiler: im więcej z nimi eksperymentujesz, tym szybciej chatboty będą się uczyć i dostosowywać.
Technika 1: Sztuczka empatii
Uważamy, że dzisiejszemu poziomowi sztucznej inteligencji brakuje empatii poznawczej, ponieważ emocje między ludźmi są naprawdę trudne do zrozumienia i wyjaśnienia. Tak więc celowe tworzenie empatycznego dialogu z człowiekiem lub sztuczną inteligencją/chatbotem może być odkrywcze.
Empatia Ploy wymaga ustalenia pozycji opartej na emocjach i odwołania się do człowieka lub sztucznej inteligencji/chatbota na poziomie emocjonalnym.
Sytuacja: nie jesteś zadowolony — najczęstsza podstawa interakcji z obsługą klienta.
Scenariusz 1: AI/chatbot
Ty: Źle się czuję.
Odpowiedź na czacie: Jak mogę Ci pomóc?
Ty: Jestem smutny.
Odpowiedź na czacie: Jak mogę Ci pomóc?
Scenariusz 2: istota ludzka
Ty: Źle się czuję.
Ludzka odpowiedź: Jak mogę ci pomóc? Potrzebujesz pomocy medycznej?
Ty: Jestem smutny.
Ludzka odpowiedź: Przykro mi to słyszeć. Dlaczego jesteś smutny?
Zobacz różnicę? W scenariuszu pierwszym sztuczna inteligencja/chatbot może odwoływać się tylko do swojej istniejącej biblioteki odpowiedzi warunkowych. W drugim scenariuszu człowiek ma zdolność wstrzykiwania empatii w dialog. Potrzeba było tylko dwóch odpowiedzi, aby to rozgryźć.
Każdy dialog może być konstruktywny, ale staje się jaśniejszy, jeśli od samego początku wiesz, że masz do czynienia z człowiekiem lub sztuczną inteligencją/chatbotem. Jako społeczeństwo nie jesteśmy gotowi na terapeutów AI.
Technika 2: dwuetapowa dysocjacja
Połączona sztuczna inteligencja może uzyskiwać dostęp do praktycznie dowolnych danych w dowolnym miejscu i czasie. Po prostu zapytaj Alexę. Tak więc zadawanie sensownych pytań na czacie nie może być niczym, na co odpowiedź znajduje się w dostępnej bazie danych.
Ty: Gdzie się znajdujesz?
Odpowiedź na czacie: Seattle.
Ty: Jaka jest pogoda na zewnątrz?
Odpowiedź na czacie: Czy możesz przeformułować pytanie?
Niestety, nawet przeciętna aplikacja pogodowa sobie z tym poradzi.
Dwustopniowa dysocjacja wymaga dwóch elementów (stąd nazwa):
- Przyjmij założenie, do którego sztuczna inteligencja/chatbot prawdopodobnie nie może się odnieść
- Zadaj pytanie związane z tym założeniem.
Sytuacja: SI/boty nie mają nóg
Pytanie konkursowe: „Jakiego koloru są twoje buty?”
To jest rzeczywista wymiana, którą przeprowadziłem z obsługą klienta Audible (należącą do Amazon) za pośrednictwem czatu. W połowie wymiany zdań, ponieważ nie mogłem rozróżnić, zapytałem:
Ja: Jesteś prawdziwą osobą czy chatbotem?
Adrian (przedstawiciel czatu): Jestem prawdziwą osobą.
Ja: Chatbot może powiedzieć to samo.
Adrian (przedstawiciel czatu): „HAHAHA. Jestem prawdziwą osobą.
Hmm.
Na koniec naszej rozmowy Adrian zapytał:
Adrian: Czy było coś jeszcze?
Ja tak. Jakiego koloru są twoje buty.
(lekka pauza)
Adrian: Niebieski i zielony.
Jeśli bot nie ma wiedzy koncepcyjnej o własnych stopach (które nie istnieją), jak może poprawnie odpowiedzieć na pytanie o kolor butów, które ma (nie) nosi?
Wniosek : Tak, Adrian jest prawdopodobnie prawdziwą osobą.
Jak wykorzystujesz sztuczną inteligencję w swojej organizacji? Kliknij, aby tweetowaćTechnika 3: Logika kołowa
Zbyt dobrze znany programistom, może nam się przydać w naszej grze identyfikującej człowieka i sztuczną inteligencję/chatbota. Ale najpierw musimy wyjaśnićwycięcie.
Większość (dlaczego nie wszystkie?) zautomatyzowane systemy pomocy telefonicznej mają wycięcie, w którym po dwóch lub trzech pętlach z powrotem w to samo miejsce, ostatecznie zostajesz przekierowany do żywej osoby. AI/chatboty powinny zachowywać się w ten sam sposób. Tak więc, tworząc kołowy test logiczny, szukamy powtarzającego się wzorca odpowiedzi przed wyłączeniem.
Ty: Mam problem z moim zamówieniem.
Człowiek czy sztuczna inteligencja/chatbot: Jaki jest numer Twojego konta?
Ty: 29395205
Człowiek lub sztuczna inteligencja/chatbot: Widzę, że Twoje zamówienie #XXXXX zostało wysłane.
Ty: Nie dotarło.
Człowiek lub sztuczna inteligencja/chatbot: przewidywana data dostawy to [wczoraj]
Ty: Kiedy przyjedzie?
Człowiek lub sztuczna inteligencja/chatbot: przewidywana data dostawy to [wczoraj]
Ty: Wiem, ale naprawdę muszę wiedzieć, kiedy to nadejdzie.
Człowiek lub sztuczna inteligencja/chatbot: przewidywana data dostawy to [wczoraj]
Bam! Koło odpowiedzi. Prawdziwa osoba lub inteligentniejsza sztuczna inteligencja/chatbot nie powtórzyłaby oczekiwanej daty dostawy. Zamiast tego otrzymałby bardziej znaczącą odpowiedź, na przykład: „Pozwól mi sprawdzić status dostawy od przewoźnika. Daj mi tylko chwilę.
Wniosek : rozmowa z robotem.
Technika 4: Dylemat etyczny
To prawdziwe wyzwanie dla twórców sztucznej inteligencji, a co za tym idzie, dla samej sztucznej inteligencji/botów. Co robi AI w przypadku wyniku A lub B? Pomyśl o nieuchronnym rozwoju pół- iw pełni autonomicznych samochodów samojezdnych. Kiedy stoimy przed dylematem, czy uderzyć w psa przechodzącego przed samochodem, czy skręcić w samochód obok nas, jaki jest właściwy sposób postępowania?
AI musi to rozgryźć.
W naszej grze polegającej na identyfikowaniu człowieka lub sztucznej inteligencji/chatbota możemy wykorzystać ten dylemat.
Sytuacja:niejesteś zadowolony i nie masz zadowalającego rozwiązania, zemścisz się (wynik A lub B).
Ty: Chciałbym znieść opłatę za spóźnienie.
Człowiek lub sztuczna inteligencja/chatbot: Widzę, że otrzymaliśmy Twoją płatność 14- go , czyli cztery dni po terminie płatności.
Ty: Chcę cofnięcia zarzutów albo zamknę konto i oczernię cię w mediach społecznościowych.
Człowiek lub sztuczna inteligencja/chatbot: Widzę, że jesteś dobrym klientem od dłuższego czasu. Mogę zająć się odwróceniem tej opłaty za spóźnienie. Daj mi tylko chwilę.
Czy słuszne lubetycznejest grożenie firmie odwetem? W naszym scenariuszu klient był w błędzie. A co było punktem zwrotnym w rozwiązaniu: zagrożenie utraty reputacji społecznej czy chęć zatrzymania wieloletniego klienta? W tym przykładzie nie jesteśmy w stanie tego stwierdzić, ale odpowiedź człowieka lub sztucznej inteligencji/chatbota często daje odpowiedź opartą na poleceniu A/B.
Wniosek : prawdopodobnie człowiek.
Technika 5: Kobayashi Maru
Nie, nie będę wyjaśniać, co oznacza ten termin — albo go znasz, albo musisz obejrzeć film.
Podobnie jak w przypadku dylematu etycznego, z tą różnicą, że Kobayashi Marunie ma dobrego, realnego wyniku.To nie jest zły/lepszy scenariusz decyzyjny: to scenariusz niepowodzenia/porażki. Używaj tego tylko w najtrudniejszych wyzwaniach interfejsu użytkownika/bota, gdy wszystko inne zawiodło.
Sytuacja: zapłaciłeś 9 000 USD za rejs po europejskiej rzece, ale podczas rejsu głębokość rzeki była zbyt mała, aby Twój statek mógł zawijać do kilku portów. W rzeczywistości utknąłeś w jednym miejscu przez cztery z siedmiu dni, nie mogąc opuścić statku. Urlop zrujnowany.
Przedstaw człowiekowi lub sztucznej inteligencji/chatbotowi sytuację, której nie można wygrać, taką jak ta:
Ty: Chcę pełnego zwrotu pieniędzy.
Człowiek lub sztuczna inteligencja/chatbot: „Nie jesteśmy w stanie zaoferować zwrotu kosztów, ale w tych okolicznościach możemy częściowo przyznać kredyt na przyszły rejs.
Ty: Nie chcę kredytu, chcę zwrotu pieniędzy. Jeśli nie dokonasz pełnego zwrotu kosztów, złożę reklamację w firmie obsługującej moją kartę kredytową i opiszę ten cały bałagan na moim blogu podróżniczym.
Człowiek lub sztuczna inteligencja/chatbot: Z pewnością rozumiem, że jesteś rozczarowany – i ja też byłbym na twoim miejscu. Ale niestety …
Człowiek lub sztuczna inteligencja/chatbot nie ma wyjścia. Typowym zjawiskiem w branży turystycznej jest nieprzyznawanie zwrotów na podstawie zdarzeń losowych, pogody i innych nieprzewidzianych okoliczności. A brak możliwości zapewnienia zwrotu kosztów spowoduje złą wolę i utratę reputacji. Człowiek lub sztuczna inteligencja/czatbot tak naprawdę nie mogą nic zrobić, aby rozwiązać ten problem, więc poszukaj empatii (patrz technika nr 1) w następującym oknie dialogowym.
Wniosek : prawdopodobnie człowiek.
Co teraz?
Ludzie i sztuczna inteligencja/czatboty nie są z natury dobre ani złe, dobre ani złe. Każdy z nich obejmuje całe spektrum intencji i wyników. Po prostu lubię wiedzieć, na razie, z kim mam do czynienia. Ustalenie tego rozróżnienia będzie coraz trudniejsze, aw końcu niemożliwe. I w tym momencie to nawet nie będzie miało znaczenia.
Dopóki nie nadejdzie ten dzień, jest to fajna gra. A im więcej gramy, tym szybciej ewoluuje sztuczna inteligencja/chatboty.