Das Chatbot-Erlebnis: 5 Möglichkeiten herauszufinden, ob Sie mit einem Menschen oder Roboter chatten

Veröffentlicht: 2023-06-21

Das Chatbot-Erlebnis: 5 Möglichkeiten herauszufinden, ob Sie mit einem Menschen oder Roboter chatten

Die Nutzung und der Nutzen von Online-Chat und Chatbots, die durch verbesserte KI wie ChatGPT unterstützt werden, nehmen rasant zu. In diesen Übergangszeiten ist es interessant zu wissen, ob wir mit einem echten Menschen oder einem KI-Chatbot interagieren.

Wir haben fünf Techniken entwickelt, um festzustellen, ob Sie es mit einer echten Person oder einer KI/einem Chatbot zu tun haben. Spoiler-Alarm: Je mehr Sie damit experimentieren, desto schneller lernen und passen sich die Chatbots an.

Technik 1: Empathie-Trick

Wir glauben, dass es der heutigen KI an kognitiver Empathie mangelt, weil Emotionen zwischen Menschen wirklich schwer zu verstehen und zu erklären sind. Daher kann es aufschlussreich sein, absichtlich einen einfühlsamen Dialog mit Ihrem Menschen oder Ihrer KI/Ihrem Chatbot zu führen.

Der Empathie-Trick erfordert, dass Sie eine emotionsbasierte Position einnehmen und den Menschen oder die KI/den Chatbot auf emotionaler Ebene ansprechen.

Die Situation: Sie sind nicht zufrieden – die häufigste Grundlage für eine Kundendienstinteraktion.

Szenario 1: KI/Chatbot

Sie: Mir geht es nicht gut.

Chat-Antwort: Wie kann ich Ihnen helfen?

Sie: Ich bin traurig.

Chat-Antwort: Wie kann ich Ihnen helfen?

Szenario 2: ein Mensch

Sie: Mir geht es nicht gut.

Menschliche Antwort: Wie kann ich Ihnen helfen? Benötigen Sie medizinische Hilfe?

Sie: Ich bin traurig.

Menschliche Antwort: Es tut mir leid, das zu hören. Warum bist du traurig?

Sieh den Unterschied? Im ersten Szenario kann die KI/der Chatbot nur auf ihre vorhandene Bibliothek für bedingte Antworten verweisen. Im zweiten Szenario hat ein Mensch die Fähigkeit, Empathie in den Dialog einzubringen. Es waren nur zwei Antworten nötig, um das herauszufinden.

Beide Dialoge können konstruktiv sein, aber klarer wird es, wenn man von Anfang an weiß, dass man es mit einem Menschen oder einer KI/einem Chatbot zu tun hat. Als Gesellschaft sind wir nicht bereit für KI-Therapeuten.

Technik 2: Zweistufige Dissoziation

Eine vernetzte KI kann jederzeit und überall auf nahezu alle Daten zugreifen. Fragen Sie einfach Alexa. Das Stellen einer sinnvollen Herausforderungsfrage im Chat kann also nichts sein, auf das sich die Antwort in einer zugänglichen Datenbank befindet.

Sie: Wo befinden Sie sich?

Chat-Antwort: Seattle.

Sie: Wie ist das Wetter draußen?

Chat-Antwort: Können Sie die Frage bitte umformulieren?

Tut mir leid, selbst eine mittelmäßige Wetter-App kann damit umgehen.

Die zweistufige Dissoziation erfordert zwei Elemente (daher der Name):

  1. Machen Sie eine Annahme, mit der sich die KI/der Chatbot wahrscheinlich nicht identifizieren kann
  2. Stellen Sie eine Frage im Zusammenhang mit dieser Annahme.

Die Situation: KI/Bots haben keine Füße

Herausforderungsfrage: „Welche Farbe haben deine Schuhe?“

Dies ist ein tatsächlicher Austausch, den ich per Chat mit dem Kundenservice von Audible (im Besitz von Amazon) hatte. In der Mitte des Gesprächs fragte ich, da ich es nicht verstehen konnte:

Ich: Bist du eine echte Person oder ein Chatbot?

Adrian (der Chat-Vertreter): Ich bin eine echte Person.

Ich: Ein Chatbot könnte dasselbe sagen.

Adrian (der Chat-Vertreter): „HAHAHA. Ich bin eine echte Person.

Hmm.

Am Ende unseres Gesprächs fragte Adrian:

Adrian: Gab es sonst noch etwas?

Ich schon. Welche Farbe haben deine Schuhe.

(kurze Pause)
Adrian: Blau und Grün.

Wenn der Bot kein konzeptionelles Wissen über seine eigenen Füße hat (die nicht existieren), wie kann er dann eine Frage nach der Farbe der Schuhe, die er (nicht) trägt, richtig beantworten?

Fazit : Ja, Adrian ist wahrscheinlich eine echte Person.

Wie nutzen Sie KI in Ihrem Unternehmen? Klicken Sie zum Twittern

Technik 3: Zirkuläre Logik

Programmierern ist dies nur allzu vertraut, aber es kann uns bei unserem Identifizierungsspiel zwischen Mensch und KI/Chatbot von Nutzen sein. Aber zuerst müssen wir denAusschnitterklären.

Die meisten (warum nicht alle?) automatisierten Telefonhilfesysteme verfügen über eine Unterbrechung, durch die Sie nach zwei oder drei Schleifen zurück zum selben Ort schließlich zu einer lebenden Person weitergeleitet werden. KI/Chatbots sollten sich genauso verhalten. Bei der Erstellung eines zirkulären Logiktests suchen wir also nach dem sich wiederholenden Antwortmuster vor dem Ausschneiden.

Sie: Ich habe ein Problem mit meiner Bestellung.

Mensch oder KI/Chatbot: Wie lautet Ihre Kontonummer?

Sie: 29395205

Mensch oder KI/Chatbot: Ich sehe, dass Ihre Bestellung Nr. XXXXX versendet wurde.

Sie: Es ist nicht angekommen.

Mensch oder KI/Chatbot: Der voraussichtliche Liefertermin ist [gestern]

Sie: Wann kommt es?

Mensch oder KI/Chatbot: Der voraussichtliche Liefertermin ist [gestern]

Sie: Ich weiß, aber ich muss wirklich wissen, wann es ankommt.

Mensch oder KI/Chatbot: Der voraussichtliche Liefertermin ist [gestern]

Bumm! Antwortkreis. Eine echte Person oder eine intelligentere KI/ein intelligenterer Chatbot hätte den erwarteten Liefertermin nicht wiederholt. Stattdessen hätte er/sie eine aussagekräftigere Antwort erhalten, etwa: „Lassen Sie mich den Lieferstatus des Spediteurs überprüfen.“ Gib mir einen Moment.“

Fazit : Chatten mit einem Roboter.

Technik 4: Ethisches Dilemma

Dies ist eine echte Herausforderung für die KI-Entwickler und damit auch für die KI/Bots selbst. Was macht die KI bei einem A- oder B-Ergebnis? Denken Sie an den unvermeidlichen Aufstieg halb- und vollautonomer selbstfahrender Autos. Was ist die richtige Vorgehensweise, wenn wir vor dem Dilemma stehen, entweder den Hund zu überfahren, der vor dem Auto fährt, oder in das Auto neben uns auszuweichen?

Die KI muss es herausfinden.

In unserem Spiel zur Identifizierung von Mensch oder KI/Chatbot können wir dieses Dilemma ausnutzen.

Die Situation: Sie sindunzufriedenund wenn es keine zufriedenstellende Lösung gibt, werden Sie sich revanchieren (ein A- oder B-Ergebnis).

Sie: Ich möchte, dass Ihnen die Säumnisgebühr erlassen wird.

Mensch oder KI/Chatbot: Ich sehe, dass wir Ihre Zahlung am 14. erhalten haben, also vier Tage nach dem Fälligkeitsdatum.

Sie: Ich möchte, dass die Gebühren rückgängig gemacht werden, oder ich schließe mein Konto und verleumde Sie in den sozialen Medien.

Mensch oder KI/Chatbot: Ich sehe, Sie sind schon lange ein guter Kunde. Ich kann dafür sorgen, dass die Verspätungsgebühr rückerstattet wird. Gib mir einen Moment.

Ist es richtig oderethisch vertretbar,einem Unternehmen mit Vergeltungsmaßnahmen zu drohen? In unserem Szenario lag der Kunde im Unrecht. Und was war der entscheidende Punkt für die Lösung: die drohende Schädigung des sozialen Ansehens oder der Wunsch, einen langjährigen Kunden zu behalten? Wir können es in diesem Beispiel nicht sagen, aber die menschliche oder KI/Chatbot-Antwort liefert Ihnen oft die Antwort, die auf einem A/B-Mandat basiert.

Fazit : wahrscheinlich ein Mensch.

Technik 5: Kobayashi Maru

Nein, ich werde nicht erklären, was dieser Begriff bedeutet – entweder wissen Sie es, oder Sie müssen sich den Film ansehen.

Ähnlich wie beim ethischen Dilemma, mit dem Unterschied, dass die Kobayashi Marukein gutes, realisierbares Ergebnis hat.Es handelt sich nicht um ein schlechtes/besseres Entscheidungsszenario: Es ist ein Fail/Fail-Szenario. Verwenden Sie dies nur bei den größten UI-/Bot-Herausforderungen, wenn alles andere fehlgeschlagen ist.

Die Situation: Sie haben 9.000 US-Dollar für eine europäische Flusskreuzfahrt bezahlt, aber während Ihrer Reise war die Flusstiefe zu gering, als dass Ihr Schiff mehrere Häfen anlaufen könnte. Tatsächlich saßen Sie vier der sieben Tage lang an einem Ort fest und konnten das Schiff nicht verlassen. Urlaub ruiniert.

Präsentieren Sie dem Menschen oder der KI/dem Chatbot eine nicht gewinnbare Situation wie diese:

Sie: Ich möchte eine volle Rückerstattung.

Mensch oder KI/Chatbot: „Wir können keine Rückerstattungen anbieten, aber unter den gegebenen Umständen können wir eine Teilgutschrift für eine zukünftige Kreuzfahrt ausstellen.“

Sie: Ich möchte keine Gutschrift, sondern eine Rückerstattung. Wenn Sie nicht den vollen Betrag zurückerstatten, werde ich bei meinem Kreditkartenunternehmen Klage gegen die Gebühren einreichen und auf meinem Reiseblog über dieses ganze Durcheinander schreiben.

Mensch oder KI/Chatbot: Ich verstehe auf jeden Fall, dass Sie enttäuscht sind – und ich wäre es auch, wenn ich an Ihrer Stelle wäre. Aber leider …

Der Mensch oder die KI/der Chatbot haben keinen Ausweg. In der Reisebranche ist es üblich, aufgrund höherer Gewalt, des Wetters und anderer unvorhersehbarer Umstände keine Rückerstattungen zu gewähren. Und ohne die Möglichkeit, eine Rückerstattung zu leisten, kommt es zu Böswilligkeit und Reputationsschäden. Der Mensch oder die KI/der Chatbot können nicht wirklich etwas tun, um dieses Problem zu lösen. Achten Sie daher im folgenden Dialog auf Empathie (siehe Technik Nr. 1).

Fazit : wahrscheinlich ein Mensch.

Was jetzt?

Menschen und KI/Chatbots sind nicht grundsätzlich richtig oder falsch, gut oder schlecht. Sie decken jeweils das gesamte Spektrum von Absichten und Ergebnissen ab. Ich möchte zunächst nur wissen, womit ich es zu tun habe. Diese Unterscheidung wird immer schwieriger und schließlich unmöglich zu bestimmen sein. Und an diesem Punkt spielt es keine Rolle mehr.

Bis dieser Tag kommt, ist es ein unterhaltsames Spiel. Und je mehr wir spielen, desto schneller entwickeln sich die KI/Chatbots.

KI im Marketing: 5 Dinge, die jede Führungskraft tun muss

Vielleicht interessiert Sie auch die Lektüre: KI im Marketing | 5 Dinge, die jede Führungskraft tun muss