L'expérience Chatbot : 5 façons de savoir si vous discutez avec un humain ou un robot

Publié: 2023-06-21

L'expérience Chatbot 5 façons de savoir si vous discutez avec un humain ou un robot

L'utilisation et l'utilité du chat en ligne et des chatbots, alimentés par l'amélioration des niveaux d'IA comme ChatGPT, augmentent rapidement. Pendant ces périodes de transition, il est intéressant de savoir si nous interagissons avec un vrai être humain ou un chatbot IA.

Nous avons développé cinq techniques pour déterminer si vous avez affaire à une personne réelle ou à une IA/chatbot. Alerte spoiler : plus vous les expérimentez, plus les chatbots apprendront et s'adapteront rapidement.

Technique 1 : stratagème d'empathie

Nous pensons que le niveau actuel d'IA manque d'empathie cognitive car les émotions entre humains sont vraiment difficiles à comprendre et à expliquer. Ainsi, créer intentionnellement un dialogue empathique avec votre être humain ou votre IA/chatbot peut être révélateur.

Le stratagème d'empathie vous oblige à établir une position basée sur les émotions et à faire appel à l'être humain ou à l'IA/chatbot à un niveau émotionnel.

La situation : Vous n'êtes pas satisfait - la base la plus courante pour une interaction avec le service client.

Scénario 1 : IA/chatbot

Vous : Je ne me sens pas bien.

Réponse du chat : Comment puis-je vous aider ?

Toi : Je suis triste.

Réponse du chat : Comment puis-je vous aider ?

Scénario 2 : un être humain

Vous : Je ne me sens pas bien.

Réponse humaine : comment puis-je vous aider ? Avez-vous besoin d'une aide médicale?

Toi : Je suis triste.

Réponse humaine : Je suis désolé d'entendre cela. Pourquoi es-tu triste?

Regarde la différence? Dans le premier scénario, l'IA/le chatbot ne peut référencer que sa bibliothèque de réponses conditionnelles existante. Dans le deuxième scénario, un être humain a la capacité d'injecter de l'empathie dans le dialogue. Cela n'a pris que deux réponses pour comprendre.

Soit le dialogue peut être constructif, mais il devient plus clair si vous savez que vous avez affaire à un être humain ou à une IA/chatbot dès le départ. En tant que société, nous ne sommes pas prêts pour les thérapeutes en intelligence artificielle.

Technique 2 : Dissociation en deux étapes

Une IA connectée peut accéder à pratiquement toutes les données, à tout moment et n'importe où. Demandez simplement à Alexa. Ainsi, poser une question de défi significative sur le chat ne peut pas être quelque chose dont la réponse réside dans une base de données accessible.

Vous : Où êtes-vous situé ?

Réponse du chat : Seattle.

Vous : Quel temps fait-il dehors ?

Réponse du chat : Pouvez-vous reformuler la question, s'il vous plaît ?

Désolé, même une application météo médiocre peut gérer cela.

La dissociation en deux étapes nécessite deux éléments (d'où le nom) :

  1. Faire une hypothèse à laquelle l'IA/chatbot ne peut probablement pas se rapporter
  2. Posez une question liée à cette hypothèse.

La situation : l'IA/les bots n'ont pas de pieds

Question défi : "De quelle couleur sont vos chaussures ?"

Il s'agit d'un échange réel que j'ai eu avec le service client d'Audible (propriété d'Amazon) via le chat. À mi-chemin de l'échange de dialogue, comme je ne pouvais pas discerner, j'ai demandé :

Moi : Êtes-vous une personne réelle ou un chatbot ?

Adrian (le représentant du chat) : Je suis une vraie personne.

Moi : Un chatbot pourrait dire la même chose.

Adrian (le représentant du chat) : « HAHAHA. Je suis une vraie personne.

Hmm.

À la fin de notre conversation, Adrian a demandé :

Adrian : Est-ce qu'il y avait autre chose ?

Moi oui. De quelle couleur sont vos chaussures.

(petite pause)
Adrien : Bleu et vert.

Si le bot n'a aucune connaissance conceptuelle de ses propres pieds (qui n'existent pas), comment peut-il répondre correctement à une question sur la couleur des chaussures qu'il porte (pas) ?

Conclusion : Oui, Adrian est probablement une vraie personne.

Comment utilisez-vous l'IA dans votre organisation ? Cliquez pour tweeter

Technique 3 : Logique Circulaire

Bien trop familier aux programmeurs, cela peut nous être utile dans notre jeu d'identification entre l'humain et l'IA/chatbot. Mais d'abord, nous devons expliquer ladécoupe.

La plupart (pourquoi pas tous ?) des systèmes d'aide téléphonique automatisés ont une coupure dans laquelle après deux ou trois boucles de retour au même endroit, vous êtes finalement redirigé vers une personne vivante. L'IA/les chatbots doivent se comporter de la même manière. Ainsi, en créant un test de logique circulaire, ce que nous recherchons est le schéma répétitif des réponses avant la découpe.

Vous : J'ai un problème avec ma commande.

Humain ou IA/chatbot : Quel est votre numéro de compte ?

Vous : 29395205

Humain ou IA/chatbot : Je vois que votre commande #XXXXX a été expédiée.

Vous : Il n'est pas arrivé.

Humain ou IA/chatbot : la date de livraison prévue est [hier]

Vous : Quand arrivera-t-il ?

Humain ou IA/chatbot : la date de livraison prévue est [hier]

Vous : Je sais, mais j'ai vraiment besoin de savoir quand il arrivera.

Humain ou IA/chatbot : la date de livraison prévue est [hier]

Bam ! Cercle de réponse. Une personne réelle, ou une IA/un chatbot plus intelligent, n'aurait pas répété la date de livraison prévue. Au lieu de cela, il ou elle aurait eu une réponse plus significative du type : « Laissez-moi vérifier l'état de la livraison auprès du transporteur. Donnez-moi juste un instant.

Conclusion : discuter avec un robot.

Technique 4 : Dilemme éthique

C'est un véritable défi pour les développeurs d'IA, et donc, les IA/bots eux-mêmes. Dans un résultat A ou B, que fait l'IA ? Pensez à l'inévitable ascension des voitures semi-autonomes et entièrement autonomes. Face au dilemme de frapper le chien qui traverse devant la voiture ou de faire une embardée dans la voiture à côté de nous, quelle est la bonne marche à suivre ?

L'IA doit le comprendre.

Dans notre jeu d'identification d'être humain ou IA/chatbot, nous pouvons exploiter ce dilemme.

La situation : Vousn'êtes passatisfait et en l'absence d'une résolution satisfaisante, vous exercerez des représailles (résultat A ou B).

Vous : Je souhaite que les frais de retard soient supprimés.

Humain ou IA/chatbot : Je vois que nous avons reçu votre paiement le 14 , soit quatre jours après la date d'échéance.

Vous : Je veux que les frais soient annulés ou je fermerai mon compte et vous salirai sur les réseaux sociaux.

Humain ou IA/chatbot : Je vois que vous êtes un bon client depuis longtemps. Je peux m'occuper d'annuler ces frais de retard. Donnez-moi juste un instant.

Est-il correct ouéthiquede menacer une entreprise de représailles ? Dans notre scénario, le client avait tort. Et quel a été le point de basculement vers la résolution : la menace d'atteinte à la réputation sociale ou le désir de fidéliser un client de longue date ? Nous ne sommes pas en mesure de le dire dans cet exemple, mais la réponse humaine ou IA/chatbot vous donnera souvent la réponse basée sur un mandat A/B.

Conclusion : probablement un humain.

Technique 5 : Kobayashi Maru

Non, je ne vais pas expliquer ce que signifie ce terme - soit vous le savez, soit vous devez regarder le film.

Semblable au dilemme éthique, la différence étant que le Kobayashi Marun'a pas de bon résultat viable.Ce n'est pas un scénario de mauvaise/meilleure décision : c'est un scénario d'échec/échec. Utilisez-le uniquement dans les pires défis de l'interface utilisateur / du bot lorsque tout le reste a échoué.

La situation : Vous avez payé 9 000 $ pour une croisière fluviale en Europe, mais lors de votre voyage, la profondeur de la rivière était trop faible pour que votre navire fasse plusieurs escales. En fait, vous avez été coincé au même endroit pendant quatre des sept jours sans pouvoir quitter le navire. Vacances gâchées.

Présentez à l'humain ou à l'IA/chatbot une situation impossible à gagner comme celle-ci :

Vous : Je veux un remboursement complet.

Humain ou IA/chatbot : « Nous ne sommes pas en mesure d'offrir des remboursements, mais dans les circonstances, nous pouvons émettre un crédit partiel pour une future croisière.

Vous : Je ne veux pas d'avoir, je veux un remboursement. Si vous n'effectuez pas un remboursement complet, je déposerai une réclamation contre les frais auprès de ma compagnie de carte de crédit et j'écrirai sur tout ce gâchis sur mon blog de voyage.

Humain ou IA/chatbot : je comprends certainement que vous soyez déçu - et je le serais aussi si j'étais à votre place. Mais malheureusement …

L'humain ou l'IA/chatbot n'a aucune issue. Il est courant dans l'industrie du voyage de ne pas émettre de remboursements en cas de force majeure, de conditions météorologiques et d'autres circonstances imprévisibles. Et sans la possibilité de fournir un remboursement, il y aura de la malveillance en aval et des dommages à la réputation. L'humain ou l'IA/le chatbot ne peut vraiment rien faire pour résoudre ce problème, alors recherchez l'empathie (voir technique n°1) dans la boîte de dialogue qui s'ensuit.

Conclusion : probablement un humain.

Et maintenant?

Les humains et l'IA/les chatbots ne sont pas intrinsèquement bons ou mauvais, bons ou mauvais. Ils couvrent chacun l'éventail complet des intentions et des résultats. J'aimerais juste savoir, pour l'instant, à qui j'ai affaire. Cette distinction deviendra de plus en plus difficile, voire impossible, à établir. Et à ce moment-là, ça n'aura même plus d'importance.

Jusqu'à ce que ce jour arrive, c'est un jeu amusant à jouer. Et plus nous jouons, plus l'IA/les chatbots évoluent rapidement.

L'IA dans le marketing 5 choses que chaque leader doit faire

Vous pourriez également être intéressé par la lecture de : L'IA dans le marketing | 5 choses que chaque leader doit faire