La experiencia de Chatbot: 5 formas de saber si estás chateando con un humano o un robot

Publicado: 2023-06-21

The Chatbot Experience 5 formas de saber si estás chateando con un humano o un robot

El uso y la utilidad del chat en línea y los chatbots, impulsados ​​por niveles mejorados de IA como ChatGPT, están aumentando rápidamente. Durante estos tiempos de transición, es interesante saber si estamos interactuando con un ser humano real o con un chatbot de IA.

Hemos desarrollado cinco técnicas para determinar si está tratando con una persona real o una IA/chatbot. Alerta de spoiler: cuanto más experimente con estos, más rápido aprenderán y se adaptarán los chatbots.

Técnica 1: estratagema de empatía

Creemos que el nivel actual de IA carece de empatía cognitiva porque las emociones entre humanos son realmente difíciles de entender y explicar. Entonces, crear intencionalmente un diálogo empático con su ser humano o IA/chatbot puede ser revelador.

La estratagema de la empatía requiere que establezcas una posición basada en las emociones y atraigas al ser humano o a la IA/chatbot en un nivel emocional.

La situación: no está contento: la base más común para una interacción de servicio al cliente.

Escenario 1: IA/chatbot

Tu: No me siento bien.

Respuesta de chat: ¿Cómo puedo ayudarte?

tu: estoy triste

Respuesta de chat: ¿Cómo puedo ayudarte?

Escenario 2: un ser humano

Tu: No me siento bien.

Respuesta humana: ¿Cómo puedo ayudarte? ¿Necesita ayuda médica?

tu: estoy triste

Respuesta humana: Lamento escuchar eso. ¿Por que estas triste?

¿Ver la diferencia? En el escenario uno, la IA/chatbot solo puede hacer referencia a su biblioteca de respuesta condicional existente. En el escenario dos, un ser humano tiene la capacidad de inyectar empatía en el diálogo. Eso tomó sólo dos respuestas para averiguarlo.

Cualquiera de los dos diálogos puede ser constructivo, pero se vuelve más claro si sabe que está tratando con un ser humano o una IA/chatbot desde el principio. Como sociedad, no estamos preparados para los terapeutas de IA.

Técnica 2: Disociación en dos pasos

Una IA conectada puede acceder a prácticamente cualquier dato, en cualquier momento y en cualquier lugar. Pregúntale a Alexa. Por lo tanto, hacer una pregunta de desafío significativa a través del chat no puede ser algo cuya respuesta resida en una base de datos accesible.

Tu: Donde estas ubicado?

Respuesta de chat: Seattle.

Tu: ¿Cómo está el clima afuera?

Respuesta de chat: ¿Puede reformular la pregunta?

Lo sentimos, incluso una aplicación meteorológica mediocre puede manejar eso.

La disociación en dos pasos requiere dos elementos (de ahí el nombre):

  1. Hacer una suposición con la que la IA/chatbot probablemente no pueda relacionarse
  2. Haga una pregunta relacionada con esa suposición.

La situación: la IA/los bots no tienen pies

Pregunta de desafío: "¿De qué color son tus zapatos?"

Este es un intercambio real que tuve con el servicio de atención al cliente de Audible (propiedad de Amazon) a través del chat. A la mitad del intercambio de diálogo, como no podía discernir, pregunté:

Yo: ¿Eres una persona real o un chatbot?

Adrian (el representante del chat): Soy una persona real.

Yo: Un chatbot podría decir lo mismo.

Adrian (el representante del chat): “HAHAHA. soy una persona real

Mmm.

Al final de nuestra conversación, Adrian preguntó:

Adrián: ¿Hay algo más?

Yo: Sí. De que color son tus zapatos.

(pequeña pausa)
Adrián: azul y verde.

Si el bot no tiene conocimiento conceptual de sus propios pies (que no existen), ¿cómo puede responder correctamente a una pregunta sobre el color de los zapatos que (no) usa?

Conclusión : Sí, Adrian es probablemente una persona real.

¿Cómo utiliza la IA en su organización? Haz clic para twittear

Técnica 3: Lógica Circular

Muy familiar para los programadores, esto puede ser útil para nosotros en nuestra identificación del juego de identificación humano vs. IA/chatbot. Pero primero, tenemos que explicar elrecorte.

La mayoría (¿por qué no todos?) de los sistemas de ayuda telefónica automatizados tienen un corte en el que, después de dos o tres vueltas al mismo lugar, finalmente se lo desvía a una persona viva. AI/chatbots deberían comportarse de la misma manera. Entonces, al crear una prueba de lógica circular, lo que estamos buscando es el patrón repetitivo de respuestas antes del corte.

Tu: Tengo un problema con mi pedido.

Humano o AI/chatbot: ¿Cuál es su número de cuenta?

Tu: 29395205

Humano o AI/chatbot: Veo que su pedido #XXXXX ha sido enviado.

Tu: No ha llegado.

Humano o AI/chatbot: la fecha de entrega prevista es [ayer]

Tu: ¿Cuándo llegará?

Humano o AI/chatbot: la fecha de entrega prevista es [ayer]

Tú: Lo sé, pero realmente necesito saber cuándo llegará.

Humano o AI/chatbot: la fecha de entrega prevista es [ayer]

¡Bam! Círculo de respuesta. Una persona real, o una IA/chatbot más inteligente, no habría repetido la fecha de entrega esperada. En su lugar, habría tenido una respuesta más significativa como: “Déjame verificar el estado de la entrega del transportista. Dame solo un momento.

Conclusión : charlando con un robot.

Técnica 4: Dilema ético

Este es un verdadero desafío para los desarrolladores de IA y, por lo tanto, para los propios IA/bots. En un resultado A o B, ¿qué hace la IA? Piense en el ascenso inevitable de los autos autónomos semi y totalmente autónomos. Cuando se presenta el dilema de atropellar al perro que cruza frente al automóvil o desviarse hacia el automóvil adyacente a nosotros, ¿cuál es el curso de acción correcto?

La IA tiene que resolverlo.

En nuestro juego de identificar seres humanos o IA/chatbot, podemos explotar este dilema.

La situación:noestá satisfecho y, en ausencia de una resolución satisfactoria, tomará represalias (resultado A o B).

Usted: Me gustaría que no se aplique el cargo por pago atrasado.

Humano o AI/chatbot: Veo que recibimos su pago el día 14, cuatro días después de la fecha de vencimiento.

Tú: Quiero que se reviertan los cargos o cerraré mi cuenta y te difamaré en las redes sociales.

Humano o AI/chatbot: Veo que ha sido un buen cliente durante mucho tiempo. Puedo encargarme de revertir ese recargo por mora. Dame un momento.

¿Es correcto oéticoamenazar a una empresa con represalias? En nuestro escenario, el cliente estaba equivocado. ¿Y cuál fue el punto de inflexión para la resolución: la amenaza de daño a la reputación social o el deseo de retener a un cliente antiguo? No podemos decirlo en este ejemplo, pero la respuesta humana o de AI/chatbot a menudo le dará la respuesta basada en un mandato A/B.

Conclusión : probablemente un ser humano.

Técnica 5: Kobayashi Maru

No, no voy a explicar lo que significa ese término: o lo sabes o necesitas ver la película.

Similar al dilema ético, la diferencia es que Kobayashi Maruno tiene un buen resultado viable.No es un escenario de decisión mala/mejor: es un escenario de falla/falla. Use esto solo en la peor parte de los desafíos de UI/bot cuando todo lo demás ha fallado.

La situación: Usted pagó $9,000 por un crucero fluvial europeo, pero durante su viaje, la profundidad del río era demasiado baja para que su barco hiciera escala en varios puertos. De hecho, estuviste atrapado en un lugar durante cuatro de los siete días sin poder abandonar el barco. Vacaciones arruinadas.

Presente al humano o IA/chatbot una situación imposible de ganar como esta:

Tú: Quiero un reembolso completo.

Humano o AI/chatbot: “No podemos ofrecer reembolsos, pero dadas las circunstancias, podemos emitir un crédito parcial para un crucero futuro.

Tu: No quiero un crédito, quiero un reembolso. Si no emite un reembolso completo, presentaré un reclamo contra los cargos ante la compañía de mi tarjeta de crédito y escribiré sobre todo este lío en mi blog de viajes.

Humano o AI/chatbot: ciertamente entiendo que estés decepcionado, y yo también lo estaría si estuviera en tu lugar. Pero desafortunadamente …

El humano o AI/chatbot no tiene salida. Es típico en la industria de viajes no emitir reembolsos basados ​​en Actos de Dios, el clima y otras circunstancias impredecibles. Y en ausencia de la capacidad de proporcionar un reembolso, habrá mala voluntad aguas abajo y daños a la reputación. El ser humano o la IA/chatbot realmente no pueden hacer nada para resolver esto, así que busque empatía (consulte la técnica n. ° 1) en el diálogo que sigue.

Conclusión : probablemente un ser humano.

¿Ahora que?

Los humanos y la IA/los chatbots no son inherentemente correctos o incorrectos, buenos o malos. Cada uno de ellos cubre todo el espectro de intenciones y resultados. Sólo me gusta saber, por ahora, con quién estoy tratando. Esa distinción se volverá cada vez más difícil y eventualmente imposible de determinar. Y en ese punto, ni siquiera importará.

Hasta que llegue ese día, es un juego divertido de jugar. Y cuanto más jugamos, más rápido evolucionan la IA/los chatbots.

IA en marketing 5 cosas que todo líder debe hacer

También te puede interesar leer: IA en Marketing | 5 cosas que todo líder debe hacer