L'esperienza di chatbot: 5 modi per sapere se stai chattando con un essere umano o un robot

Pubblicato: 2023-06-21

L'esperienza Chatbot 5 modi per sapere se stai chattando con un essere umano o un robot

L'uso e l'utilità della chat online e dei chatbot, alimentati dal miglioramento dei livelli di intelligenza artificiale come ChatGPT, stanno aumentando rapidamente. Durante questi tempi di transizione, è interessante sapere se stiamo interagendo con un vero essere umano o con un chatbot basato sull'intelligenza artificiale.

Abbiamo sviluppato cinque tecniche per determinare se hai a che fare con una persona reale o con un AI/chatbot. Avviso spoiler: più sperimenti con questi, più velocemente i chatbot impareranno e si adatteranno.

Tecnica 1: Stratagemma dell'empatia

Riteniamo che il livello odierno di intelligenza artificiale manchi di empatia cognitiva perché le emozioni tra esseri umani sono davvero difficili da comprendere e spiegare. Quindi, creare intenzionalmente un dialogo empatico con il tuo essere umano o AI/chatbot può essere rivelatore.

Lo stratagemma dell'empatia richiede di stabilire una posizione basata sulle emozioni e fare appello all'essere umano o all'IA/chatbot a livello emotivo.

La situazione: non sei felice, la base più comune per un'interazione con il servizio clienti.

Scenario 1: AI/chatbot

Tu: non mi sento bene.

Risposta chat: come posso aiutarti?

Tu: sono triste.

Risposta chat: come posso aiutarti?

Scenario 2: un essere umano

Tu: non mi sento bene.

Risposta umana: come posso aiutarti? Hai bisogno di assistenza medica?

Tu: sono triste.

Risposta umana: mi dispiace sentirlo. Perché sei triste?

Vedi la differenza? Nello scenario uno, l'AI/chatbot può fare riferimento solo alla sua libreria di risposte condizionali esistente. Nello scenario due, un essere umano ha la capacità di iniettare empatia nel dialogo. Ci sono volute solo due risposte per capirlo.

Entrambi i dialoghi possono essere costruttivi, ma diventa più chiaro se sai di avere a che fare con un essere umano o con un'intelligenza artificiale/chatbot fin dall'inizio. Come società, non siamo pronti per i terapisti dell'IA.

Tecnica 2: Dissociazione in due fasi

Un'intelligenza artificiale connessa può accedere praticamente a qualsiasi dato, sempre e ovunque. Basta chiedere ad Alexa. Quindi, porre una domanda di sfida significativa tramite chat non può essere qualcosa per cui la risposta risiede in un database accessibile.

Tu: dove ti trovi?

Risposta chat: Seattle.

Tu: Com'è il tempo fuori?

Risposta chat: puoi riformulare la domanda?

Siamo spiacenti, anche un'app meteo mediocre può gestirlo.

La dissociazione in due fasi richiede due elementi (da cui il nome):

  1. Fai un'ipotesi a cui l'IA/chatbot probabilmente non può relazionarsi
  2. Fai una domanda, relativa a tale presupposto.

La situazione: AI/bot non hanno piedi

Domanda di sfida: "Di che colore sono le tue scarpe?"

Questo è un vero e proprio scambio che ho avuto con il servizio clienti Audible (di proprietà di Amazon) tramite chat. A metà dello scambio di dialoghi, poiché non riuscivo a discernere, ho chiesto:

Io: sei una persona reale o un chatbot?

Adrian (il rappresentante della chat): Sono una persona reale.

Io: un chatbot potrebbe dire la stessa cosa.

Adrian (il rappresentante della chat): “HAHAHA. Sono una persona reale.

Hmm.

Alla fine della nostra conversazione, Adrian ha chiesto:

Adrian: C'era qualcos'altro?

Io si. Di che colore sono le tue scarpe.

(piccola pausa)
Adrian: Blu e verde.

Se il bot non ha alcuna conoscenza concettuale dei propri piedi (che non esistono), come può rispondere correttamente a una domanda sul colore delle scarpe che (non) indossa?

Conclusione : Sì, Adrian è probabilmente una persona reale.

Come utilizzi l'intelligenza artificiale nella tua organizzazione? Fai clic per twittare

Tecnica 3: Logica Circolare

Fin troppo familiare ai programmatori, questo può esserci utile nella nostra identificazione del gioco di identificazione tra umani e AI/chatbot. Ma prima, dobbiamo spiegare ilritaglio.

La maggior parte (perché non tutti?) I sistemi di assistenza telefonica automatizzati hanno un'interruzione in cui dopo due o tre cicli di ritorno allo stesso punto, alla fine si viene deviati verso una persona viva. AI/chatbot dovrebbero comportarsi allo stesso modo. Quindi, nel creare un test di logica circolare, quello che stiamo cercando è lo schema ripetitivo delle risposte prima del cut-out.

Tu: ho un problema con il mio ordine.

Umano o AI/chatbot: qual è il tuo numero di conto?

Tu: 29395205

Umano o AI/chatbot: vedo che il tuo ordine #XXXXX è stato spedito.

Tu: Non è arrivato.

Umano o AI/chatbot: la data di consegna prevista è [ieri]

Tu: Quando arriverà?

Umano o AI/chatbot: la data di consegna prevista è [ieri]

Tu: lo so, ma ho davvero bisogno di sapere quando arriverà.

Umano o AI/chatbot: la data di consegna prevista è [ieri]

Bam! Cerchio di risposta. Una persona reale, o un AI/chatbot più intelligente, non avrebbe ripetuto la data di consegna prevista. Invece, avrebbe avuto una risposta più significativa del tipo: “Fammi controllare lo stato della consegna dal corriere. Dammi solo un momento.

Conclusione : chattare con un robot.

Tecnica 4: dilemma etico

Questa è una vera sfida per gli sviluppatori di AI e, quindi, per gli stessi AI/bot. In un risultato A o B, cosa fa l'IA? Pensa all'inevitabile ascesa delle auto a guida autonoma semi e completamente autonome. Di fronte al dilemma se colpire il cane che attraversa davanti all'auto o sterzare contro l'auto accanto a noi, qual è la giusta linea d'azione?

L'intelligenza artificiale deve capirlo.

Nel nostro gioco di identificazione dell'essere umano o dell'intelligenza artificiale/chatbot, possiamo sfruttare questo dilemma.

La situazione:nonsei felice e in assenza di una risoluzione soddisfacente, ti vendicherai (un risultato A o B).

Tu: vorrei che la penale per il ritardo fosse revocata.

Umano o AI/chatbot: vedo che abbiamo ricevuto il tuo pagamento il 14 , ovvero quattro giorni dopo la data di scadenza.

Tu: voglio che gli addebiti vengano annullati o chiuderò il mio account e ti diffamerò sui social media.

Umano o AI/chatbot: vedo che sei un buon cliente da molto tempo. Posso occuparmi io di annullare la penale per il ritardo. Dammi solo un momento.

È corretto, oetico,minacciare un'azienda di ritorsioni? Nel nostro scenario, il cliente aveva torto. E qual è stato il punto di svolta verso la risoluzione: la minaccia di danni alla reputazione sociale o il desiderio di mantenere un cliente di lunga data? Non siamo in grado di dirlo in questo esempio, tuttavia la risposta umana o AI/chatbot spesso ti darà la risposta basata su un mandato A/B.

Conclusione : probabilmente un essere umano.

Tecnica 5: Kobayashi Maru

No, non spiegherò cosa significa quel termine: o lo sai o devi guardare il film.

Simile al dilemma etico, la differenza è che la Kobayashi Marunon ha un buon risultato praticabile.Non è uno scenario decisionale cattivo/migliore: è uno scenario di fallimento/fallimento. Usalo solo nelle sfide più difficili dell'interfaccia utente/bot quando tutto il resto ha fallito.

La situazione: hai pagato $ 9.000 per una crociera fluviale europea, ma durante il tuo viaggio, la profondità del fiume era troppo bassa perché la tua nave potesse fare diversi porti di scalo. In effetti, sei rimasto bloccato in un punto per quattro dei sette giorni impossibilitati a lasciare la nave. Vacanza rovinata.

Presenta all'umano o all'intelligenza artificiale/chatbot una situazione impossibile da vincere come questa:

Tu: voglio un rimborso completo.

Umano o AI/chatbot: “Non siamo in grado di offrire rimborsi ma, date le circostanze, possiamo emettere un credito parziale per una crociera futura.

Tu: non voglio un credito, voglio un rimborso. Se non emetti un rimborso completo, presenterò un reclamo contro gli addebiti alla compagnia della mia carta di credito e scriverò di tutto questo casino sul mio blog di viaggio.

Umano o AI/chatbot: Capisco sicuramente che sei deluso, e lo sarei anch'io se fossi nei tuoi panni. Ma sfortunatamente …

L'umano o l'intelligenza artificiale/chatbot non ha via d'uscita. È tipico nel settore dei viaggi non emettere rimborsi in base a cause di forza maggiore, condizioni meteorologiche e altre circostanze imprevedibili. E in assenza della capacità di fornire un rimborso, ci sarà cattiva volontà a valle e danni alla reputazione. L'umano o l'intelligenza artificiale/chatbot non possono davvero fare nulla per risolvere questo problema, quindi cerca l'empatia (vedi la tecnica n. 1) nella finestra di dialogo che segue.

Conclusione : probabilmente un essere umano.

E adesso?

Gli esseri umani e l'intelligenza artificiale/chatbot non sono intrinsecamente giusti o sbagliati, buoni o cattivi. Ognuno di essi copre l'intero spettro di intenti e risultati. Mi piacerebbe solo sapere, per ora, con chi ho a che fare. Tale distinzione diventerà sempre più difficile, e alla fine impossibile, da determinare. E a quel punto, non avrà nemmeno importanza.

Fino a quel giorno, è un gioco divertente da giocare. E più giochiamo, più velocemente si evolvono IA/chatbot.

AI nel marketing 5 cose che ogni leader deve fare

Potrebbe interessarti anche leggere: AI nel marketing | 5 cose che ogni leader deve fare