聊天機器人體驗:5 種方法判斷您是在與人聊天還是與機器人聊天
已發表: 2023-06-21在 ChatGPT 等人工智能水平不斷提高的推動下,在線聊天和聊天機器人的使用和效用正在迅速增加。 在這些過渡時期,了解我們是在與真人互動還是與人工智能聊天機器人互動是很有趣的。
我們開發了五種技術來確定您正在與真人還是人工智能/聊天機器人打交道。 劇透警告:你嘗試的越多,聊天機器人學習和適應的速度就越快。
技巧 1:同理心策略
我們認為當今的人工智能水平缺乏認知同理心,因為人類之間的情感確實很難理解和解釋。 因此,有意識地與人類或人工智能/聊天機器人進行富有同理心的對話可能會有所啟發。
同理心策略要求你建立一個基於情感的立場,並在情感層面上吸引人類或人工智能/聊天機器人。
情況:您不高興——這是客戶服務互動的最常見基礎。
場景一:人工智能/聊天機器人
你:我身體不舒服。
聊天回复: 有什麼可以幫助您的嗎?
你:我很難過。
聊天回复: 有什麼可以幫助您的嗎?
場景 2:人類
你:我身體不舒服。
人類回复: 有什麼可以幫助您的嗎? 您需要醫療幫助嗎?
你:我很難過。
人類回复:聽到這個消息我很遺憾。 你為什麼傷心?
看到不同? 在場景一中,人工智能/聊天機器人只能引用其現有的條件響應庫。 在場景二中,人類有能力在對話中註入同理心。 只需要兩個回應就可以弄清楚。
兩種對話都可以是建設性的,但如果您從一開始就知道自己正在與人類或人工智能/聊天機器人打交道,那麼對話就會變得更加清晰。 作為一個社會,我們還沒有為人工智能治療師做好準備。
技術 2:兩步分離
連接的人工智能可以隨時隨地訪問幾乎任何數據。 問問亞歷克斯就知道了。 因此,通過聊天提出有意義的挑戰問題不可能是答案駐留在可訪問的數據庫中的任何事情。
你:你在哪裡?
聊天回复:西雅圖。
你:外面天氣怎麼樣?
聊天回复:您能重新表述一下問題嗎?
抱歉,即使是一個平庸的天氣應用程序也可以處理這個問題。
兩步分離需要兩個元素(因此得名):
- 做出人工智能/聊天機器人可能無法關聯的假設
- 提出與該假設相關的問題。
現狀:人工智能/機器人沒有腳
挑戰問題:“你的鞋子是什麼顏色的?”
這是我通過聊天與 Audible(亞馬遜旗下)客戶服務進行的實際交流。 對話進行到一半,我看不出來,就問道:
我:你是真人還是聊天機器人?
Adrian(聊天代表):我是一個真實的人。
我:聊天機器人可能會說同樣的話。
Adrian(聊天代表):“哈哈哈。 我是一個真實的人。
唔。
在我們談話結束時,阿德里安問道:
阿德里安:還有別的事嗎?
我可以。 你的鞋子是什麼顏色的。
(稍稍停頓)
阿德里安:藍色和綠色。
如果機器人對自己的腳沒有概念性的了解(實際上並不存在),那麼它如何正確回答有關它所穿(不)穿的鞋子顏色的問題?
結論:是的,阿德里安可能是一個真實的人。
您如何在您的組織中利用人工智能? 點擊發推文技巧 3:循環邏輯
這對程序員來說再熟悉不過了,這對於我們識別人類與人工智能/聊天機器人識別遊戲很有用。 但首先,我們必須解釋一下剪裁。
大多數(為什麼不是全部?)自動電話幫助系統都有一個切口,在兩到三個循環回到同一個地方後,您最終會被轉移到現場人員那裡。 人工智能/聊天機器人的行為方式應該相同。 因此,在創建循環邏輯測試時,我們正在尋找的是切斷之前的重複響應模式。
您:我的訂單有問題。
人類或人工智能/聊天機器人:您的帳號是多少?
您:29395205
人類或人工智能/聊天機器人:我看到您的訂單 #XXXXX 已發貨。
你:還沒到。
人類或人工智能/聊天機器人:預計交貨日期是[昨天]
你:什麼時候到?
人類或人工智能/聊天機器人:預計交貨日期是[昨天]
你:我知道,但我真的需要知道它什麼時候到達。
人類或人工智能/聊天機器人:預計交貨日期是[昨天]
嘭! 響應圈。 真人,或更聰明的人工智能/聊天機器人,不會重複預期的交貨日期。 相反,她/他或它會得到更有意義的回應,例如“讓我檢查一下承運人的遞送狀態。 請給我一點時間。”
結論:與機器人聊天。
技巧 4:道德困境
這對人工智能開發者來說是一個真正的挑戰,因此對人工智能/機器人本身來說也是一個真正的挑戰。 在 A 或 B 結果中,人工智能會做什麼? 想想半自動和全自動自動駕駛汽車不可避免的崛起。 當遇到兩難選擇時,要么撞到車前的狗過馬路,要么轉向我們旁邊的車,哪一個是正確的行動方針?
人工智能必須弄清楚這一點。
在我們識別人類或人工智能/聊天機器人的遊戲中,我們可以利用這個困境。
情況:您不高興並且沒有令人滿意的解決方案,您將進行報復(A 或 B 結果)。
你:我希望免除滯納金。
人類或人工智能/聊天機器人:我看到我們在 14日收到了您的付款,即已超過到期日四天。
你:我希望撤銷指控,否則我將關閉我的帳戶並在社交媒體上抹黑你。
人類或人工智能/聊天機器人:我發現您長期以來一直是一個好客戶。 我可以負責沖銷滯納金。 請給我一點時間。
以報復來威脅公司是否正確或不道德? 在我們的場景中,客戶錯了。 解決問題的轉折點是什麼:社會聲譽受損的威脅還是保留長期客戶的願望? 在這個例子中我們無法判斷,但人類或人工智能/聊天機器人的響應通常會根據 A/B 指令為您提供答案。
結論:可能是人類。
技巧5:小林丸
不,我不會解釋這個詞的含義——你要么知道它,要么你需要看這部電影。
與道德困境類似,不同之處在於小林丸沒有良好的可行結果。 這不是一個壞/更好的決策場景:這是一個失敗/失敗的場景。 僅在所有其他方法都失敗的情況下,僅在最可怕的 UI/機器人挑戰中使用此方法。
情況:您支付了 9,000 美元乘坐歐洲內河遊輪,但在您的旅途中,河流深度太低,您的船無法停靠多個港口。 事實上,在這 7 天裡,你被困在一個地方,有 4 天無法離開船。 假期毀了。
向人類或人工智能/聊天機器人呈現如下無法獲勝的情況:
你:我想要全額退款。
人類或人工智能/聊天機器人:“我們無法提供退款,但在這種情況下,我們可以為未來的巡航發放部分積分。
你:我不想要積分,我想要退款。 如果您不全額退款,我將向我的信用卡公司提出索賠,並在我的旅行博客上寫下這整件事。
人類或人工智能/聊天機器人:我當然理解你很失望——如果我處於你的處境,我也會感到失望。 但不幸的是 …
人類或人工智能/聊天機器人沒有出路。 在旅遊業中,基於天災、天氣和其他不可預測的情況不退款是很常見的。 如果無法提供退款,下游就會產生惡意並導致聲譽受損。 人類或人工智能/聊天機器人無法真正採取任何措施來解決此問題,因此請在隨後的對話中尋找同理心(請參閱技術#1)。
結論:可能是人類。
現在怎麼辦?
人類和人工智能/聊天機器人本質上沒有對錯、好壞之分。 它們各自涵蓋了整個意圖和結果。 我現在只是想知道我正在處理什麼。 這種區別將變得越來越難以確定,甚至最終不可能確定。 到那時,一切都不再重要了。
直到那一天到來之前,這都是一個有趣的遊戲。 我們玩得越多,人工智能/聊天機器人的發展速度就越快。