一位律師在客戶體驗中負責任地使用人工智能的看法

已發表: 2023-07-05

全世界都驚訝地看著生成式人工智能改變了我們使用軟件平台的方式。

客戶體驗(CX) 方面,我們已經從過去的機器人、斷開連接、令人沮喪的聊天機器人中走了很長一段路。 人工智能助理現在可以即時回答客戶問題、描述產品信息並解決問題。

生成式人工智能自主創建內容和個性化交互的能力為提高客戶參與度和滿意度打開了一扇可能性之窗。

雖然這項技術對每個企業來說都是令人興奮的,但它也可能在保護客戶數據、保持遵守現有法規和保持道德方面帶來挑戰。 在部署人工智能技術的過程中,您必須權衡利弊。

在 Ada,我們圍繞值得信賴的人工智能打造了我們的品牌,為客戶的詢問提供安全、準確和相關的解決方案。 下面我們將分享一些在保持合法合規的同時保持客戶信心的方法。  

您將在本文中學到什麼:

  • 人工智能如何幫助公司為客戶提供最佳價值
  • 在客戶體驗中使用人工智能的法律風險
  • 如何在客戶體驗中負責任地使用人工智能
  • 人工智能和您的客戶的未來會是什麼樣子

利用人工智能提升客戶體驗

G2 的 2023 年買家行為報告數據顯示,買家將人工智能視為其業務戰略的基礎,81% 的受訪者表示,他們未來購買的軟件具有人工智能功能非常重要或非常重要。 人工智能有望與商業密不可分。

在 Ada,我們相信客戶服務中的生成式人工智能有潛力:

  • 推動具有成本效益、高效的解決方案。 實施人工智能優先的客戶體驗。 您可以使用人工智能自動執行最常見的查詢響應來節省資源,而您的客戶專家可以專注於其他更複雜的任務。
  • 提供現代客戶體驗。 借助智能人工智能解決方案,客戶服務可以在世界各地隨時以任何語言以準確、可靠的信息回答問題。
  • 提陞技術背後的人。 借助自動化客戶服務工具,企業可以投資於客戶服務代理的戰略增長,並幫助幕後人員取得成功。

雖然好處很多,但公司必須在探索生成式人工智能和維護客戶信任之間找到平衡。

合法性和合規性

在您的公司建立生成式人工智能之前,您必須了解可能遇到的法律風險。 通過提前解決這些挑戰,企業可以保護客戶數據、遵守法律框架並建立客戶信任。

“對於任何公司來說,最糟糕的情況就是失去客戶的信任。”

塔拉·達塔尼
艾達法律總監

根據思科 2023 年數據隱私基準研究,94% 的受訪者表示,他們的客戶不會光顧不保護其數據的公司。 思科 2022 年消費者隱私調查顯示,60% 的消費者關心組織如今如何應用人工智能,65% 的消費者已經對組織的人工智能實踐失去了信任。

思科報告負責任地使用人工智能
資料來源思科 2022 年消費者隱私調查

所有這些都表明,在法律和合規性方面,注意有關客戶數據隱私、安全和知識產權的問題非常重要。

在 Ada 面向客戶服務領導者的人工智能和自動化工具包,我們深入探討了當您考慮使用哪個人工智能驅動的客戶服務供應商時要詢問的法律和安全問題。 我們還討論了與為客戶服務解決方案實施人工智能相關的輸入和輸出風險。

面向客戶服務領導者的 ADA 人工智能和自動化工具包輸入風險圖表面向客戶服務領導者的 ADA 人工智能和自動化工具包輸出風險圖表

資料來源艾達

保護客戶數據和隱私

使用生成式人工智能來提供客戶體驗時,數據安全和隱私是首要考慮的問題。 隨著人工智能算法處理大量數據,人們對數據洩露和隱私侵犯的擔憂始終在幕後增加。

您和您的公司可以通過仔細評估您正在考慮加入的任何生成式人工智能供應商的隱私和安全實踐來降低這種風險。 確保與您合作的供應商能夠以與您的組織相同的級別保護數據。 仔細研究他們的隱私和數據安全政策,以確保您對他們的做法感到放心。

“只向那些理解並維護您公司圍繞開發值得信賴的人工智能的核心價值觀的供應商做出承諾。”

塔拉·達塔尼
艾達法律總監

客戶對此類技術如何使用他們的數據也越來越感興趣。 因此,在決定供應商時,請確保您知道他們如何處理為自己的目的提供的數據,例如訓練他們的人工智能模型。

您的公司在這裡擁有的優勢是,當您與人工智能供應商簽訂合同時,您有機會協商這些條款並添加使用所提供數據的條件。 利用此階段,因為這是添加有關數據使用方式的限制的最佳時機。

所有權和知識產權

生成式人工智能根據從你那裡獲得的信息自主創建內容,這就提出了一個問題:“誰真正擁有這些內容?”

知識產權 (IP)的所有權是一個令人著迷但又棘手的話題,需要不斷討論和發展,尤其是圍繞版權法。

當您在 CX 中使用 AI 時,您必須為生成的工作建立明確的所有權準則。 在 Ada,它屬於客戶。 當我們開始與客戶合作時,我們從一開始就同意 Ada 聊天機器人生成的任何可擁有的輸出或提供給模型的輸入都是他們的。 在與供應商的合同談判階段確定所有權有助於防止爭議並使組織能夠公平合作。

確保您的人工智能模型接受合法獲得併獲得適當許可的數據的訓練可能需要尋求適當的許可協議、獲得必要的權限或創建完全原創的內容。 企業應明確知識產權和版權法及其原則,例如合理使用和變革性使用,以加強合規性。

降低風險

隨著圍繞生成人工智能和相關主題的所有興奮和炒作,它確實是目前令人興奮的法律實踐領域。 這些新發現的機遇令人矚目,但我們也需要確定潛在風險和發展領域。

當然,與合適的供應商合作並遵守最新法規是您的生成式人工智能之旅的重要一步。 Ada 的許多人發現加入以行業為中心的討論組是了解所有相關新聞的有效方法。

但是,您還能做些什麼來確保透明度和安全性,同時減輕與使用該技術相關的一些風險呢?

成立人工智能治理委員會

從一開始,我們 Ada 就建立了一個人工智能治理委員會,以創建一個正式的內部流程來進行交叉協作和知識共享。 這是構建負責任的人工智能框架的關鍵。 我們委員會審查的主題包括監管合規性更新、知識產權問題和供應商風險管理,所有這些都在產品開發和人工智能技術部署的背景下進行

這不僅有助於評估和更新我們的內部政策,還可以更好地了解我們的員工和其他利益相關者如何以安全和負責任的方式使用該技術。

人工智能的監管環境正在與技術的步伐相匹配。 我們必須緊跟這些變化,並調整我們的工作方式,以繼續引領該領域。

ChatGPT 為此類技術帶來了更多關注。 您的人工智能治理委員會將負責了解法規或可能出現的任何其他風險:法律、合規性、安全或組織風險。 該委員會還將重點關註生成式人工智能如何應用於您的客戶和您的業務。

識別值得信賴的人工智能

雖然您依靠大型語言模型 (LLM) 來生成內容,但請確保您的企業在此技術之上添加了配置和其他專有措施,以降低客戶的風險。 例如,在 Ada,我們利用不同類型的過濾器來刪除不安全或不可信的內容。

除此之外,您應該制定行業標準的安全程序,並避免將數據用於預定目的之外的任何用途。 在 Ada,我們在產品開發中融入的內容始終基於獲取實現您的目的所需的最少量的數據和個人信息。

因此,無論您擁有什麼產品,您的公司都必須確保其所有功能都考慮到這些因素。 提醒您的客戶,他們的數據面臨的這些潛在風險與使用生成式人工智能密切相關。 與在自己的產品設計中表現出同樣致力於維護可解釋性、透明度和隱私的組織合作。

這有助於您對客戶更加透明。 它使他們能夠更好地控制自己的個人信息,並就如何使用他們的數據做出明智的決定。

利用連續反饋循環

由於生成式人工智能技術變化如此之快,Ada 不斷通過客戶反饋評估潛在的陷阱。

我們的部門還注重跨職能,這一點至關重要。 產品、客戶成功和銷售團隊齊心協力,了解客戶的需求以及如何滿足他們的需求。

我們的客戶對我們來說是非常重要的信息來源! 他們對新功能提出了很好的問題,並提供了大量的產品反饋。 這確實挑戰我們要領先於他們的擔憂。

當然,作為法律部門,我們每天與我們的產品和安全團隊合作,讓他們了解可能的監管問題以及與客戶的持續合同義務。

應用生成式人工智能是公司全體的努力。 Ada 的每個人都被鼓勵並有權每天使用人工智能,並繼續評估隨之而來的可能性和風險。

人工智能和客戶體驗的未來

Ada 首席執行官 Mike Murchison在 2022 年 Ada Interact 大會上發表了關於人工智能未來的主題演講,他預測每家公司最終都會成為人工智能公司。 從我們的角度來看,我們認為無論是從客戶代理還是客戶的角度來看,整體體驗都將得到顯著改善。

客戶服務代理的工作將會得到改善。 這些角色的滿意度將會更高,因為人工智能將接管一些更平凡和重複的客戶服務任務,使客服人員能夠專注於其角色的其他令人滿意的方面。

成為早期採用者

生成式人工智能工具已經存在,並且將繼續存在。 您現在需要開始深入研究如何使用它們。

“生成式人工智能是下一件大事。 幫助您的組織負責任地使用這項技術,而不是採取觀望的方式。”

塔拉·達塔尼
艾達法律總監

您可以首先了解這些工具的用途以及它們的工作方式。 然後,您可以評估這些工作流程,以了解您的公司對什麼感到滿意,以及什麼將使您的組織能夠安全地實施生成式 AI 工具。

您需要與業務團隊保持聯繫,了解這些工具如何嘗試優化工作流程,以便您可以繼續與他們合作。 隨著技術的發展,繼續提出問題並評估風險。

有一種方法可以讓您負責並保持在新技術的前沿。 希望這篇文章可以幫助您找到那條線。


這篇文章是 G2 行業洞察系列的一部分。 所表達的觀點和意見僅代表作者個人觀點,並不一定反映 G2 或其工作人員的官方立場。