通過將人類置於循環中來減輕生成人工智能的風險
已發表: 2023-06-21“邪惡的人工智能沒有可持續的用例。”
上週,經過認證的人工智能專家兼 Pega 決策和分析副總裁 Rob Walker 博士在 PegaWorld iNspire 會議上對流氓人工智能的圓桌討論進行了總結。
他解釋了不透明和透明算法之間的區別。 在 AI 頻譜的一端,不透明算法以高速和高精度工作。 問題是,我們實際上無法解釋他們是如何做的。 這足以使它們或多或少地無法完成需要問責的任務——例如,對抵押貸款或貸款申請做出決定。
另一方面,透明算法具有可解釋性的優點。 他們只是不太可靠。 他說,這就像一個選擇,是接受可以向你解釋的醫生開的療程,還是選擇無法解釋但更有可能是正確的機器。 這是一個選擇——而且不是一個容易的選擇。
但歸根結底,將所有決策交給最強大的人工智能工具,冒著它們失控的風險,確實是不可持續的。
在同一次會議上,Pega 首席技術官 Don Schuerman 討論了“自動駕駛儀”的願景,這是一種人工智能驅動的解決方案,可幫助創建自主企業。 “我希望我們在 2024 年會有一些變化。我認為這將需要治理和控制。” 確實會:例如,我們當中很少有人願意登上一架只有自動駕駛儀且無人參與的飛機。
循環中的人
讓人類參與循環是會議上不變的口頭禪,強調了 Pega 對負責任的 AI 的承諾。 早在 2017 年,它就推出了 Pega“T-Switch”,允許企業根據每個 AI 模型的滑動比例上下調節透明度水平。 “例如,使用不透明的深度學習模型對營銷圖像進行分類是低風險的。 相反,在公平借貸實踐方面受到嚴格監管的銀行需要高度透明的 AI 模型來展示貸款優惠的公平分配,”Pega 解釋說。
然而,生成式人工智能帶來了另一個層面的風險——尤其是營銷等面向客戶的功能。 特別是,它真的不在乎它是在說實話還是在編造事情(“幻覺”)。 如果不清楚,這些風險會隨著生成 AI 的任何實施而出現,並不特定於任何 Pega 解決方案。
Pega AI 實驗室主任 Peter van der Putten 解釋說:“它預測最有可能和最合理的內容以及我們想听到的內容。” 但這也說明了問題。 “它可以說些什麼,然後非常擅長提供似是而非的解釋; 它也可以回溯。” 換句話說,如果兩次設置相同的任務,它可以返回不同的——也許更好的——響應。
就在 PegaWorld 之前,Pega 宣布了 20 個由人工智能生成的“助推器”,包括人工智能聊天機器人、自動化工作流程和內容優化。 “如果你仔細觀察我們推出的產品,”Putten 說,“幾乎所有產品都有人參與。 高回報,低風險。 這就是構建 gen AI 驅動產品的好處,而不是讓人們獲得通用的生成 AI 技術。”
然後,Pega GenAI 提供了實現特定任務的工具(在後台運行大型語言模型); 它不僅僅是一張等待人類提示的空白畫布。
對於像 gen AI 輔助聊天機器人這樣的東西,循環中需要一個人是很明顯的。 Schuerman 說:“我認為還需要一段時間,許多公司才會願意將大型語言模型聊天機器人直接放在客戶面前。” “生成式 AI 生成的任何東西——我希望人類在將其呈現給客戶之前先看一下。”
每天四百萬次互動
但是,將人置於循環中確實會引發有關可擴展性的問題。
荷蘭烘焙和金融服務公司 Rabobank 的數字副總裁 Finbar Hage 在會議上表示,Pega 的客戶決策中心每年為他們處理 15 億次交互,即每天大約 400 萬次。 該中心的工作是生成下一步最佳行動建議,實時、動態地創建客戶旅程。 例如,下一個最佳行動可能是發送一封個性化的電子郵件——而 gen AI 提供了幾乎立即創建此類電子郵件的可能性。
建議,這些電子郵件中的每一封在發送之前都需要經過人工批准。 那是多少封郵件? 營銷人員需要分配多少時間來批准人工智能生成的內容?
也許更易於管理的是使用 Pega GenAI 以多種語言創建複雜的業務文檔。 在他的主題演講中,首席產品官 Kerim Akgonul 展示了使用 AI 為貸款申請創建複雜的土耳其語工作流程。 該模板考慮了全球商業規則和地方法規。
看看結果,身為土耳其人的 Akgonul 可能會發現一些錯誤。 這就是為什麼需要人; 但毫無疑問,AI 生成加上人類認可似乎比人類生成後人類認可要快得多。
這就是我從我詢問過的每一位 Pega 高管那裡聽到的。 是的,批准需要時間,企業需要實施治理——用舒爾曼的話來說是“規範的最佳實踐”——以確保根據風險水平應用正確的治理水平。
對於市場營銷而言,其本質上是面向客戶的角色,這種治理水平可能很高。 然而,希望和承諾是,人工智能驅動的自動化仍將更好更快地完成工作。
獲取營銷技術! 日常的。 自由的。 在您的收件箱中。
見條款。
相關故事
MarTech 上的新功能