通过将人类置于循环中来减轻生成人工智能的风险
已发表: 2023-06-21“邪恶的人工智能没有可持续的用例。”
上周,经过认证的人工智能专家兼 Pega 决策和分析副总裁 Rob Walker 博士在 PegaWorld iNspire 会议上对流氓人工智能的圆桌讨论进行了总结。
他解释了不透明和透明算法之间的区别。 在 AI 频谱的一端,不透明算法以高速和高精度运行。 问题是,我们实际上无法解释他们是如何做的。 这足以使它们或多或少地无法完成需要问责的任务——例如,就抵押或贷款申请做出决定。
另一方面,透明算法具有可解释性的优点。 他们只是不太可靠。 他说,这就像一个选择,是接受可以向你解释的医生开的疗程,还是选择无法解释但更有可能是正确的机器。 这是一个选择——而且不是一个容易的选择。
但归根结底,将所有决策交给最强大的人工智能工具,冒着它们失控的风险,确实是不可持续的。
在同一次会议上,Pega 首席技术官 Don Schuerman 讨论了“自动驾驶仪”的愿景,这是一种人工智能驱动的解决方案,可帮助创建自主企业。 “我希望我们在 2024 年会有一些变化。我认为这将需要治理和控制。” 确实会:例如,我们当中很少有人愿意登上一架只有自动驾驶仪且无人参与的飞机。
循环中的人
让人类参与循环是会议上不变的口头禅,强调了 Pega 对负责任的 AI 的承诺。 早在 2017 年,它就推出了 Pega“T-Switch”,允许企业根据每个 AI 模型的滑动比例上下调节透明度水平。 “例如,使用不透明的深度学习模型对营销图像进行分类是低风险的。 相反,在公平借贷实践方面受到严格监管的银行需要高度透明的 AI 模型来展示贷款优惠的公平分配,”Pega 解释说。
然而,生成式人工智能带来了另一个层面的风险——尤其是营销等面向客户的功能。 特别是,它真的不在乎它是在说实话还是在编造事情(“幻觉”)。 如果不清楚,这些风险会随着生成 AI 的任何实施而出现,并不特定于任何 Pega 解决方案。
Pega AI 实验室主任 Peter van der Putten 解释说:“它预测最有可能和最合理的内容以及我们想听到的内容。” 但这也说明了问题。 “它可以说些什么,然后非常擅长提供似是而非的解释; 它也可以回溯。” 换句话说,如果两次设置相同的任务,它可以返回不同的——也许更好的——响应。
就在 PegaWorld 之前,Pega 宣布了 20 个由人工智能生成的“助推器”,包括人工智能聊天机器人、自动化工作流程和内容优化。 “如果你仔细观察我们推出的产品,”Putten 说,“几乎所有产品都有人参与。 高回报,低风险。 这就是构建 gen AI 驱动产品的好处,而不是让人们获得通用的生成 AI 技术。”
然后,Pega GenAI 提供了实现特定任务的工具(在后台运行大型语言模型); 它不仅仅是一张等待人类提示的空白画布。
对于像 gen AI 辅助聊天机器人这样的东西,循环中需要一个人是很明显的。 Schuerman 说:“我认为还需要一段时间,许多公司才会愿意将大型语言模型聊天机器人直接放在客户面前。” “生成式 AI 生成的任何东西——我希望人类在将其呈现给客户之前先看一下。”
每天四百万次互动
但是,将人置于循环中确实会引发有关可扩展性的问题。
荷兰烘焙和金融服务公司 Rabobank 的数字副总裁 Finbar Hage 在会议上表示,Pega 的客户决策中心每年为他们处理 15 亿次交互,即每天大约 400 万次。 该中心的工作是生成下一步最佳行动建议,实时、动态地创建客户旅程。 例如,下一个最佳行动可能是发送一封个性化的电子邮件——而 gen AI 提供了几乎立即创建此类电子邮件的可能性。
建议,这些电子邮件中的每一封在发送之前都需要经过人工批准。 那是多少封邮件? 营销人员需要分配多少时间来批准人工智能生成的内容?
也许更易于管理的是使用 Pega GenAI 以多种语言创建复杂的业务文档。 在他的主题演讲中,首席产品官 Kerim Akgonul 展示了使用 AI 为贷款申请创建复杂的土耳其语工作流程。 该模板考虑了全球商业规则和地方法规。
看看结果,身为土耳其人的 Akgonul 可能会发现一些错误。 这就是为什么需要人; 但毫无疑问,AI 生成加上人类认可似乎比人类生成后人类认可要快得多。
这就是我从我询问过的每一位 Pega 高管那里听到的。 是的,批准需要时间,企业需要实施治理——用舒尔曼的话来说是“规范的最佳实践”——以确保根据风险水平应用正确的治理水平。
对于市场营销而言,其本质上是面向客户的角色,这种治理水平可能很高。 然而,希望和承诺是,人工智能驱动的自动化仍将更好更快地完成工作。
获取营销技术! 日常的。 自由的。 在您的收件箱中。
见条款。
相关故事
MarTech 上的新功能