人工智能与伦理:为信任而战

已发表: 2018-10-02

我最近参加了在伦敦举行的AI 大会和数据科学峰会,并特意参加了题为 Ethics and AI 的小组讨论。 小组成员是 Not Terminator 的联合创始人 Harriet Kingaby 和 DataKind UK 的执行董事 Emma Perst。

伦理是一个非常有趣的讨论,也许是人工智能 (AI) 发展中最重要的方面。 去年,我们发布了《机器学习营销人员现场指南》,并讨论了人工智能和道德主题以及公平、可解释性和安全性等主题。 如果人工智能完全不道德地发展,我们将完全失去对它的信任,所以我们必须把它放在首位。

在我们的电子书中,我们讨论了:

迄今为止,ML 和 AI 主要用于执行较低级别的、主要是平凡的任务,以帮助提高生产力。 但很快他们就可以真正决定生死。 自动驾驶汽车不仅负责将乘员安全送达目的地,还负责确保其他所有人的安全。 自动驾驶汽车陷入不可能的境地只是时间问题。 事故是不可避免的,它唯一的选择是转向左侧的行人A或右侧的行人B。 引擎盖下的人工智能系统将如何决定采取何种行动? 根据大小? 年龄? 社会地位? 当事故调查人员试图确定影响结果的因素时,他们会发现其中包含道德上令人不安的逻辑吗?

这些问题确实让我们感到困惑,但我们已经看到了一些结果。 道德和人工智能的话题不仅在会议室和大学里被讨论,它已经进入立法页面,很快就会融入我们作为一个社会如何运作的结构中。

人工智能的好与坏——一年内会发生很多事情

自从我们的机器学习电子书在不到一年前发布以来,已经有很多人工智能的发展(无论好坏)。

特斯拉报告了自动驾驶汽车的自动驾驶事故,并且出现了像Deepfake这样的技术,深度学习技术可用于创建数字媒体,方法是将真人的图像叠加到他们没有参与的场景中,以制造假新闻或恶作剧。

在一次非常不幸的事件中,一辆优步自动驾驶汽车撞死了一名行人 发生这场悲剧是因为我们的社会信任人工智能技术。 虽然后来发现人为错误在事故中起了一定作用,但一旦你将这些东西标记为人工智能,就很难说这项技术不够智能不能留给自己的设备使用。 尽管发生了这场可怕的悲剧,汽车公司和宜家)继续宣布新的自动驾驶汽车计划。

虽然人工智能的伦理因其潜在的危害而值得讨论,但同样是对其发展的信任也导致了我们目前从中受益的许多惊人的结果。

一如既往,技术是问题的一部分,也是解决方案的一部分。 考虑一下人工智能的快速发展和每天涌现的新应用,例如:

  • 人工智能分析肿瘤图像并识别肺癌类型
  • 人工智能让每个人都成为伟大的摄影师
  • 可以使服务器场更高效的人工智能

您可能听说过也可能没有听说过这些引人入胜且有益的技术。 围绕悲剧的媒体轰动更为普遍。 炒作和兴奋围绕着人工智能技术的错误,因为它吸引了更多的关注; 从 AI 助手的平凡、经常搞笑的失败到有关更严重的隐私问题的故事

关键是,不管你是否听说过,人工智能正在做许多积极的事情,尽管它的错误已经广为人知。 这些考验和磨难让人们议论纷纷,更高层次的讨论肯定会在塑造我们的未来方面发挥作用。

以合乎道德的方式发展人工智能的有组织的努力

围绕人工智能发展的高度宣传的错误、学术突破和技术边界的突破已经引起了全球领导者的关注。 毕竟,人工智能已经在使用,民间社会正准备以各种方式被广泛接受。

政府和协会必须对其进行监测和讨论。 他们是好事。 这是我脑海中的示例的简短列表:

  • 教育未来的人工智能技术人员推进技术造福人类( AI4ALL )。
  • 联合国致力于了解它如何帮助实现经济增长并为更大的利益而努力
  • 研究人工智能的社会影响( AI Now Institute
  • 在一封公开信中呼吁技术领导者拥抱以人为本、透明和基于信任的技术发展
  • 让人工智能成为议会工作的一部分:英国上议院人工智能特别委员会考虑人工智能的经济、伦理和社会影响

道德操作系统

道德操作系统是建立一个框架的实践,该框架试图通过最小化未来的技术和声誉风险来保证未来的技术发展。 它不仅考虑新技术如何使世界变得更好,还考虑它如何损坏事物或被滥用。

该操作系统提出了一些需要考虑的一般领域:

  • 真相与虚假信息
    你正在研究的技术可以变成一种可以用来“伪造”东西的工具吗?

  • 对于一个新工具的创造者来说,它是如此受欢迎,人们花了很多时间使用它,这对他们来说是件好事,但它对他们的健康有好处吗? 该工具是否可以变得更高效,让人们能够很好地度过他们的时间,而不是无休止地度过? 如何设计它以鼓励适度使用?
  • 不等式
    谁可以访问,谁不能? 那些无法访问的人会受到负面影响吗? 该工具是否对经济福祉和社会秩序产生负面影响?
  • 伦理
    用于构建技术的数据是否存在任何偏见? 该技术是否加强了现有的偏见? 开发工具的团队是否足够多样化以帮助发现过程中的偏差? 该工具是否足够透明以供其他人“审核”它? 招聘人工智能以消除偏见的例子——但它的创造者呢,他们可能持有什么偏见?
  • 监视
    政府或军方能否将技术变成监视工具或使用它来限制公民的权利? 收集的数据是否允许跟随用户一生? 您不希望哪些人出于他们的目的访问这些数据?
  • 数据控制
    你在收集什么数据? 你需要它吗? 你从中获利吗? 您的用户是否分享了该利润? 用户对他们的数据有权利吗? 不良行为者会如何处理这些数据? 如果您的公司被收购,数据会怎样?
  • 隐式信任
    你的技术有用户权限吗? 条款是否清晰易懂? 您是否对他们可能关心的用户隐藏信息? 用户可以在仍然使用该技术的同时选择加入和退出某些方面吗? 所有的用户都是平等的吗?
  • 仇恨和其他犯罪
    该技术可以用于欺凌或骚扰吗? 可以用来散播仇恨、歧视他人吗? 可以武器化吗?

有很多领域需要考虑,但每个领域都有其自身的含义,这可不是什么好笑的事情。 Ethical OS 表示,一旦确定了潜在 AI 开发的风险,就可以在利益相关者之间共享,以全面审查问题。

迈向智能和道德的未来

我在AI 大会和数据科学峰会上参加的小组讨论总结了其他策略,以帮助 AI 开发人员更合乎道德地向前发展。 他们说技术伦理应该融入商业文化并成为企业愿景的一部分,并且道德的人工智能赏金猎人可以像漏洞猎人一样运作!

随着GDPR2018 年加州消费者隐私法案等主要消费者隐私立法的生效,我们已经看到数据科学的进步将如何受到政策的影响。

一些假设表明,法规将减缓人工智能的发展。 虽然在此过程中可能会发生这种情况,但如果消费者对他们的数据和个人信息没有被滥用更有信心,则可以增加对该过程的信任。 这甚至可能导致更多的使用和采用——谁知道呢。

我们当然没有所有的答案,但我们正在密切关注讨论。

图片来源

特色图片:Unsplash / Markus Spiske