人工智能的伦理:我们应该问的 4 个基本问题
已发表: 2023-07-31一年前,如果我在餐桌上说“人工智能” ,我(成熟的)家人不会知道我在说什么。当然,孩子们除外。孩子们已经知道一切了。
最近,面向消费者的生成人工智能工具的广泛使用引发了全球对话,从机器人接管到节省时间的任务从我们工作中的全部工作中解放出来的兴奋。
世界各地的主题专家一直在加倍努力为大众创建机器学习资源,而政策制定者则考虑采取监管措施来提供护栏,因为不良行为者会对我们当前的系统进行实地压力测试。
与此同时,我们制定的技术政策难以跟上创新的速度,人们无法有效地从网上的小说中辨别事实,隐私被一些吹捧其必要性的机构公然忽视。
“简而言之,人工智能现在正在塑造知识、沟通和权力。”
凯特·克劳福德
人工智能地图集
回答围绕人工智能的四个主要问题
我们如何获得关于培育人工智能影响力的意见? 我们如何主动减轻人工智能造成的危害? 作为个人、公司和立法者,我们如何才能最大限度地降低打开机器学习蠕虫罐头的风险?
它始于道德——我们每个人,作为个体,做出符合道德的决定。
我们是创新者。 我们是工人。 我们是一家人。 我们是社区。 我们是企业。 我们是国家。 我们是全球人类。 我们正在建造、喂养和训练机器,因此对它们的输出有 100% 的投入。
人工智能将影响这个星球上的我们每一个人,我们每个人都对人工智能如何(或不被)进入我们的生活有着利害关系和发言权。
我们从生活和商业中的错误中吸取教训,人工智能也不例外。 学习是人工智能本质的基础。 毕竟,它被称为机器学习。 我们如何构建它决定了它会输出什么。 那么道德在这里适用于哪里呢?
道德原则必须在整个人工智能生命周期的四个主要阶段得到落实:
- 我们如何构建它
- 我们投入了什么
- 我们如何处理输出
- 我们如何减轻意外和不可避免的后果
你猜对了,忽略生命周期的最后一步是不道德的。
这些阶段似乎是分配规则和指南的完全合理的里程碑。 自 20 世纪 50 年代以来,我们一直与机器学习算法并存。 我们花了几年时间起草全球数据和人工智能道德标准。 然而,我们距离达成一致还很远,距离采用更远。
如果我们看看大型科技公司目前面临的一些法律障碍,很明显,那些负责在人工智能生命周期的每个阶段做出决策的人并没有认真考虑道德因素。
围绕人工智能的道德问题
那么,我们如何坚持参与人工智能生命周期每个阶段的人员的道德实践呢?
我们问问题,我们问更多的问题,然后我们再次问同样的问题,我们永远不会停止问问题。
- 每个阶段的决策者是谁? 我们需要解决这个问题,以减少偏见,确保最佳实践,并包容思想的多样性。
- 决策是为谁制定和优化的? 这再次减少了偏见,但更重要的是,它确保在继续前进之前评估对各方的影响。
- 大规模推动人工智能需要哪些资本? 这是进行合乎逻辑的长期效益成本分析所必需的。
- 社会、政治和经济影响是什么? 了解因果关系对于随着时间的推移不断纠正指导方针是必要的。 (我喜欢认为这一步与敏捷产品开发保持一致:启动、学习、重复。)
人工智能如何影响劳动力和经济
斯坦福大学、麻省理工学院和微软研究院最近的三个案例研究发现,与不使用工具完成任务的员工相比,使用生成式人工智能工具提高员工生产力的结果相似。
在不同的学科(客户支持、软件工程和业务文档创建)中,我们从经验数据中看到,业务用户的吞吐量平均提高了 66%。 在最好的情况下,这可以节省认知要求较高的任务的时间,为更加个性化的人性化、想象力和完美的交付成果创造条件。
随着生产力的大规模提高,人们担心某些工作最终会被淘汰。 从历史上看,当新的创新进入劳动力市场时,一个行业就会有一个自然的生命周期。 例如,有没有想过电话接线员发生了什么?
没有人拥有一种神奇的开关,可以让技能不足或资质不足的工人立即进入需要更高级技能的行业。 历史上存在着依赖并耗尽社会安全网的技能差距。 这些技能差距需要时间来识别、资助和填补。 尽管一些国家积极支持提高工人的技能,但数据显示,全球人口中最弱势的群体往往在这些创新鼎盛时期受到不成比例的影响。
虽然经济预测强烈表明生成式人工智能在商业中的应用对劳动力市场产生了积极的影响,但我们是否完全知道这种经济繁荣面临的风险是什么?
艺术家、音乐家、电影制片人和作家等创意人士都曾对 OpenAI 和 Facebook 母公司 Meta 提起多起集体诉讼。 受益于人工智能的大型科技公司反驳了艺术家受版权保护的作品被非法用于训练人工智能模型的说法。 艺术家们正在成群结队地删除在线帐户,盖蒂图片社等知名创意公司正在提起诉讼。 作为回应,联邦贸易委员会最近调查了 OpenAI 的在线数据抓取行为。
这是人工智能生命周期四个阶段的完美例子。 让我们问一下我们的道德问题:
- 谁做出了这些决定? 不是创意。
- 这些决策针对谁进行了优化? 不是创意。
- 资本成本是多少? 人力资本? 金融中心? 自然资本? 也许这三个方面都是以牺牲创意人员为代价的。
- 是否考虑了社会、政治和经济影响? 也许吧,但是是谁做的呢? 不是创意。
我们是否愿意冒着一代创意者及其相关行业拒绝在网上发布作品的风险? 这将如何影响我们的创意文化演变、创作者的生计以及它将产生的长期社会和政治影响? 是否有人考虑过这种潜在影响,确定法律和声誉风险是否合理,并决定继续前进?
或许。 或者他们根本就没有考虑清楚。 在这两种情况下,无论他们对法律含义的解释如何,该决定都是不道德的。
作为一个全球经济体,至关重要的是要确定在道德实践中运作的组织,以便将其支持优先于那些违反道德标准的组织。 如果不暴露决策者的道德立场,我们就有可能在需要广泛审查的时刻不经意地采取另一种方式。
要点问题:我们如何衡量、衡量或识别公司的道德状况?
请在这里告诉我们。
人工智能如何对环境产生影响
人工智能是一种能源密集型基础设施。 环境影响在很大程度上是看不见和想不到的,而且在科技行业这样的领域往往是事后才想到的。
《麻省理工科技评论》报道称,训练一个 AI 模型所排放的碳相当于五辆汽车的碳排放量,相当于超过 626,000 磅的二氧化碳。 地球矿物在为生成人工智能的大规模计算处理提供能量方面也发挥着重要作用。 开采计算物理基础设施所需的金属常常以当地和地缘政治暴力为代价。
“如果没有这些地方的矿物质,现代计算根本无法进行。”
凯特·克劳福德
人工智能地图集
请记住我们的第三个道德问题:大规模推动人工智能需要什么资本? 做出逻辑性的长期效益成本分析。 如果我们有足够的勇气提出正确的问题,那么自然资本对我们星球的影响就不应该被排除在外。
提出正确的问题可能会让人感到害怕,尤其是当这些问题涉及到你自己的生计并成为争论的根源时。 但为了知识就是力量,技术人员必须拥抱透明度,最终参与任何符合道德的技术解决方案。
这不是公司破坏! 一群“也了解环境整体状况”的机器学习从业者致力于构建支持工具来评估其工作产生的碳排放。 经过评估后,他们可以计算出减少这些排放的方法。 他们甚至制作了这个排放计算器,以便其他人工智能从业者可以计算估计值。
要点问题:我们如何鼓励技术人员和提供商勇敢地保持人工智能透明度?
请在这里告诉我们。
投资回报率框架如何影响人工智能道德
仅靠监管并不能解决我们的人工智能问题。 技术人员经常受到指标的激励,对他们来说,这些指标在道德上似乎是不可知论的,因为它们不受监管,但它们确实产生了投资回报。 这些产生投资回报率的框架是什么? 我们在哪里看到这些规则集向遵守规则的公司返回某种形式的奖励?
让我们考虑一下 Google PageRank 算法作为对技术道德的非监管影响的一个例子。 Google PageRank 算法分析“与整体页面体验相符的各种信号”。 这包括符合用户体验最佳实践、遵循 ADA 指南和隐私政策的元素。
没有暗网模式就意味着良好的排名。 不遵守 ADA 将意味着排名较差。 通过改善网站的存在并遵循 Google 的指导方针,我们看到基于遵守一组非监管规则而无意中做出的道德决策。
为什么您公司的网站应该遵循其他公司算法中建议的最佳实践? 因为这样做可以锁定您在 Google 上获得良好排名的最佳机会。 对公司在网上的可发现性和感知重要性的影响,这会影响他们的底线,是一种激励因素,从而在没有监管强制执行的情况下影响道德实践。
要点问题:我们如何让我们的技术人员对传统监管空间之外的道德实践负责? 他们认为什么有价值? 他们从哪里获得成功的动力?
请在这里告诉我们。
从我们开始
无论你是谁,每个人都在尽量减少不道德地使用人工智能和机器学习工具带来的风险方面发挥着作用。 作为个人,我们围绕人工智能的使用以及如何向这些机器教授社会知识以及教授什么内容做出道德决策至关重要。
人工智能的故事才刚刚开始,而它将如何彻底改变未来是一个尚未被书写的故事。 值得庆幸的是,我们对人工智能如何在我们的个人和职业生活中发展有发言权。 这一切都归结为确保道德是首要考虑的。
G2 希望收到您的来信!
那些对人工智能道德感兴趣的人,请分享您对本次对话中缺少的对您、您的行业、公司或生计最重要的内容的看法。 我计划继续开展此对话,并根据您和 G2 社区其他成员的见解和学习来分享后续文章。
想要更多思想领导力吗? 本文是 G2 之声系列的一部分,该系列介绍了多位有影响力的 G2 领导人。