人工智能内容的 6 大风险
已发表: 2023-04-181.谷歌风险
早在 2022 年 4 月,谷歌的 John Mueller 就人工智能生成内容的有效性分享了一个非常明确的立场:
“目前,这一切都违反了网站管理员指南。 所以从我们的角度来看,如果我们遇到类似的东西,如果网络垃圾邮件团队看到它,他们就会将其视为垃圾邮件。”
推论:谷歌会惩罚创建人工智能内容的网站,穆勒将其比作“旋转”——利用现有内容并使用同义词和单词重新排序来创建看似新内容的过程。 当面对可以将内容创建的边际成本降低到几乎为零的技术(网络垃圾邮件发送者的梦想)时,Google 决定阻止其使用。
但正如我们之前解释的那样,谷歌会——甚至可能——惩罚人工智能生成的内容的想法被大大简化了:
- 从大多数标准来看,人工智能生成的内容都是原创的。 GPT-4 不会旋转内容。 人工智能生成的内容包含原创内容,甚至可以包含全新的想法。
- 人工智能内容检测很难,而且越来越难。 技术是一场军备竞赛,流入内容生成的资金多于内容检测。 谷歌不太可能以任何程度的一致性检测到人工智能生成的内容。
- 人工编辑的内容和人工智能编写的内容之间的界限很模糊。 如果由真人编辑或重写,AI 生成的文章是否仍然算作垃圾邮件?
十个月后,即 2023 年 2 月,谷歌发布了有关人工智能生成内容的更新指南。 阅读源文章并做出自己的总结是值得的,但我的要点很明确:目标是创建有用的、解决问题的内容,而谷歌将在很大程度上对其创建方式持矛盾态度。 正如他们总结的那样:
“长期以来,自动化一直被用于出版业以创建有用的内容。 人工智能可以以令人兴奋的新方式协助并生成有用的内容。”
当我与 Vendr 的品牌负责人 Ty Magnin 谈论 AI 内容时,他分享道: “当我们刚开始时(实际上就在几个月前),谷歌说它会惩罚用 AI 编写的文章。 我们大多数人都说他们虚张声势,但这在 2022 年是一个真正的潜在风险。令人惊讶的是,人们对 gen-AI 的风险状况的感知变化如此之快。”
没有人能保证任何行为都不会受到惩罚——毕竟,谷歌是一家公司,而不是一家公用事业公司,能够在很大程度上根据自己的想法做出决定。 但是有充分的理由认为大多数用例都是安全的。
2.渠道风险
关于搜索引擎优化的主题,还有另一个值得考虑的角度。 与其考虑谷歌给你使用人工智能带来的风险,不如考虑人工智能给谷歌带来的风险。
关键字的竞争日益激烈。 搜索引擎优化的回报一直处于长期递减的轨道上,生成人工智能可能会加速这种下降。 伴随着对在线内容合法性日益增长的怀疑,人工智能推动的内容创作大幅上升,搜索的回报可能会进一步下降(我们称之为“搜索奇点”)。
有很多可能发生的方式:
这种风险是推测性的,但值得保持开放的心态。 生成式人工智能可能代表现代搜索的分水岭。 如果 SEO——许多内容策略的存在理由——突然需要更多的努力,或者提供更低的回报,你会怎么做? 你会在哪里重新分配你的支出? 这是 Ty 已经在考虑的事情:
“搜索引擎正在尝试将聊天作为主要交互方式,这意味着更少的点击会转到其他网站。 因此,创建以搜索为中心的有机内容对企业来说可能会变得不那么有价值。
目前尚不清楚聊天如何归功于其来源以及这如何影响营销渠道。”
3. 幻觉风险
使用生成式 AI 时,您的内容确实存在充满虚假和虚构的风险:引用真实人物的虚构引述、不存在的数据、看似合理的想法在仔细检查后会分崩离析。
这些错误(通常被称为“幻觉”)是生成式 AI 的固有属性,是其主要目标的结果:预测任何给定单词序列中的下一个最佳单词。 正如我们之前解释的那样,生成式 AI 是一种错误的信心机器:
- GPT-3 或 GPT-4 中没有事实核查机制(也不可能有)。
- 这些模型利用的是通常不正确的源数据。
- 生成式 AI 旨在不惜一切代价编写内容,即使数据集中的数据有限也能输出内容。
幻觉是人工智能内容最具体的风险,但也是最容易解决的。 可以通过将人置于循环中来发现和纠正错误和错误,有人负责分析输出的有效性,寻找错误和谎言,并在完成的文章上盖上他们的认可印章。
此过程还有助于解决下一个风险来源:法律。
4. 法律风险
技术的发展速度往往快于法规跟上的速度。 生成式 AI 已经产生了许多需要回答的问题:
- 使用抓取的网站数据来训练 AI 模型是否合乎道德(或合法)?
- 谁真正“拥有”生成式 AI 工具的输出?
- 艺术家在构建训练数据中的作用是否应该得到补偿? (“以欧内斯特·海明威的风格写作”,甚至“以 Animalz 博客的风格写作。”)
虽然其中一些问题可能需要数年或数十年才能解决,但其他问题则让使用生成式人工智能的公司迫在眉睫。 我请 Duane Morris LLP(一家 Animalz 用于提供法律服务的公司)的知识产权和人工智能问题专家兼合伙人 Aleksander Goranin 分享他对当前监管风险领域的看法:
- 泄露个人数据。 由于生成模型是在公共数据集上训练的,因此生成的内容可能会无意中“泄露”个人数据,从而使出版商容易受到联邦贸易委员会和州机构的执法行动的威胁,尤其是在加利福尼亚州、纽约州和伊利诺伊州。 监管机构对未经授权披露个人身份信息非常敏感。
- 偏颇的内容。 同样,联邦贸易委员会或州当局可能会对包含偏见(如种族或性别偏见)的内容采取执法行动,即使这种偏见隐含地来自人工智能模型训练的数据。
- 缺乏版权保护。 正如 Aleksander 解释的那样, “版权局可能不会将生成的内容注册为受保护的‘作品’。” 这是版权局目前发布最多指南的领域——本质上,人们需要在注册申请中披露人工智能的使用范围,并放弃对 LLM 实质性产生的任何部分的版权。 版权局需要一位‘人类作者’。”
不出所料,生成式人工智能最安全的用例是背景研究、头脑风暴和创意生成。 对于其他任何事情,为生成的内容创建“人工审查”方案应该有助于减轻最大的监管风险。
5.平庸的风险
许多人担心 AI 内容会非常糟糕。 但我认为这是相对低风险的。 GPT-4 是比大多数人更好的作家:更善于表达,更有创造力,更容易接受反馈(这只会随着未来的模型和界面而改进)。
我们不应该将此视为个人:GPT-4 确实是超人,至少在阅读和写作方面是这样。 正如 Ty 所分享的那样,“很明显,这项技术已经足够强大了,只要稍微提升一下,人工智能辅助帖子的质量就不再是人工帖子的问题了。”
但内容不一定是坏的才会有问题。 还有一个更隐蔽的风险需要考虑:您的内容将是实用的但会被遗忘。
在追求更高的发布频率时,存在失去内容当前所拥有的任何闪烁的独特性的风险。 你的内容将是清晰的、准确的,甚至是可操作的……但仍然无法为你的公司做任何有用的事情。
伟大的内容营销不仅仅是页面上的文字。 每篇文章都需要与更大的、有目的的策略相结合。 它依赖于有效的分配。 它需要比简单地满足读者的基本期望更进一步:它需要留下持久的印象,或者解决一个问题,或者娱乐。
过分依赖生成式人工智能而过少依赖熟练的经验,你可能会创造出一种对优质内容的无情模仿,一种看似“内容营销”但没有任何有用品质的蹒跚学步的僵尸。 生成式 AI 需要成为您工具包中的一个工具,从属于您的战略——而不是其本身的目的。
正如 VC Tomasz Tunguz 所写, “初创公司评估自动化内容制作的问题是:这是否足以在买家心目中脱颖而出。 对于许多用例,唯一性并不重要。 产品文档、SEO 的常青内容、电子邮件的预设回复。” 反之亦然:在某些情况下,唯一性就是一切。
6. 后发风险
当 Ty 推出人工智能辅助内容计划时,他听到的主要担忧不是法律风险或质量差; 令人担忧的是,最好的机会已经过去:
“有些人认为现在增加我们正在制作的内容量已经太晚了,市场将在几个月内饱和。
但我认为人们高估了技术被采用的速度。 我认为人们仍未意识到 AI 生成的内容可以做什么。”
与任何新技术一样,生成式 AI 具有不确定性和一定程度的风险——但风险伴随着机遇。 有机会在竞争对手之前建立可防御的排名和反向链接护城河。 尝试全新流量渠道的机会。 将个性化嵌入营销核心的机会。
谈到 AI 内容时,最明显、最确定的风险来自未能进行实验和学习。 生成式人工智能将融入每一种营销策略。 它对其他任何东西来说都太好太便宜了。 尽管生成人工智能的“正确”应用因公司而异——根据风险承受能力、受众期望、目标、资源和个人信仰而定——但几乎每家公司都会有应用。
是时候去找它了。