人工智能內容的 6 大風險

已發表: 2023-04-18

1.谷歌風險

早在 2022 年 4 月,谷歌的 John Mueller 就人工智能生成內容的有效性分享了一個非常明確的立場:

“目前,這一切都違反了網站管理員指南。 所以從我們的角度來看,如果我們遇到類似的東西,如果網絡垃圾郵件團隊看到它,他們就會將其視為垃圾郵件。”

推論:谷歌會懲罰創建人工智能內容的網站,穆勒將其比作“旋轉”——利用現有內容並使用同義詞和單詞重新排序來創建看似新內容的過程。 當面對可以將內容創建的邊際成本降低到幾乎為零的技術(網絡垃圾郵件發送者的夢想)時,Google 決定阻止其使用。

但正如我們之前解釋的那樣,谷歌會——甚至可能——懲罰人工智能生成的內容的想法被大大簡化了:

  • 從大多數標準來看,人工智能生成的內容都是原創的。 GPT-4 不會旋轉內容。 人工智能生成的內容包含原創內容,甚至可以包含全新的想法。
  • 人工智能內容檢測很難,而且越來越難。 技術是一場軍備競賽,流入內容生成的資金多於內容檢測。 谷歌不太可能以任何程度的一致性檢測到人工智能生成的內容。
  • 人工編輯的內容和人工智能編寫的內容之間的界限很模糊。 如果由真人編輯或重寫,AI 生成的文章是否仍然算作垃圾郵件?

十個月後,即 2023 年 2 月,谷歌發布了有關人工智能生成內容的更新指南。 閱讀源文章並做出自己的總結是值得的,但我的要點很明確:目標是創建有用的、解決問題的內容,而谷歌將在很大程度上對其創建方式持矛盾態度。 正如他們總結的那樣:

“長期以來,自動化一直被用於出版業以創建有用的內容。 人工智能可以以令人興奮的新方式協助並生成有用的內容。”

當我與 Vendr 的品牌負責人 Ty Magnin 談論 AI 內容時,他分享道: “當我們剛開始時(實際上就在幾個月前),谷歌說它會懲罰用 AI 編寫的文章。 我們大多數人都說他們虛張聲勢,但這在 2022 年是一個真正的潛在風險。令人驚訝的是,人們對 gen-AI 的風險狀況的感知變化如此之快。”

沒有人能保證任何行為都不會受到懲罰——畢竟,谷歌是一家公司,而不是一家公用事業公司,能夠在很大程度上根據自己的想法做出決定。 但是有充分的理由認為大多數用例都是安全的。

2.渠道風險

關於搜索引擎優化的主題,還有另一個值得考慮的角度。 與其考慮谷歌給你使用人工智能帶來的風險,不如考慮人工智能給谷歌帶來的風險。

關鍵字的競爭日益激烈。 搜索引擎優化的回報一直處於長期遞減的軌道上,生成人工智能可能會加速這種下降。 伴隨著對在線內容合法性日益增長的懷疑,人工智能推動的內容創作大幅上升,搜索的回報可能會進一步下降(我們稱之為“搜索奇點”)。

有很多可能發生的方式:

這種風險是推測性的,但值得保持開放的心態。 生成式人工智能可能代表現代搜索的分水嶺。 如果 SEO——許多內容策略的存在理由——突然需要更多的努力,或者提供更低的回報,你會怎麼做? 你會在哪裡重新分配你的支出? 這是 Ty 已經在考慮的事情:

“搜索引擎正在嘗試將聊天作為主要交互方式,這意味著更少的點擊會轉到其他網站。 因此,創建以搜索為中心的有機內容對企業來說可能會變得不那麼有價值。

目前尚不清楚聊天如何歸功於其來源以及這如何影響營銷渠道。”

3. 幻覺風險

使用生成式 AI 時,您的內容確實存在充滿虛假和虛構的風險:引用真實人物的虛構引述、不存在的數據、看似合理的想法在仔細檢查後會分崩離析。

這些錯誤(通常被稱為“幻覺”)是生成式 AI 的固有屬性,是其主要目標的結果:預測任何給定單詞序列中的下一個最佳單詞。 正如我們之前解釋的那樣,生成式 AI 是一種錯誤的信心機器:

  • GPT-3 或 GPT-4 中沒有事實核查機制(也不可能有)。
  • 這些模型利用的是通常不正確的源數據。
  • 生成式 AI 旨在不惜一切代價編寫內容,即使數據集中的數據有限也能輸出內容。

幻覺是人工智能內容最具體的風險,但也是最容易解決的。 可以通過將人置於循環中來發現和糾正錯誤和錯誤,有人負責分析輸出的有效性,尋找錯誤和謊言,並在完成的文章上蓋上他們的認可印章。

此過程還有助於解決下一個風險來源:法律。

4. 法律風險

技術的發展速度往往快於法規跟上的速度。 生成式 AI 已經產生了許多需要回答的問題:

  • 使用抓取的網站數據來訓練 AI 模型是否合乎道德(或合法)?
  • 誰真正“擁有”生成式 AI 工具的輸出?
  • 藝術家在構建訓練數據中的作用是否應該得到補償? (“以歐內斯特·海明威的風格寫作”,甚至“以 Animalz 博客的風格寫作。”)

雖然其中一些問題可能需要數年或數十年才能解決,但其他問題則讓使用生成式人工智能的公司迫在眉睫。 我請 Duane Morris LLP(一家 Animalz 用於提供法律服務的公司)的知識產權和人工智能問題專家兼合夥人 Aleksander Goranin 分享他對當前監管風險領域的看法:

  • 洩露個人數據。 由於生成模型是在公共數據集上訓練的,因此生成的內容可能會無意中“洩露”個人數據,從而使出版商容易受到聯邦貿易委員會和州機構的執法行動的威脅,尤其是在加利福尼亞州、紐約州和伊利諾伊州。 監管機構對未經授權披露個人身份信息非常敏感。
  • 偏頗的內容。 同樣,聯邦貿易委員會或州當局可能會對包含偏見(如種族或性別偏見)的內容採取執法行動,即使這種偏見隱含地來自人工智能模型訓練的數據。
  • 缺乏版權保護。 正如 Aleksander 解釋的那樣, “版權局可能不會將生成的內容註冊為受保護的‘作品’。” 這是版權局目前發布最多指南的領域——本質上,人們需要在註冊申請中披露人工智能的使用範圍,並放棄對 LLM 實質性產生的任何部分的版權。 版權局需要一位‘人類作者’。”

不出所料,生成式人工智能最安全的用例是背景研究、頭腦風暴和創意生成。 對於其他任何事情,為生成的內容創建“人工審查”方案應該有助於減輕最大的監管風險。

5.平庸的風險

許多人擔心 AI 內容會非常糟糕。 但我認為這是相對低風險的。 GPT-4 是比大多數人更好的作家:更善於表達,更有創造力,更容易接受反饋(這只會隨著未來的模型和界面而改進)。

我們不應該將此視為個人:GPT-4 確實是超人,至少在閱讀和寫作方面是這樣。 正如 Ty 所分享的那樣,“很明顯,這項技術已經足夠強大了,只要稍微提升一下,人工智能輔助帖子的質量就不再是人工帖子的問題了。”

但內容不一定是壞的才會有問題。 還有一個更隱蔽的風險需要考慮:您的內容將是實用的但會被遺忘。

在追求更高的發布頻率時,存在失去內容當前所擁有的任何閃爍的獨特性的風險。 你的內容將是清晰的、準確的,甚至是可操作的……但仍然無法為你的公司做任何有用的事情。

偉大的內容營銷不僅僅是頁面上的文字。 每篇文章都需要與更大的、有目的的策略相結合。 它依賴於有效的分配。 它需要比簡單地滿足讀者的基本期望更進一步:它需要留下持久的印象,或者解決一個問題,或者娛樂

過分依賴生成式人工智能而過少依賴熟練的經驗,你可能會創造出一種對優質內容的無情模仿,一種看似“內容營銷”但沒有任何有用品質的蹣跚學步的殭屍。 生成式 AI 需要成為工具包中的一個工具,從屬於您的戰略——而不是其本身的目的。

正如 VC Tomasz Tunguz 所寫, “初創公司評估自動化內容製作的問題是:這是否足以在買家心目中脫穎而出。 對於許多用例,唯一性並不重要。 產品文檔、SEO 的常青內容、電子郵件的預設回复。” 反之亦然:在某些情況下,唯一性就是一切。

6. 後發風險

當 Ty 推出人工智能輔助內容計劃時,他聽到的主要擔憂不是法律風險或質量差; 令人擔憂的是,最好的機會已經過去:

“有些人認為現在增加我們正在製作的內容量已經太晚了,市場將在幾個月內飽和。

但我認為人們高估了技術被採用的速度。 我認為人們仍未意識到 AI 生成的內容可以做什麼。”

與任何新技術一樣,生成式 AI 具有不確定性和一定程度的風險——但風險伴隨著機遇。 有機會在競爭對手之前建立可防禦的排名和反向鏈接護城河。 嘗試全新流量渠道的機會。 將個性化嵌入營銷核心的機會。

談到 AI 內容時,最明顯、最確定的風險來自未能進行實驗和學習。 生成式人工智能將融入每一種營銷策略。 它對其他任何東西來說都太好太便宜了。 儘管生成人工智能的“正確”應用因公司而異——根據風險承受能力、受眾期望、目標、資源和個人信仰而定——但幾乎每家公司都會有應用。

是時候去找它了。