AIコンテンツの6つのリスク
公開: 2023-04-181. Google のリスク
さかのぼる 2022 年 4 月、Google の John Mueller は、AI によって生成されたコンテンツの有効性について非常に明確なスタンスを共有しました。
「現在、すべてウェブマスターのガイドラインに違反しています。 したがって、私たちの観点からは、そのようなものに出くわした場合、ウェブスパム チームがそれを見た場合、彼らはそれをスパムと見なすでしょう。」
推論: Google は AI コンテンツを作成するサイトにペナルティを課すだろうとミューラーは言いました。「紡績」とは、既存のコンテンツを利用し、同義語と単語の並べ替えを使用して一見新しいものを作成するプロセスです。 コンテンツ作成の限界費用をほぼゼロに削減できる技術 (ウェブスパマーの夢) に直面したとき、Google はその使用を思いとどまらせる決定を下しました。
しかし、以前に説明したように、Google が AI によって生成されたコンテンツにペナルティを課す、または罰する可能性さえあるという考えは、非常に単純化されすぎていました。
- AI によって生成されたコンテンツは、ほとんどの点でオリジナルです。 GPT-4 はコンテンツをスピンしません。 AI によって生成されたコンテンツにはオリジナルの文章が含まれており、まったく新しいアイデアが含まれている場合もあります。
- AI コンテンツの検出は難しく、ますます難しくなっています。 テクノロジーは軍拡競争であり、コンテンツの検出よりもコンテンツの生成に多くのお金が流れ込んでいます。 Google が、AI によって生成されたコンテンツをある程度の一貫性を持って検出できる可能性は低いです。
- 人間が編集したコンテンツと AI が作成したコンテンツの間には、あいまいな境界線があります。 AI によって生成された記事は、実在の人物によって編集または書き換えられた場合でもスパムとしてカウントされますか?
10 か月後の 2023 年 2 月、Google は AI 生成コンテンツに関する最新のガイダンスを発行しました。 ソース記事を読んで独自の要約を作成することは価値がありますが、私の結論は明らかです。役立つ、問題解決のコンテンツを作成することを目指してください。そうすれば、Google はその作成方法について大部分が曖昧になります。 彼らが要約すると:
「自動化は、有用なコンテンツを作成するためにパブリッシングで長い間使用されてきました。 AI は、エキサイティングな新しい方法で有用なコンテンツを支援し、生成することができます。」
Vendr のブランド責任者である Ty Magnin と AI コンテンツについて話し合ったとき、彼は次のように述べています。 私たちのほとんどは彼らのブラフを呼んでいましたが、それは 2022 年の本当の潜在的なリスクでした.gen-AI の認識されたリスクプロファイルがどのように急速に変化し続けているかは驚くべきことです。」
どんな行動もペナルティを受けないという保証は誰にもできません — 結局のところ、Google は公益事業ではなく企業であり、主に独自の気まぐれに基づいて決定を下すことができます。 しかし、ほとんどのユースケースが安全であると考える十分な理由があります。
2. チャネルリスク
SEO のトピックについては、検討する価値のある別の角度があります。 Google が AI の使用にもたらすリスクについて考えるのではなく、AI が Google にもたらすリスクを検討する価値があります。
キーワードの競争は日に日に激しくなっています。 SEO からの利益は長期にわたって減少傾向にあり、ジェネレーティブ AI がこの減少を加速させる可能性があります。 AI を活用したコンテンツ作成の大幅な増加と、オンライン コンテンツの正当性に対する懐疑論の高まりが組み合わさると、検索の収益はさらに低下する可能性があります (これを「検索特異点」と呼んでいます)。
発生する可能性のある方法はたくさんあります。
このリスクは投機的ですが、心を開いておく価値があります。 ジェネレーティブ AI は、最新の検索の転機となる可能性があります。 SEO — 多くのコンテンツ戦略の存在理由 — が突然、より多くの労力を必要としたり、はるかに低いリターンしか得られなかったらどうしますか? どこに支出を再配分しますか? これは、Ty がすでに考えていることです。
「検索エンジンは、主要な対話としてチャットを採用する実験を行っています。これは、他の Web サイトに移動するクリック数が減ることを意味します。 そのため、オーガニック検索に重点を置いたコンテンツを作成することは、ビジネスにとって価値が低くなる可能性があります.
チャットがどのようにソースをクレジットするのか、それがマーケティング ファネルにどのような影響を与えるのかは明らかではありません。」
3. 幻覚のリスク
ジェネレーティブ AI を使用する場合、コンテンツに虚偽やフィクションが散りばめられるという現実的なリスクがあります。実在の人物に起因するでっち上げの引用、存在しないデータ、一見理にかなっているように見えるアイデアが詳細に調べるとバラバラになります。
これらのエラー (しばしば「幻覚」と呼ばれる) は、ジェネレーティブ AI の本質的な特性であり、その主な目的の結果であり、与えられた単語シーケンスで次善の単語を予測することです。 前に説明したように、生成 AI は偽信頼マシンです。
- GPT-3 または GPT-4 内にはファクト チェック メカニズムはありません (存在する可能性もありません)。
- これらのモデルは、しばしば正しくないソース データに基づいています。
- ジェネレーティブ AI は、データセット内のデータが限られている場合でもコンテンツを送り出すために、どんな犠牲を払っても書き込むように設計されています。
幻覚は AI コンテンツの最も具体的なリスクですが、最も簡単に解決できるものでもあります。 エラーや間違いは、出力の妥当性を分析し、エラーや嘘を探し、完成した記事に承認の印を付けるという任務を負った人間をループに入れることで、発見して修正することができます。
このプロセスは、次のリスク源である法的にも役立ちます。
4. 法的リスク
テクノロジーは、規制が追いつかないほど速く発展する傾向があります。 ジェネレーティブ AI は、回答が必要な多くの質問をすでに作成しています。
- スクレイピングされた Web サイト データを使用して AI モデルをトレーニングすることは倫理的 (または合法的) ですか?
- ジェネレーティブ AI ツールからのアウトプットを真に「所有」しているのは誰でしょうか?
- トレーニング データの構築におけるアーティストの役割に対して報酬を支払う必要がありますか? (「アーネスト・ヘミングウェイのスタイルで書いてください」、または「Animalz ブログのスタイルで書いてください」)
これらの問題の中には、解決するのに何年も何十年もかかるものもありますが、ジェネレーティブ AI を使用している企業に差し迫った懸念をもたらすものもあります。 私は、知的財産と人工知能の問題の専門家であり、Duane Morris LLP (Animalz が法務サービスに使用している会社) のパートナーである Aleksander Goranin に、現在の規制リスクの領域に関する彼の考えを共有するように依頼しました。
- 個人情報漏えい。 生成モデルは公開データセットでトレーニングされるため、生成されたコンテンツは無意識のうちに個人データを「漏洩」する可能性があり、特にカリフォルニア、ニューヨーク、イリノイでは、発行者が連邦取引委員会および州の機関から強制措置を受ける可能性があります。 規制当局は、個人を特定する情報の無許可の開示に敏感です。
- 偏った内容。 同様に、FTC または州当局は、AI モデルがトレーニングされたデータから暗黙のうちに偏りが生じたとしても、偏見 (人種や性別の偏見など) を含むコンテンツに対して執行措置を講じる可能性があります。
- 著作権保護の欠如。 Aleksander 氏は次のように説明しています。 これは、著作権局が現在最も多くのガイダンスを発行している領域です。基本的には、登録申請書で AI が使用された範囲を開示し、LLM によって実質的に生成された部分に対する著作権を放棄する必要があります。 著作権局は「人間の作者」を必要としています。」
ジェネレーティブ AI の最も安全な使用例は、当然のことながら、背景調査、ブレインストーミング、およびアイデア生成です。 それ以外の場合は、生成されたコンテンツの「人間によるレビュー」スキームを作成することで、最大の規制リスクを軽減することができます。
5.平凡なリスク
多くの人々は、AI コンテンツが明らかに悪いものになるのではないかと心配しています。 しかし、これは比較的リスクが低いと思います。 GPT-4 はほとんどの人より優れたライターです。より明確で、創造的で、フィードバックを受け入れます (これは、将来のモデルとインターフェイスでのみ改善されます)。
これを個人的に受け止めるべきではありません.GPT-4は、少なくとも読み書きの次元では、文字通り超人的です. Ty 氏は次のように述べています。「技術が十分に優れていることは明らかでした。AI を使用した投稿では、人間が操作する投稿よりも、わずかな上昇で品質が問題になることはありません。」
しかし、コンテンツが悪いからといって問題が生じるわけではありません。 考慮すべきさらに潜行性のリスクがあります: コンテンツは機能しますが、忘れられやすいということです。
公開頻度の増加を追求すると、コンテンツが現在持っている独自性のちらつきが失われるリスクがあります。 あなたのコンテンツは明確で、正確で、実用的でさえあります…それでもあなたの会社に役立つことは何もありません.
優れたコンテンツ マーケティングとは、ページ上の言葉だけではありません。 個々の記事には、より大きな目的のある戦略との結束が必要です。 それは効果的な配布に依存しています。 読者の基本的な期待に単に応えるだけではなく、永続的な印象を残したり、問題を解決したり、楽しませたりする必要があります。
ジェネレーティブ AI に頼りすぎて熟練した経験に頼りすぎると、良いコンテンツの一種の魂のない模倣、「コンテンツ マーケティング」のように見えるが、その有用な資質が何もないうろついているゾンビを作成するリスクがあります。 ジェネレーティブ AI は、戦略に従属するツールキットのツールである必要があり、それ自体が目的ではありません。
VC の Tomasz Tunguz氏は次のように書いています。 多くのユースケースでは、一意性は問題になりません。 製品ドキュメント、SEO 向けのエバーグリーン コンテンツ、電子メールの返信定型文などです。」 逆もまた真です。場合によっては、一意性がすべてです。
6. ラストムーバーリスク
Ty が AI 支援コンテンツ プログラムを展開したとき、彼が聞いた主な懸念は、法的なリスクや質の低さではありませんでした。 最大の機会がすでに過ぎ去ったのではないかという懸念でした。
「一部の人々は、私たちが制作しているコンテンツの量を増やすにはもう手遅れであり、市場は数か月で飽和状態になるだろうと考えていました。
しかし、人々はテクノロジーが採用される速さを過大評価していると思います。 人々は、AI によって生成されたコンテンツができることにまだ目覚めていると思います。」
他の新しいテクノロジーと同様に、ジェネレーティブ AI にも不確実性とある程度のリスクがありますが、リスクにはチャンスが伴います。 競合他社よりも先に、ランキングとバックリンクの防御可能な堀を構築する機会。 まったく新しいトラフィック チャネルを試す機会。 パーソナライゼーションをマーケティングの中心に組み込む機会。
AI コンテンツに関して言えば、最も明確で確実なリスクは、実験と学習の失敗から生じます。 ジェネレーティブ AI は、あらゆるマーケティング戦略に活かされます。 それは他のものにはあまりにも良く、安すぎます。 ジェネレーティブ AI の「適切な」アプリケーションは、リスク許容度、視聴者の期待、目標、リソース、および個人的な信念に基づいて、企業によって大きく異なりますが、ほぼすべての企業にアプリケーションがあります。
探しに行く時間です。