人間を関与させることで生成 AI のリスクを軽減する
公開: 2023-06-21「邪悪な AI には持続可能な使用例はありません。」
認定人工知能の専門家であり、Pega の意思決定および分析担当副社長であるロブ ウォーカー博士は、先週の PegaWorld iNspire カンファレンスでの不正 AI に関するラウンドテーブル ディスカッションをこのように要約しました。
彼は、不透明なアルゴリズムと透明なアルゴリズムの違いについて説明しました。 AI スペクトルの一端では、不透明なアルゴリズムが高速かつ高レベルの精度で動作します。 問題は、彼らがどのようにして行動するのかを実際に説明できないことです。 それだけでも、たとえば住宅ローンやローンの申請に関する意思決定など、説明責任を必要とするタスクには多かれ少なかれ役立たずになります。
一方、透過的なアルゴリズムには説明可能性という利点があります。 ただ信頼性が低いだけです。 それは、説明できる医師が処方する治療法を受けるか、説明はできないが正しい可能性の高い機械が処方するかのような選択のようなものだと同氏は言う。 それは選択ですが、簡単なことではありません。
しかし結局のところ、不正行為のリスクを伴いながら、すべての決定を最も強力な AI ツールに引き渡すことは、実際には持続可能ではありません。
同じカンファレンスで、Pega CTO の Don Schuerman 氏は、自律型企業の構築を支援する AI を活用したソリューションである「Autopilot」のビジョンについて話し合いました。 「私の希望は、2024年には何らかのバリエーションができることです。ガバナンスとコントロールが必要になると思います。」 たとえば、自動操縦のみで人間が関与しない飛行機に乗りたいと思う人はほとんどいないでしょう。
ループの中にいる人間
人間を常に最新の状態に保つことがカンファレンスで常に唱えられ、責任ある AI に対する Pega の取り組みを強調しました。 2017 年には、企業が各 AI モデルの透明性レベルをスライド スケールで上下に調整できるようにする Pega の「T-Switch」を発売しました。 「たとえば、マーケティング画像を分類する不透明な深層学習モデルを使用することは低リスクです。 逆に、公正な融資慣行に対する厳しい規制の下にある銀行は、融資オファーの公平な配分を実証するために、透明性の高い AI モデルを必要としています」とペガ氏は説明しました。
しかし、生成型 AI は、まったく別のレベルのリスクをもたらします。特にマーケティングなどの顧客対応部門にリスクをもたらします。 特に、それが真実を語っているのか、でっち上げているのか(「幻覚」)はまったく気にしません。 明確ではない場合のために説明しますが、これらのリスクは生成 AI の実装に伴って発生し、Pega ソリューションに固有のものではありません。
「最も可能性が高く、もっともらしいこと、そして私たちが聞きたいことを予測しているのです」と Pega AI Lab ディレクターの Peter van der Putten 氏は説明します。 しかし、それは問題の説明でもあります。 「それは何かを言い、それからもっともらしい説明を提供するのが非常に上手です。 逆戻りする可能性もあります。」 言い換えれば、同じタスクを 2 回設定すると、異なる (おそらくより良い) 応答が返される可能性があります。
PegaWorld の直前に、Pega は、生成 AI チャットボット、自動ワークフロー、コンテンツ最適化など、生成 AI を活用した 20 個の「ブースター」を発表しました。 「私たちが立ち上げたものを注意深く見てみると、ほぼすべての製品に人間が関わっています。 ハイリターン、ローリスク。 それが、一般的な生成 AI テクノロジーへのアクセスを人々に提供するのではなく、生成 AI 主導の製品を構築することの利点です。」
Pega GenAI は、特定のタスクを実行するためのツールを提供します (バックグラウンドで大規模な言語モデルが実行されます)。 それは人間の指示を待つ単なる空のキャンバスではありません。
gen AI 支援チャットボットのようなものでは、ループに人間が必要であることは明らかです。 「多くの企業が、大規模な言語モデルのチャットボットを顧客の目の前に直接導入できるようになるには、しばらく時間がかかると思います」とシューアマン氏は述べています。 「生成 AI が生成するものはすべて、顧客の前に出す前に人間に見てもらいたいのです。」
1 日あたり 400 万件のインタラクション
しかし、人間を関与させると、スケーラビリティに関して疑問が生じます。
オランダの製パン・金融サービス会社ラボバンクのデジタル担当副社長フィンバー・ハーゲ氏はカンファレンスで、ペガの顧客意思決定ハブは年間15億件のインタラクション、つまり1日あたり約400万件のインタラクションを処理していると語った。 ハブの仕事は、次に最適なアクションの推奨事項を生成し、リアルタイムかつオンザフライでカスタマー ジャーニーを作成することです。 次善の策は、たとえば、パーソナライズされた電子メールを送信することかもしれません。Gen AI は、そのような電子メールをほぼ即座に作成する可能性を提供します。
これらの電子メールはすべて、送信前に人間による承認が必要であることが示唆されています。 それは何通のメールですか? マーケティング担当者は AI が生成したコンテンツの承認にどれくらいの時間を割り当てる必要があるでしょうか?
おそらく、Pega GenAI を使用して、さまざまな言語で複雑なビジネス ドキュメントを作成する方が管理しやすいでしょう。 基調講演では、最高製品責任者のケリム・アクゴヌル氏が、融資申請のための複雑なワークフローを作成するための AI の使用をトルコ語でデモンストレーションしました。 このテンプレートでは、ローカルの規制だけでなく、グローバルなビジネス ルールも考慮されています。
結果を見ると、自身もトルコ人であるアクゴヌルにはいくつかの間違いがあるかもしれない。 だからこそ人間が必要なのです。 しかし、AI による生成と人間による承認の方が、人間による生成とそれに続く人間による承認よりもはるかに速いと思われたことには疑問の余地はありません。
これは、私がこの件について質問した各 Pega 幹部から聞いたことです。 はい、承認には時間がかかるため、企業はリスクのレベルに応じて適切なレベルのガバナンスが適用されるように、ガバナンス(シューアマン氏の言葉を借りれば「規範的なベストプラクティス」)を導入する必要があります。
マーケティングの場合、本質的に顧客と向き合う役割を担っているため、そのガバナンスのレベルは高くなる可能性があります。 ただし、希望と約束は、AI 主導の自動化によって物事がより良く、より速く完了することです。
マーテックを手に入れましょう! 毎日。 無料。 受信箱にあります。
規約を参照してください。
関連記事
マーテックの新機能