AI の倫理: 私たちが尋ねるべき 4 つの重要な質問

公開: 2023-07-31

1 年前、私が夕食の席で「 AI」と言ったら、私の(成熟した)家族は私が何を言っているのかわからなかったでしょう。もちろん、子供たちは別です。子供たちはすでにすべてを知っています。

最近、消費者向けの生成人工知能ツールへのアクセスが広く普及したことにより、ロボットの乗っ取りから、職場での時間節約タスクが軽減されることへの興奮まで、世界的な会話が巻き起こっています。

世界中の対象分野の専門家が大衆向けの機械学習リソースの作成に力を入れている一方、政策立案者は犯罪者が現在のシステムのストレステストを実地で行う中、ガードレールを提供するための規制措置を検討しています。

同時に、私たちはイノベーションのスピード、オンラインで事実とフィクションを効果的に判断できない人々、そしてプライバシーの必要性を宣伝する同じ機関の一部によってあからさまに無視されているプラ​​イバシーのスピードに追いつくのに苦労しているテクノロジー政策を策定してきました。

「要するに、人工知能は現在、知識、コミュニケーション、権力の形成に関与しているのです。」

ケイト・クロフォード
AI のアトラス

人工知能に関する 4 つの主要な質問に答える

AI の影響力をどのような方向に育てるかについて、どのように意見を得ることができるでしょうか? AI によって引き起こされる危害を積極的に軽減するにはどうすればよいでしょうか? 個人、企業、議員として、機械学習ワームの缶を開けるリスクを最小限にするにはどうすればよいでしょうか?

それは倫理から始まります。私たち一人一人が個人として倫理的な決定を下すことから始まります。

私たちはイノベーターです。 私たちは労働者です。 私たちは家族です。 私たちはコミュニティです。 私たちは企業です。 私たちは国家です。 私たちは地球規模の人類です。 私たちはマシンを構築し、供給し、教育しているため、その出力に対して 100% のインプットが得られます。

AI は地球上の私たち全員に影響を与えることになり、私たち全員が AI を私たちの生活にどのように取り入れるか、あるいは許さないかについて利害関係と発言権を持っています。

私たちは人生やビジネスにおける失敗から学びますが、AI も例外ではありません。 学習は AI の性質のまさに基礎です。 結局のところ、それは 機械学習 と呼ばれます どのように構築するかによって、何がられるかが決まります では、倫理はここでどこに適用されるのでしょうか?

倫理原則は、AI ライフサイクル全体の 4 つの主要な段階で実装する必要があります。

  • 構築方法
  • 私たちがそこに込めたもの
  • 出力に対して何を行うか
  • 意図しない避けられない結果をどのように軽減するか

ライフサイクルの最後のステップを省略することは、ご想像のとおり、非倫理的です

これらの段階は、ルールやガイドラインを割り当てるのに完全に合理的なマイルストーンのように見えるかもしれません。 私たちは1950 年代以来、機械学習アルゴリズムと共存してきました。 私たちは世界的なデータと AI の倫理基準の草案作成に数年取り組んでいます。 しかし、私たちは合意にはほど遠く、採択にはさらに遠い状況です。

大手テクノロジー企業に対する現在の法的ハードルを見てみると、AI のライフサイクルの各段階で意思決定を行う責任者が倫理的考慮を真剣に考慮していないことは明らかです。

AIをめぐる倫理的問題

では、AI ライフサイクルの各段階で関係者による倫理的実践をどのように主張すればよいのでしょうか?

私たちは質問をし、さらに質問し、また同じ質問をします。そして、質問をやめることはありません。

  1. 各段階の意思決定者は誰ですか? 偏見を軽減し、ベストプラクティスを確保し、考え方の多様性を取り入れるために、これに対する答えが必要です。
  2. 意思決定は誰のために行われ、最適化されているのでしょうか? 繰り返しますが、これにより偏見が軽減されますが、さらに重要なのは、先に進む前にすべての関係者への影響が確実に評価されることです。
  3. AI を大規模に推進するにはどのような資本が必要ですか? これは、論理的で長期的な便益と費用の分析を行うために必要です。
  4. 社会的、政治的、経済的影響は何ですか? ガイドラインを長期にわたって継続的に修正するには、原因と結果の理解が必要です。 (私は、このステップをアジャイル製品開発、つまり立ち上げ、学習、繰り返しに沿ったものとして考えたいと思います。)

AIが労働と経済に与える影響

スタンフォード大学、マサチューセッツ工科大学、マイクロソフト リサーチによる最近の 3 つの事例研究では、タスクを達成するためにツールを使用しなかった従業員と比較して、生成 AI ツールによる従業員の生産性向上において同様の結果が得られたことがわかりました。

さまざまな分野 (カスタマー サポート、ソフトウェア エンジニアリング、ビジネス ドキュメント作成) にわたって、ビジネス ユーザーのスループットが平均 66% 向上したことが実証データでわかります。 最良のシナリオでは、認知的に要求の高いタスクにかかる時間が節約され、よりパーソナライズされた人間味、想像力、洗練された成果物のための条件が作成されます。

生産性が大規模に向上するにつれて、一部の仕事が最終的には時代遅れになるのではないかという懸念が生じています。 歴史的に見て、業界には新しいイノベーションが労働市場に登場するときの自然なライフサイクルがあります。 たとえば、電話交換手に何が起こったのか考えたことはありますか?

スキル不足または資格不足の労働者が、より高度なスキルを必要とする業界にすぐに参入できる魔法のスイッチを持っている人は誰もいません。 歴史的に社会的セーフティネットに依存し、使い果たされてきたスキルギャップが存在します。 こうしたスキルギャップを特定し、資金を提供し、埋めるには時間がかかります。 一部の国では労働者のスキル向上を積極的に支援していますが、データによれば、世界人口の最も弱い立場にある層が、この革新的な全盛期に不均衡な影響を受ける傾向があることが示されています。

経済予測では、ビジネスにおける生成 AI の利用が労働市場にプラスの影響を与えることが強く示されていますが、私たちはこの好景気によって何がリスクにさらされているかを十分に理解しているでしょうか?

アーティスト、ミュージシャン、映画製作者、作家などのクリエイティブ業界は、OpenAIとFacebookの親会社Metaに対して複数の集団訴訟を起こしている。 AIの恩恵を受ける大手テクノロジー企業は、アーティストの著作権で保護された作品がAIモデルのトレーニングに不法に使用されたとの主張に反論している。 アーティストがオンラインアカウントを大量に削除し、ゲッティイメージズのような知名度の高いクリエイティブ企業が訴訟を起こしている。 これに応じて、FTCは最近、OpenAIのオンラインデータスクレイピングの慣行を調査した。

これは、AI のライフサイクルの 4 つの段階の好例です。 倫理的な質問をしてみましょう。

  1. 誰がこれらの決定を下したのでしょうか? クリエイティブではありません。
  2. 意思決定は誰に最適化されましたか? クリエイティブではありません。
  3. 資本コストはいくらでしたか? 人的資本? 金融資本? 自然資本? おそらく、それはクリエイティブを犠牲にして、3 つすべてに渡って行われたのでしょう。
  4. 社会的、政治的、経済的影響は考慮されましたか? おそらく、しかし誰によって? クリエイティブではありません。

私たちは、一世代のクリエイティブとその隣接業界が作品をオンラインで公開できない危険を冒すつもりでしょうか? それは私たちの創造的な文化の進化、クリエイターの生活、そして長期的な社会的、政治的影響にどのような影響を与えるのでしょうか? 誰かがこの潜在的な影響を熟考し、法的リスクと評判上のリスクが正当であるかどうかを判断し、前進することを決定したのでしょうか?

多分。 あるいは、単にまったく考えていなかっただけです。 どちらの場合も、法的意味の解釈にかかわらず、この決定は非倫理的でした。

グローバル経済として、倫理的慣行に従って活動している組織を特定し、倫理基準に違反している組織よりもその組織のサポートを優先することが重要です。 意思決定者の倫理的姿勢を表面化させないことで、広範な監視が必要なまさにその瞬間に、私たちはうっかり見て見ぬふりをしてしまう可能性があります。

重要な質問:企業の倫理的姿勢をどのように評価、測定、特定できるでしょうか?

ここでお知らせください。

AI が環境に与える影響

AI はエネルギーを大量に消費するインフラストラクチャです。 環境への影響はほとんど目に見えず、気にも留められていないため、テクノロジー分野のような分野では後回しになることがよくあります。

MIT Technology Review は、単一の AI モデルをトレーニングすると、車 5 台分に相当する二酸化炭素を排出する可能性があり、これは 626,000 ポンド以上の二酸化炭素に相当すると報告しました。 地球の鉱物は、生成 AI の大量計算処理のためのエネルギーを供給するものとしても大きな役割を果たしています。 計算の物理的インフラストラクチャに必要な金属の採掘は、多くの場合、地域的および地政学的な暴力を犠牲にして行われます

「これらの場所からの鉱物がなければ、現代の計算はまったく機能しません。」

ケイト・クロフォード
AI のアトラス

3 番目の倫理的質問を思い出してください。AIを大規模に推進するにはどのような資本が必要ですか? 論理的な長期便益コスト分析を行う。 私たちが正しい質問をする勇気があるのであれば、地球への影響という形での自然資本を方程式から除外すべきではありません。

適切な質問をすることは、特にその質問が争いの種として自分自身の生計を暗示している場合には、恐ろしいものになる可能性があります。 しかし、知識は力であるという観点から、技術者は最終的に倫理的なテクノロジー ソリューションに参加するために透明性を重視する必要があります。

企業妨害行為ではありません! 「環境の全体的な状態も認識している」機械学習の実践者のグループは、自分たちの仕事によって生成される炭素排出量を評価するためのサポート ツールの構築に取り組んでいます。 評価後、それらの排出量を削減する方法を計算できます。 彼らは、他の AI 実践者が推定値を計算できるように、この排出量計算ツールも作成しました。

重要な質問:技術者やプロバイダーが AI の透明性に関して勇気を持って行動できるようにするには、どうすればよいでしょうか?

ここでお知らせください。

ROI を生み出すフレームワークが AI 倫理に与える影響

規制だけでは AI の問題を解決できません。 技術者は多くの場合、規制されていないため倫理的に不可知であると思われる指標によって動機付けられますが、投資収益率は確かに得られます。 ROI を生み出すフレームワークとは何ですか? ルールに従っている企業に何らかの形で報酬を返すこのようなルールセットは、どこで見られるのでしょうか?

技術倫理に対する規制以外の影響の例として、Google PageRank アルゴリズムを考えてみましょう。 Google PageRank アルゴリズムは、「ページ エクスペリエンス全体と一致するさまざまなシグナル」を分析します。 これには、ADA ガイドラインとプライバシー ポリシーに従って、UX のベスト プラクティスに沿った要素が含まれます。

ダークウェブのパターンがないことは、有利なランキングを意味します。 ADA に準拠していない場合は、ランキングが低くなります。 サイトのプレゼンスを向上させ、Google のガイドラインに従うことで、規制外の一連のルールの遵守に基づいて倫理的な決定が意図せず行われることがわかります。

あなたの会社のサイトが、この他社のアルゴリズムから提案されたベスト プラクティスに従う必要があるのはなぜですか? そうすることで、Google で上位にランクされる可能性が確実に高まるからです。 オンラインでの企業の見つけやすさや認識される重要性への影響は、企業の収益に影響を及ぼし、動機付けとなるため、規制の強制がなくても倫理慣行に影響を与えます。

重要な質問:従来の規制領域外での技術者の倫理的実践について、どのように責任を負わせることができるでしょうか? 彼らは何に価値を見出すのでしょうか? 彼らは成功の原動力をどこから得ているのでしょうか?

ここでお知らせください。

それは私たちから始まります

あなたが誰であっても、誰もが人工知能や機械学習ツールの非倫理的な使用に伴うリスクを最小限に抑える役割を果たしています。 私たちは個人として、AI の使用と、これらの機械に社会についてどのように、そして何を教えるかに関して倫理的な決定を下すことが重要です。

AI の物語はまだ始まったばかりで、AI が未来をどのように完全に変えるかについては、まだ書かれていません。 ありがたいことに、私たちは私生活と仕事の両方で AI がどのように進化するかについて発言権を持っています。 すべては倫理を最優先に考えているかどうかにかかっています。


G2 はあなたからのご意見をお待ちしています!

AI の倫理に興味がある方は、この会話に欠けている、あなた、あなたの業界、会社、または生活にとって最も重要なものについてあなたの考えを共有してください。 私は今後もこの会話を発展させ、皆さんや他の G2 コミュニティからの洞察と学びに基づいて後続の記事を共有する予定です。

もっと思想的リーダーシップを発揮したいですか? この記事は、影響力のあるさまざまな G2 リーダーを特集する G2 Voices シリーズの一部です。