AIと倫理:信頼のための闘争

公開: 2018-10-02

私は最近、ロンドンで開催されたAI会議とデータサイエンスサミットに参加し、「倫理とAI」というタイトルのパネルディスカッションに参加することにしました。 パネリストは、NotTerminatorの共同創設者であるHarrietKingabyと、DataKindUKのエグゼクティブディレクターであるEmmaPerstでした。

倫理は非常に興味深い議論であり、おそらく人工知能(AI)の開発において最も重要な側面です。 昨年、私たちは機械学習のマーケターフィールドガイドをリリースし、公平性、説明可能性、セキュリティなどのトピックとともに、AIと倫理のトピックについて議論しました。 AIが完全に非倫理的に開発された場合、私たちはAIに対する信頼を完全に失うことになります。そのため、AIを念頭に置いておく必要があります。

私たちの電子ブックでは、次のことについて説明しました。

これまで、MLとAIは主に低レベルの実行を目的として展開されており、主に生産性の向上に役立つ日常的なタスクを実行しています。 しかし、すぐに彼らは文字通り生か死かを決める立場に立つことができます。 自動運転車は、乗員を目的地まで安全に移動させるだけでなく、周囲のすべての人を安全に保つ役割を果たします。 自動運転車が不可能な状況に陥るのは時間の問題です。 事故は避けられません。その唯一の選択肢は、左側の歩行者Aまたは右側の歩行者Bに向かって操舵することです。 内部のAIシステムは、どのアクションを実行するかをどのように決定しますか? サイズに基づいていますか? 年? 社会的地位? そして、事故調査官が結果に影響を与えたものを特定しようとすると、倫理的に厄介なロジックが組み込まれていることに気付くでしょうか。

確かに、これらの質問は私たちを困惑させましたが、それ以来、私たちはいくつかの結果を見てきました。 倫理とAIのトピックは、会議室や大学で議論されているだけでなく、立法ページに組み込まれ、まもなく私たちが社会としてどのように機能するかという構造に組み込まれるでしょう。

AIの良し悪し–1年で多くのことが起こり得る

機械学習の電子書籍がリリースされてから1年も経たないうちに、多くのAI開発が行われてきました(良くも悪くも)。

テスラは、自動運転車の自動操縦事故を報告し、ディープフェイクのような技術が登場しました。これにより、ディープラーニング技術を使用して、偽のニュースやいたずら。

あるひどく不幸な事件で、 Uberの自動運転車が歩行者を殺しました この悲劇は、私たちの社会がAI技術を信頼していたために発生しました。 後にヒューマンエラーが事故の原因であることが判明しましたが、これらをAIとラベル付けすると、テクノロジーが独自のデバイスに任せるほどインテリジェントではないと言うのは困難です。 この恐ろしい悲劇にもかかわらず、自動車会社およびIkea )は新しい自動運転車の計画を発表し続けています。

AIの倫理は害を及ぼす可能性があるため議論の余地がありますが、AIの開発に対する同じ信頼が、現在私たちが恩恵を受けている多くの驚くべき結果をもたらしています。

いつものように、テクノロジーは問題の一部であり、解決策の一部です。 次のように、AIの開発のペースが速く、新しいアプリケーションが毎日登場していることを考慮してください。

  • 腫瘍画像を分析し、肺がんの種類を認識するAI
  • 誰もが素晴らしい写真家になるAI
  • サーバーファームをより効率的にすることができるAI

あなたはこれらの魅力的で有益な技術について聞いたことがあるかもしれませんし、聞いていないかもしれません。 悲劇をめぐるメディアのセンセーションははるかに蔓延しています。 誇大宣伝と興奮は、AIテクノロジーがより多くの注目を集めるため、AIテクノロジーの間違いを取り囲んでいます。 AIアシスタントのありふれた、しばしば陽気な失敗から、より深刻なプライバシーの懸念についての話まで

重要なのは、それについて聞いているかどうかにかかわらず、AIは、広く公表されている間違いにもかかわらず、多くの前向きなことをしているということです。 これらの試練と苦難は人々に話をさせ、より高いレベルで行われる議論は確かに私たちの未来を形作る上で役割を果たすでしょう。

AIを倫理的に開発するための組織的な取り組み

AI開発を取り巻く、広く公表された間違い、学問的破綻、技術的境界の破綻は、世界中のリーダーの注目を集めています。 結局のところ、AIはすでに使用されており、市民社会はさまざまな方法で広く受け入れられる準備をしています。

政府や協会それを監視し、話し合う必要があります。 そして、彼らは良いことです。 これが私の頭の上の例の短いリストです:

  • 人類の利益のために技術を進歩させるために将来のAI技術者を教育する( AI4ALL )。
  • 国連は、それが経済成長を達成し、より大きな利益のために働くのにどのように役立つかを理解することに取り組んでいます
  • AIの社会的影響の調査( AI Now Institute
  • 人類中心の、透明性のある、信頼に基づく技術開発を受け入れるよう公開書簡で技術リーダーに呼びかける
  • AIを議会の仕事の一部にする:英国貴族院は、AIの経済的、倫理的、社会的影響を検討するために人工知能に関する委員会を選択します

倫理的なOS

倫理的OSは、将来の技術的および評判のリスクを最小限に抑えることにより、将来を見据えた技術開発を試みるフレームワークを確立するための手法です。 新しいテクノロジーが世界をより良い方向に変える可能性があるだけでなく、それが物事に損害を与えたり悪用されたりする可能性があることを考慮しています。

このOSは、考慮すべきいくつかの一般的な領域を提案します。

  • 真実と偽情報
    あなたが取り組んでいる技術を、物事を「偽造」するために使用できるツールに変えることはできますか?
  • 中毒
    新しいツールの作成者にとっては、人気のある人々がそれを使用するのに多くの時間を費やすのは素晴らしいことですが、それは彼らの健康に良いのでしょうか? ツールをより効率的にして、人々が時間を無駄に過ごすことができないようにすることはできますか? 適度な使用を促進するようにどのように設計できますか?
  • 不平等
    誰がアクセスでき、誰がアクセスできませんか? アクセスできない人は悪影響を受けますか? ツールは経済的幸福と社会秩序に悪影響を及ぼしていますか?
  • 倫理
    テクノロジーを構築するために使用されるデータは、何らかの形で偏っていますか? テクノロジーは既存のバイアスを強化していますか? プロセスに沿ってバイアスを見つけるのに役立つツールを開発しているチームは十分に多様ですか? ツールは、他の人がそれを「監査」するのに十分なほど透明ですか? 偏見をなくすために採用するAIの–しかし、その作成者はどうでしょうか。彼らはどのような偏見を持っているのでしょうか。
  • 監視
    政府や軍隊はこの技術を監視ツールに変えたり、それを使って市民の権利を制限したりすることができますか? 収集されたデータにより、ユーザーを生涯にわたってフォローすることができますか? 目的のためにこのデータにアクセスしたくないのは誰ですか?
  • データ管理
    どのようなデータを収集していますか? それが必要ですか? あなたはそれから利益を得ますか? あなたのユーザーはその利益を共有していますか? ユーザーは自分のデータに対する権利を持っていますか? 悪意のある人物はこのデータをどのように処理しますか? あなたの会社が買収された場合、データはどうなりますか?
  • 暗黙の信頼
    あなたの技術にはユーザー権限がありますか? 用語は明確で理解しやすいですか? 気になる可能性のあるユーザーから情報を隠していますか? ユーザーは、技術を使用しながら、特定の側面をオプトインおよびオプトアウトできますか? すべてのユーザーが平等に作成されていますか?
  • 憎悪およびその他の犯罪
    この技術は、いじめや嫌がらせに使用できますか? 憎しみを広め、他人を差別するために使用できますか? 兵器化できますか?

考慮すべき領域はたくさんありますが、それぞれに笑い事ではない独自の意味があります。 Ethical OSは、潜在的なAI開発でリスクが特定されると、問題を完全に精査するために利害関係者間でリスクを共有できると述べています。

インテリジェントで倫理的な未来に向けて

AIコングレスとデータサイエンスサミットに参加したパネルは、 AI開発者がより倫理的に前進するのに役立つ追加の戦略で締めくくられました。 彼らは、技術倫理をビジネス文化に組み込み、企業ビジョンの一部にする必要があり、倫理的なAIバウンティハンターはバグハンターと同じように機能できると述べました。

GDPR2018年のカリフォルニア州消費者プライバシー法などの主要な消費者プライバシー法が施行されるにつれ、データサイエンスの進歩が政策によってどのように形作られるかをすでに見ています。

いくつかの仮説は、規制がAI開発を遅らせることを示唆しています。 それはプロセスで発生する可能性がありますが、消費者が自分のデータや個人情報が悪用されていないことを確信している場合は、プロセスへの信頼を高めることができます。 それは、使用と採用の増加につながる可能性さえあります–誰が知っていますか。

私たちは確かにすべての答えを持っているわけではありませんが、私たちは議論に細心の注意を払っています。

画像クレジット

フィーチャー画像:Unsplash / Markus Spiske