人工智能與倫理:為信任而戰

已發表: 2018-10-02

我最近參加了在倫敦舉行的AI 大會和數據科學峰會,並特意參加了題為 Ethics and AI 的小組討論。 小組成員是 Not Terminator 的聯合創始人 Harriet Kingaby 和 DataKind UK 的執行董事 Emma Perst。

倫理是一個非常有趣的討論,也許是人工智能 (AI) 發展中最重要的方面。 去年,我們發布了《機器學習營銷人員現場指南》,並討論了人工智能和道德主題以及公平、可解釋性和安全性等主題。 如果人工智能完全不道德地發展,我們將完全失去對它的信任,所以我們必須把它放在首位。

在我們的電子書中,我們討論了:

迄今為止,ML 和 AI 主要用於執行較低級別的、主要是平凡的任務,以幫助提高生產力。 但很快他們就可以真正決定生死。 自動駕駛汽車不僅負責將乘員安全送達目的地,還負責確保其他所有人的安全。 自動駕駛汽車陷入不可能的境地只是時間問題。 事故是不可避免的,它唯一的選擇是轉向左側的行人A或右側的行人B。 引擎蓋下的人工智能係統將如何決定採取何種行動? 根據大小? 年齡? 社會地位? 當事故調查人員試圖確定影響結果的因素時,他們會發現其中包含道德上令人不安的邏輯嗎?

這些問題確實讓我們感到困惑,但我們已經看到了一些結果。 道德和人工智能的話題不僅在會議室和大學裡被討論,它已經進入立法頁面,很快就會融入我們作為一個社會如何運作的結構中。

人工智能的好與壞——一年內會發生很多事情

自從我們的機器學習電子書在不到一年前發布以來,已經有很多人工智能的發展(無論好壞)。

特斯拉報告了自動駕駛汽車的自動駕駛事故,並且出現了像Deepfake這樣的技術,深度學習技術可用於創建數字媒體,方法是將真人的圖像疊加到他們沒有參與的場景中,以製造假新聞或惡作劇。

在一次非常不幸的事件中,一輛優步自動駕駛汽車撞死了一名行人 發生這場悲劇是因為我們的社會信任人工智能技術。 雖然後來發現人為錯誤在事故中起了一定作用,但一旦你將這些東西標記為人工智能,就很難說這項技術不夠智能不能留給自己的設備使用。 儘管發生了這場可怕的悲劇,汽車公司和宜家)繼續宣布新的自動駕駛汽車計劃。

雖然人工智能的倫理因其潛在的危害而值得討論,但同樣是對其發展的信任也導致了我們目前從中受益的許多驚人的結果。

一如既往,技術是問題的一部分,也是解決方案的一部分。 考慮一下人工智能的快速發展和每天湧現的新應用,例如:

  • 人工智能分析腫瘤圖像並識別肺癌類型
  • 人工智能讓每個人都成為偉大的攝影師
  • 可以使服務器場更高效的人工智能

您可能聽說過也可能沒有聽說過這些引人入勝且有益的技術。 圍繞悲劇的媒體轟動更為普遍。 炒作和興奮圍繞著人工智能技術的錯誤,因為它吸引了更多的關注; 從 AI 助手的平凡、經常搞笑的失敗到有關更嚴重的隱私問題的故事

關鍵是,不管你是否聽說過,人工智能正在做許多積極的事情,儘管它的錯誤已經廣為人知。 這些考驗和磨難讓人們議論紛紛,更高層次的討論肯定會在塑造我們的未來方面發揮作用。

以合乎道德的方式發展人工智能的有組織的努力

圍繞人工智能發展的高度宣傳的錯誤、學術突破和技術邊界的突破已經引起了全球領導者的關注。 畢竟,人工智能已經在使用,民間社會正準備以各種方式被廣泛接受。

政府和協會必須對其進行監測和討論。 他們是好事。 這是我腦海中的示例的簡短列表:

  • 教育未來的人工智能技術人員推進技術造福人類( AI4ALL )。
  • 聯合國致力於了解它如何幫助實現經濟增長並為更大的利益而努力
  • 研究人工智能的社會影響( AI Now Institute
  • 在一封公開信中呼籲技術領導者擁抱以人為本、透明和基於信任的技術發展
  • 讓人工智能成為議會工作的一部分:英國上議院人工智能特別委員會考慮人工智能的經濟、倫理和社會影響

道德操作系統

道德操作系統是建立一個框架的實踐,該框架試圖通過最小化未來的技術和聲譽風險來保證未來的技術發展。 它不僅考慮新技術如何使世界變得更好,還考慮它如何損壞事物或被濫用。

該操作系統提出了一些需要考慮的一般領域:

  • 真相與虛假信息
    你正在研究的技術可以變成一種可以用來“偽造”東西的工具嗎?

  • 對於一個新工具的創造者來說,它是如此受歡迎,人們花了很多時間使用它,這對他們來說是件好事,但它對他們的健康有好處嗎? 該工具是否可以變得更高效,讓人們能夠很好地度過他們的時間,而不是無休止地度過? 如何設計它以鼓勵適度使用?
  • 不等式
    誰可以訪問,誰不能? 那些無法訪問的人會受到負面影響嗎? 該工具是否對經濟福祉和社會秩序產生負面影響?
  • 倫理
    用於構建技術的數據是否存在任何偏見? 該技術是否加強了現有的偏見? 開發工具的團隊是否足夠多樣化以幫助發現過程中的偏差? 該工具是否足夠透明以供其他人“審核”它? 招聘人工智能以消除偏見的例子——但它的創造者呢,他們可能持有什麼偏見?
  • 監視
    政府或軍方能否將技術變成監視工具或使用它來限制公民的權利? 收集的數據是否允許跟隨用戶一生? 您不希望哪些人出於他們的目的訪問這些數據?
  • 數據控制
    你在收集什麼數據? 你需要它嗎? 你從中獲利嗎? 您的用戶是否分享了該利潤? 用戶對他們的數據有權利嗎? 不良行為者會如何處理這些數據? 如果您的公司被收購,數據會怎樣?
  • 隱式信任
    你的技術有用戶權限嗎? 條款是否清晰易懂? 您是否對他們可能關心的用戶隱藏信息? 用戶可以在仍然使用該技術的同時選擇加入和退出某些方面嗎? 所有的用戶都是平等的嗎?
  • 仇恨和其他犯罪
    該技術可以用於欺凌或騷擾嗎? 可以用來散播仇恨、歧視他人嗎? 可以武器化嗎?

有很多領域需要考慮,但每個領域都有其自身的含義,這可不是什麼好笑的事情。 Ethical OS 表示,一旦確定了潛在 AI 開發的風險,就可以在利益相關者之間共享,以全面審查問題。

邁向智能和道德的未來

我在AI 大會和數據科學峰會上參加的小組討論總結了其他策略,以幫助 AI 開發人員更合乎道德地向前發展。 他們說技術倫理應該融入商業文化並成為企業願景的一部分,並且道德的人工智能賞金獵人可以像漏洞獵人一樣運作!

隨著GDPR2018 年加州消費者隱私法案等主要消費者隱私立法的生效,我們已經看到數據科學的進步將如何受到政策的影響。

一些假設表明,法規將減緩人工智能的發展。 雖然在此過程中可能會發生這種情況,但如果消費者對他們的數據和個人信息沒有被濫用更有信心,則可以增加對該過程的信任。 這甚至可能導致更多的使用和採用——誰知道呢。

我們當然沒有所有的答案,但我們正在密切關注討論。

圖片來源

特色圖片:Unsplash / Markus Spiske