人工智能的倫理:我們應該問的 4 個基本問題

已發表: 2023-07-31

一年前,如果我在餐桌上說“人工智能” ,我(成熟的)家人不會知道我在說什麼。當然,孩子們除外。孩子們已經知道一切了。

最近,面向消費者的生成人工智能工具的廣泛使用引發了全球對話,從機器人接管到節省時間的任務從我們工作中的全部工作中解放出來的興奮。

世界各地的主題專家一直在加倍努力為大眾創建機器學習資源,而政策制定者則考慮採取監管措施來提供護欄,因為不良行為者會對我們當前的系統進行實地壓力測試。

與此同時,我們制定的技術政策難以跟上創新的速度,人們無法有效地從網上的小說中辨別事實,隱私被一些吹捧其必要性的機構公然忽視。

“簡而言之,人工智能現在正在塑造知識、溝通和權力。”

凱特·克勞福德
人工智能地圖集

回答圍繞人工智能的四個主要問題

我們如何獲得關於培育人工智能影響力的意見? 我們如何主動減輕人工智能造成的危害? 作為個人、公司和立法者,我們如何才能最大限度地降低打開機器學習蠕蟲罐頭的風險?

它始於道德——我們每個人,作為個體,做出符合道德的決定。

我們是創新者。 我們是工人。 我們是一家人。 我們是社區。 我們是企業。 我們是國家。 我們是全球人類。 我們正在建造、餵養和訓練機器,因此對它們的輸出有 100% 的投入。

人工智能將影響這個星球上的我們每一個人,我們每個人都對人工智能如何(或不被)進入我們的生活有著利害關係和發言權。

我們從生活和商業中的錯誤中吸取教訓,人工智能也不例外。 學習是人工智能本質的基礎。 畢竟,它被稱為機器學習 我們如何構建它決定了會輸出什麼。 那麼道德在這裡適用於哪裡呢?

道德原則必須在整個人工智能生命週期的四個主要階段得到落實:

  • 我們如何構建它
  • 我們投入了什麼
  • 我們如何處理輸出
  • 我們如何減輕意外和不可避免的後果

你猜對了,忽略生命週期的最後一步是不道德的

這些階段似乎是分配規則和指南的完全合理的里程碑。 自 20 世紀 50 年代以來,我們一直與機器學習算法並存。 我們花了幾年時間起草全球數據和人工智能道德標準。 然而,我們距離達成一致還很遠,距離採用更遠。

如果我們看看大型科技公司目前面臨的一些法律障礙,很明顯,那些負責在人工智能生命週期的每個階段做出決策的人並沒有認真考慮道德因素。

圍繞人工智能的道德問題

那麼,我們如何堅持參與人工智能生命週期每個階段的人員的道德實踐呢?

我們問問題,我們問更多的問題,然後我們再次問同樣的問題,我們永遠不會停止問問題。

  1. 每個階段的決策者是誰? 我們需要解決這個問題,以減少偏見,確保最佳實踐,並包容思想的多樣性。
  2. 決策是為誰制定和優化的? 這再次減少了偏見,但更重要的是,它確保在繼續前進之前評估對各方的影響。
  3. 大規模推動人工智能需要哪些資本? 這是進行合乎邏輯的長期效益成本分析所必需的。
  4. 社會、政治和經濟影響是什麼? 了解因果關係對於隨著時間的推移不斷糾正指導方針是必要的。 (我喜歡認為這一步與敏捷產品開發保持一致:啟動、學習、重複。)

人工智能如何影響勞動力和經濟

斯坦福大學、麻省理工學院和微軟研究院最近的三個案例研究發現,與不使用工具完成任務的員工相比,使用生成式人工智能工具提高員工生產力的結果相似。

在不同的學科(客戶支持、軟件工程和業務文檔創建)中,我們從經驗數據中看到,業務用戶的吞吐量平均提高了 66%。 在最好的情況下,這可以節省認知要求較高的任務的時間,為更加個性化的人性化、想像力和完美的交付成果創造條件。

隨著生產力的大規模提高,人們擔心某些工作最終會被淘汰。 從歷史上看,當新的創新進入勞動力市場時,一個行業就會有一個自然的生命週期。 例如,有沒有想過電話接線員發生了什麼?

沒有人擁有一種神奇的開關,可以讓技能不足或資質不足的工人立即進入需要更高級技能的行業。 歷史上存在著依賴並耗盡社會安全網的技能差距。 這些技能差距需要時間來識別、資助和填補。 儘管一些國家積極支持提高工人的技能,但數據顯示,全球人口中最弱勢的群體往往在這些創新鼎盛時期受到不成比例的影響

雖然經濟預測強烈表明生成式人工智能在商業中的應用對勞動力市場產生了積極的影響,但我們是否完全知道這種經濟繁榮面臨的風險是什麼?

藝術家、音樂家、電影製片人和作家等創意人士都曾對 OpenAI 和 Facebook 母公司 Meta 提起多起集體訴訟。 受益於人工智能的大型科技公司反駁了藝術家受版權保護的作品被非法用於訓練人工智能模型的說法。 藝術家們正在成群結隊地刪除在線帳戶,蓋蒂圖片社等知名創意公司正在提起訴訟。 作為回應,聯邦貿易委員會最近調查了 OpenAI 的在線數據抓取行為。

這是人工智能生命週期四個階段的完美例子。 讓我們問一下我們的道德問題:

  1. 誰做出了這些決定? 不是創意。
  2. 這些決策針對誰進行了優化? 不是創意。
  3. 資本成本是多少? 人力資本? 金融中心? 自然資本? 也許這三個方面都是以犧牲創意人員為代價的。
  4. 是否考慮了社會、政治和經濟影響? 也許吧,但是是誰做的呢? 不是創意。

我們是否願意冒著一代創意者及其相關行業拒絕在網上發布作品的風險? 這將如何影響我們的創意文化演變、創作者的生計以及它將產生的長期社會和政治影響? 是否有人考慮過這種潛在影響,確定法律和聲譽風險是否合理,並決定繼續前進?

或許。 或者他們根本就沒有考慮清楚。 在這兩種情況下,無論他們對法律含義的解釋如何,該決定都是不道德的。

作為一個全球經濟體,至關重要的是要確定在道德實踐中運作的組織,以便將其支持優先於那些違反道德標準的組織。 如果不暴露決策者的道德立場,我們就有可能在需要廣泛審查的時刻不經意地採取另一種方式。

要點問題:我們如何衡量、衡量或識別公司的道德狀況?

請在這裡告訴我們。

人工智能如何對環境產生影響

人工智能是一種能源密集型基礎設施。 環境影響在很大程度上是看不見和想不到的,而且在科技行業這樣的領域往往是事後才想到的。

麻省理工科技評論》報導稱,訓練一個 AI 模型所排放的碳相當於五輛汽車的碳排放量,相當於超過 626,000 磅的二氧化碳。 地球礦物在為生成人工智能的大規模計算處理提供能量方面也發揮著重要作用。 開採計算物理基礎設施所需的金屬常常以當地和地緣政治暴力為代價

“如果沒有這些地方的礦物質,現代計算根本無法進行。”

凱特·克勞福德
人工智能地圖集

請記住我們的第三個道德問題:大規模推動人工智能需要什麼資本? 做出邏輯性的長期效益成本分析。 如果我們有足夠的勇氣提出正確的問題,那麼自然資本對我們星球的影響就不應該被排除在外。

提出正確的問題可能會讓人感到害怕,尤其是當這些問題涉及到你自己的生計並成為爭論的根源時。 但為了知識就是力量,技術人員必須擁抱透明度,最終參與任何符合道德的技術解決方案。

這不是公司破壞! 一群“也了解環境整體狀況”的機器學習從業者致力於構建支持工具來評估其工作產生的碳排放。 經過評估後,他們可以計算出減少這些排放的方法。 他們甚至製作了這個排放計算器,以便其他人工智能從業者可以計算估計值。

要點問題:我們如何鼓勵技術人員和提供商勇敢地保持人工智能透明度?

請在這裡告訴我們。

投資回報率框架如何影響人工智能道德

僅靠監管並不能解決我們的人工智能問題。 技術人員經常受到指標的激勵,對他們來說,這些指標在道德上似乎是不可知論的,因為它們不受監管,但它們確實產生了投資回報。 這些產生投資回報率的框架是什麼? 我們在哪裡看到這些規則集向遵守規則的公司返回某種形式的獎勵?

讓我們考慮一下 Google PageRank 算法作為對技術道德的非監管影響的一個例子。 Google PageRank 算法分析“與整體頁面體驗相符的各種信號”。 這包括符合用戶體驗最佳實踐、遵循 ADA 指南和隱私政策的元素。

沒有暗網模式就意味著良好的排名。 不遵守 ADA 將意味著排名較差。 通過改善網站的存在並遵循 Google 的指導方針,我們看到基於遵守一組非監管規則而無意中做出的道德決策。

為什麼您公司的網站應該遵循其他公司算法中建議的最佳實踐? 因為這樣做可以鎖定您在 Google 上獲得良好排名的最佳機會。 對公司在網上的可發現性和感知重要性的影響,這會影響他們的底線,是一種激勵因素,從而在沒有監管強制執行的情況下影響道德實踐。

要點問題:我們如何讓我們的技術人員對傳統監管空間之外的道德實踐負責? 他們認為什麼有價值? 他們從哪裡獲得成功的動力?

請在這裡告訴我們。

從我們開始

無論你是誰,每個人都在盡量減少不道德地使用人工智能和機器學習工具帶來的風險方面發揮著作用。 作為個人,我們圍繞人工智能的使用以及如何向這些機器教授社會知識以及教授什麼內容做出道德決策至關重要。

人工智能的故事才剛剛開始,而它將如何徹底改變未來是一個尚未被書寫的故事。 值得慶幸的是,我們對人工智能如何在我們的個人和職業生活中發展有發言權。 這一切都歸結為確保道德是首要考慮的。


G2 希望收到您的來信!

那些對人工智能道德感興趣的人,請分享您對本次對話中缺少的對您、您的行業、公司或生計最重要的內容的看法。 我計劃繼續開展此對話,並根據您和 G2 社區其他成員的見解和學習來分享後續文章。

想要更多思想領導力嗎? 本文是 G2 之聲系列的一部分,該系列介紹了多位有影響力的 G2 領導人。