AI และจริยธรรม: การต่อสู้เพื่อความไว้วางใจ

เผยแพร่แล้ว: 2018-10-02

ฉันเพิ่งเข้าร่วมการประชุม AI Congress และ Data Science Summit ในลอนดอน และได้เข้าร่วมการอภิปรายในหัวข้อ Ethics and AI ผู้ร่วมอภิปราย ได้แก่ Harriet Kingaby ผู้ร่วมก่อตั้ง Not Terminator และ Emma Perst กรรมการบริหารของ DataKind UK

จริยธรรมเป็นการอภิปรายที่น่าสนใจ และอาจเป็นแง่มุมที่สำคัญที่สุดในการพัฒนาปัญญาประดิษฐ์ (AI) ปีที่แล้วเราได้เผยแพร่ The Marketers Field Guide to Machine Learning และอภิปรายหัวข้อเรื่อง AI และจริยธรรมควบคู่ไปกับหัวข้อต่างๆ เช่น ความเป็นธรรม การอธิบายได้ และความปลอดภัย หาก AI ถูกพัฒนาอย่างไร้จรรยาบรรณ เราจะสูญเสียความไว้วางใจในมันโดยสิ้นเชิง ดังนั้นเราต้องนึกถึงมันไว้ก่อน

ใน ebook ของเราเราได้พูดถึง:

จนถึงปัจจุบัน ML และ AI ได้รับการปรับใช้เป็นหลักเพื่อทำงานระดับล่าง โดยส่วนใหญ่เป็นงานทางโลกเพื่อช่วยปรับปรุงประสิทธิภาพการทำงาน แต่ในไม่ช้าพวกเขาสามารถอยู่ในฐานะที่จะตัดสินชีวิตหรือความตายได้อย่างแท้จริง รถยนต์ไร้คนขับจะทำหน้าที่ไม่เพียงแต่นำผู้โดยสารไปยังที่หมายอย่างปลอดภัย แต่ยังดูแลคนอื่นๆ เกี่ยวกับพวกเขาให้ปลอดภัยอีกด้วย เป็นเพียงเรื่องของเวลาที่รถยนต์ที่ขับเองพบว่าตัวเองอยู่ในสถานการณ์ที่เป็นไปไม่ได้ อุบัติเหตุเป็นสิ่งที่หลีกเลี่ยงไม่ได้ ทางเลือกเดียวระหว่างพวงมาลัยไปทางคนเดินถนน A ทางซ้ายหรือทางเท้า B ทางขวา ระบบ AI ภายใต้ประทุนจะตัดสินใจดำเนินการอย่างไร? ตามขนาด? อายุ? สถานะทางสังคม? และเมื่อผู้ตรวจสอบอุบัติเหตุพยายามค้นหาว่าสิ่งใดมีอิทธิพลต่อผลลัพธ์ พวกเขาจะพบว่ามีตรรกะที่เป็นปัญหาทางจริยธรรมอยู่ภายในหรือไม่

แท้จริงแล้วคำถามเหล่านี้ทำให้เรางุนงง แต่หลังจากนั้นเราก็ได้เห็นผลลัพธ์บางอย่างแล้ว หัวข้อของจริยธรรมและ AI ไม่ได้มีการพูดคุยกันในห้องประชุมและในมหาวิทยาลัยเท่านั้น แต่ยังเข้าสู่หน้ากฎหมายและในไม่ช้าก็จะถูกรวมเข้ากับโครงสร้างของวิธีที่เราดำเนินการในฐานะสังคม

AI ดีและไม่ดี – หลายอย่างสามารถเกิดขึ้นได้ในหนึ่งปี

นับตั้งแต่เปิดตัว ebook ของแมชชีนเลิร์นนิงเมื่อไม่ถึงหนึ่งปีที่ผ่านมา มีการพัฒนา AI มากมาย (ดีขึ้นหรือแย่ลง)

เทสลาได้รายงาน อุบัติเหตุนักบินอัตโนมัติ ด้วยรถยนต์ที่ขับด้วยตนเอง และเทคโนโลยีอย่าง Deepfake ก็เกิดขึ้น โดยเทคโนโลยีการเรียนรู้เชิงลึกสามารถใช้เพื่อสร้างสื่อดิจิทัลโดยซ้อนภาพของบุคคลจริงในสถานการณ์ที่พวกเขาไม่ได้มีส่วนร่วมโดยมีเจตนาที่จะสร้างข่าวปลอมหรือ หลอกลวง

ในเหตุการณ์ที่โชคร้ายอย่างยิ่งครั้งหนึ่ง รถ Uber ที่ขับเองได้ฆ่าคนเดิน ถนน โศกนาฏกรรมครั้งนี้เกิดขึ้นเพราะสังคมของเราเชื่อมั่นในเทคโนโลยี AI แม้ว่าในภายหลังจะพบว่าความผิดพลาดของมนุษย์มีส่วนในอุบัติเหตุ แต่เมื่อคุณระบุว่าสิ่งเหล่านี้เป็น AI แล้ว ก็ยากที่จะบอกว่าเทคโนโลยีนี้ไม่ฉลาด พอ ที่จะทิ้งให้อยู่ในอุปกรณ์ของตัวเอง แม้จะมีโศกนาฏกรรมอันน่าสยดสยองนี้ บริษัท รถยนต์ ( และ Ikea ) ยังคงประกาศแผนรถยนต์ที่ขับด้วยตนเองใหม่

และแม้ว่าจรรยาบรรณของ AI จะต้องถูกอภิปรายเนื่องจากมีโอกาสเกิดอันตราย แต่ก็เป็นความเชื่อใจเดียวกันในการพัฒนาของ AI ซึ่งส่งผลให้เกิดผลลัพธ์ที่น่าอัศจรรย์มากมายที่เราได้รับประโยชน์ในปัจจุบัน

เทคโนโลยีเป็นส่วนหนึ่งของปัญหาและเป็นส่วนหนึ่งของการแก้ปัญหาเช่นเคย พิจารณาการพัฒนาที่รวดเร็วและแอปพลิเคชั่นใหม่ของ AI ที่ครอบตัดทุกวันเช่น:

  • AI เพื่อวิเคราะห์ภาพเนื้องอกและจำแนกประเภทของมะเร็งปอด
  • AI ที่ทำให้ทุกคนเป็นช่างภาพที่ดี
  • AI ที่สามารถทำให้เซิร์ฟเวอร์ฟาร์มมีประสิทธิภาพมากขึ้น

คุณอาจหรืออาจไม่เคยได้ยินเกี่ยวกับเทคโนโลยีที่น่าสนใจและเป็นประโยชน์เหล่านี้ ความรู้สึกของสื่อเกี่ยวกับโศกนาฏกรรมเป็นที่แพร่หลายมากขึ้น ความตื่นเต้นและความตื่นเต้นล้อมรอบความผิดพลาดจากเทคโนโลยี AI เพราะมันดึงดูดความสนใจมากขึ้น จากเรื่องธรรมดาๆ ที่บ่อยครั้งที่ความล้มเหลวของผู้ช่วย AI ที่น่าขบขัน ไปจนถึงเรื่องราวเกี่ยวกับ ข้อกังวลด้านความเป็นส่วนตัวที่ร้ายแรง ยิ่ง ขึ้น

ประเด็นคือไม่ว่าคุณจะได้ยินเรื่องนี้หรือไม่ก็ตาม AI ก็ทำสิ่งดีๆ มากมาย แม้ว่าจะมีข้อผิดพลาดในการเผยแพร่อย่างหนักก็ตาม การทดลองและความยากลำบากเหล่านี้ ทำให้ผู้คนพูดคุยกัน และการอภิปรายที่เกิดขึ้นในระดับที่สูงขึ้นจะมีส่วนช่วยกำหนดอนาคตของเราอย่างแน่นอน

ความพยายามร่วมกันในการพัฒนา AI อย่างมีจริยธรรม

ความผิดพลาดที่ได้รับการเผยแพร่อย่างกว้างขวาง การหยุดเรียนทางวิชาการ และการทำลายขอบเขตทางเทคโนโลยีที่เกี่ยวข้องกับการพัฒนา AI ได้รับความสนใจจากผู้นำทั่วโลก ท้ายที่สุดแล้ว AI ก็มีการใช้งานแล้ว และภาคประชาสังคมก็กำลังเตรียมพร้อมสำหรับการยอมรับอย่างกว้างขวางในหลากหลายวิธี

รัฐบาลและสมาคม ต่างๆ จะต้องคอยติดตามและพูดคุยถึงเรื่องนี้ และสิ่งที่ดีที่พวกเขาเป็น ต่อไปนี้คือตัวอย่างสั้นๆ ที่นึกไม่ถึง

  • ให้ความรู้แก่นักเทคโนโลยี AI ในอนาคตเพื่อพัฒนาเทคโนโลยีเพื่อประโยชน์ของมนุษยชาติ ( AI4ALL )
  • สหประชาชาติกำลังทำงานเพื่อทำความเข้าใจว่าสามารถช่วยบรรลุ การเติบโตทางเศรษฐกิจ และทำงานเพื่อ สิ่งที่ดีกว่า ได้อย่างไร
  • การค้นคว้าผลกระทบทางสังคมของ AI ( AI Now Institute )
  • เชิญ ชวนผู้นำเทคโนโลยีด้วย จดหมายเปิดผนึกถึง การพัฒนาเทคโนโลยีที่เน้นมนุษยชาติเป็นศูนย์กลาง โปร่งใส และไว้วางใจได้
  • การทำให้ AI เป็นส่วนหนึ่งของงานรัฐสภา: UK House of Lords เลือกคณะกรรมการด้านปัญญาประดิษฐ์ เพื่อพิจารณาผลกระทบทางเศรษฐกิจ จริยธรรม และสังคมของ AI

OS จริยธรรม

OS อย่างมีจริยธรรม คือแนวปฏิบัติในการสร้างกรอบการทำงานที่พยายามพัฒนาเทคโนโลยีที่รองรับอนาคต โดยการลดความเสี่ยงทางเทคนิคและชื่อเสียงในอนาคต โดยไม่ได้พิจารณาว่าเทคโนโลยีใหม่จะเปลี่ยนโลกให้ดีขึ้นได้อย่างไร แต่ยังพิจารณาว่าเทคโนโลยีดังกล่าวจะสร้างความเสียหายหรือนำไปใช้ในทางที่ผิดได้อย่างไร

ระบบปฏิบัติการนี้เสนอประเด็นทั่วไปบางประการที่ต้องพิจารณา:

  • ความจริงและข้อมูลที่บิดเบือน
    เทคโนโลยีที่คุณกำลังทำงานอยู่สามารถเปลี่ยนเป็นเครื่องมือที่ใช้เพื่อ "ปลอมแปลง" สิ่งต่างๆ ได้หรือไม่?
  • ติดยาเสพติด
    เป็นเรื่องดีสำหรับผู้สร้างเครื่องมือใหม่ที่ได้รับความนิยมอย่างมากจากผู้คนที่ใช้เวลามากมายกับมัน แต่จะดีต่อสุขภาพของพวกเขาหรือไม่? เครื่องมือนี้สามารถทำให้มีประสิทธิภาพมากขึ้นเพื่อให้ผู้คนใช้เวลาได้ดี แต่ไม่สิ้นสุดหรือไม่? จะออกแบบให้ส่งเสริมการใช้งานในระดับปานกลางได้อย่างไร?
  • ความไม่เท่าเทียมกัน
    ใครจะสามารถเข้าถึงได้และใครจะไม่? ผู้ที่จะไม่สามารถเข้าถึงได้จะได้รับผลกระทบทางลบหรือไม่? เครื่องมือนี้ส่งผลกระทบในทางลบต่อความผาสุกทางเศรษฐกิจและระเบียบทางสังคมหรือไม่?
  • จริยธรรม
    ข้อมูลที่ใช้สร้างเทคโนโลยีมีความลำเอียงหรือไม่? เทคโนโลยีกำลังเสริมอคติที่มีอยู่หรือไม่? ทีมพัฒนาเครื่องมือมีความหลากหลายเพียงพอที่จะช่วยในการระบุอคติในกระบวนการหรือไม่ เครื่องมือนี้โปร่งใสเพียงพอสำหรับให้ผู้อื่น "ตรวจสอบ" หรือไม่ ตัวอย่าง AI สำหรับการจ้างงานเพื่อขจัดอคติ – แล้วผู้สร้างล่ะ พวกเขาอาจมีอคติอย่างไร?
  • การเฝ้าระวัง
    รัฐบาลหรือกองทัพสามารถเปลี่ยนเทคโนโลยีเป็นเครื่องมือเฝ้าระวังหรือใช้เพื่อจำกัดสิทธิพลเมืองได้หรือไม่? ข้อมูลที่รวบรวมได้อนุญาตให้ผู้ใช้ติดตามตลอดชีวิตหรือไม่? ใครที่คุณไม่ต้องการให้มีการเข้าถึงข้อมูลนี้เพื่อวัตถุประสงค์ของพวกเขา
  • การควบคุมข้อมูล
    คุณรวบรวมข้อมูลอะไร คุณต้องการมันไหม คุณได้กำไรจากมันหรือไม่? ผู้ใช้ของคุณแบ่งปันผลกำไรนั้นหรือไม่? ผู้ใช้มีสิทธิ์ในข้อมูลของตนหรือไม่? นักแสดงที่ไม่ดีจะทำอะไรกับข้อมูลนี้ จะเกิดอะไรขึ้นกับข้อมูลหากบริษัทของคุณถูกซื้อกิจการ
  • ความไว้วางใจโดยนัย
    เทคโนโลยีของคุณมีสิทธิ์ผู้ใช้หรือไม่? ข้อกำหนดมีความชัดเจนและเข้าใจง่ายหรือไม่? คุณกำลังซ่อนข้อมูลจากผู้ใช้ที่พวกเขาอาจสนใจหรือไม่? ผู้ใช้สามารถเลือกเข้าร่วมและไม่ใช้บางแง่มุมในขณะที่ยังใช้เทคโนโลยีได้หรือไม่? ผู้ใช้ทุกคนเท่าเทียมกันหรือไม่?
  • ความเกลียดชังและอาชญากรรมอื่นๆ
    เทคโนโลยีนี้สามารถใช้เพื่อกลั่นแกล้งหรือล่วงละเมิดได้หรือไม่? ใช้แพร่ความเกลียดชัง เหยียดหยามผู้อื่นได้หรือไม่? สามารถติดอาวุธได้หรือไม่?

มีหลายด้านที่ต้องพิจารณา แต่แต่ละส่วนก็มีนัยยะของตัวเองซึ่งไม่ใช่เรื่องน่าหัวเราะ Ethical OS กล่าวว่าเมื่อความเสี่ยงถูกระบุด้วยการพัฒนา AI ที่มีศักยภาพแล้ว พวกเขาสามารถแบ่งปันระหว่างผู้มีส่วนได้ส่วนเสียเพื่อตรวจสอบปัญหาได้อย่างเต็มที่

ก้าวไปสู่อนาคตที่ชาญฉลาดและมีจริยธรรม

คณะกรรมการที่ฉันเข้าร่วมในการประชุม AI Congress และ Data Science Summit ได้สรุปด้วยกลยุทธ์เพิ่มเติมเพื่อช่วยให้นักพัฒนา AI ก้าวไปข้างหน้าอย่างมีจริยธรรมมากขึ้น พวกเขากล่าวว่าจริยธรรมทางเทคโนโลยีควรถูกสร้างขึ้นในวัฒนธรรมทางธุรกิจและเป็นส่วนหนึ่งของวิสัยทัศน์ขององค์กรและนักล่าเงินรางวัล AI ที่มีจริยธรรมสามารถดำเนินการได้เช่นเดียวกับวิธีที่นักล่าแมลงทำ!

ด้วยกฎหมายว่าด้วยความเป็นส่วนตัวของผู้บริโภคที่สำคัญ เช่น GDPR และ กฎหมายคุ้มครองความเป็นส่วนตัวของผู้บริโภคแห่ง แคลิฟอร์เนียปี 2018 ที่กำลังมีผลบังคับใช้ เราได้เห็นแล้วว่าความก้าวหน้าในด้านวิทยาศาสตร์ข้อมูลจะถูกกำหนดโดยนโยบายอย่างไร

สมมติฐานบางข้อแนะนำว่ากฎระเบียบจะทำให้การพัฒนา AI ช้าลง แม้ว่าสิ่งนี้อาจเกิดขึ้นในกระบวนการ แต่หากผู้บริโภคมีความมั่นใจมากขึ้นว่าข้อมูลและข้อมูลส่วนบุคคลของพวกเขาไม่ถูกนำไปใช้ในทางที่ผิด ก็สามารถเพิ่มความไว้วางใจในกระบวนการได้ ซึ่งอาจนำไปสู่การใช้และการนำไปใช้ที่เพิ่มขึ้นได้ ใครจะไปรู้

แน่นอนว่าเราไม่มีคำตอบทั้งหมด แต่เราให้ความสำคัญกับการสนทนาอย่างใกล้ชิด

เครดิตรูปภาพ

ภาพเด่น: Unsplash / Markus Spiske