Yapay Zeka ve Etik: Güven Mücadelesi

Yayınlanan: 2018-10-02

Yakın zamanda Londra'daki Yapay Zeka Kongresi ve Veri Bilimi Zirvesi'ne katıldım ve Etik ve Yapay Zeka başlıklı panel tartışmasına katılmaya dikkat ettim. Panelistler, Not Terminator'ın Kurucu Ortağı Harriet Kingaby ve DataKind UK İcra Direktörü Emma Perst'ti.

Etik, çok ilginç bir tartışma ve belki de yapay zekanın (AI) geliştirilmesindeki en önemli yön. Geçen yıl , Makine Öğrenimi için Pazarlamacıların Alan Kılavuzunu yayınladık ve adalet, açıklanabilirlik ve güvenlik gibi konuların yanı sıra AI ve etik konusunu tartıştık. AI tamamen etik olmayan bir şekilde geliştirilecek olsaydı, ona olan güvenimizi tamamen kaybederdik, bu yüzden onu aklımızın önünde tutmalıyız.

E-kitabımızda şunları tartıştık:

Bugüne kadar ML ve AI, üretkenliği artırmaya yardımcı olmak için çoğunlukla daha düşük seviyeli, çoğunlukla sıradan görevleri gerçekleştirmek için kullanıldı. Ancak kısa süre sonra kelimenin tam anlamıyla ölüme mi yoksa ölüme mi karar verecek bir konumda olabilirler. Kendi kendini süren bir araba, yalnızca yolcularını güvenli bir şekilde gidecekleri yere götürmekle kalmayacak, aynı zamanda etrafındaki herkesi güvende tutmaktan da sorumlu olacak. Kendi kendini süren bir arabanın kendisini imkansız bir durumda bulması an meselesidir; bir kaza kaçınılmazdır, tek seçeneği soldaki yaya A'ya veya sağdaki yaya B'ye doğru gitmektir. Kaputun altındaki AI sistemi hangi eylemin gerçekleştirileceğine nasıl karar verecek? Boyuta göre mi? Yaş? Sosyal durum? Ve kaza müfettişleri sonucu neyin etkilediğini belirlemeye çalıştıklarında, bunun içinde etik olarak rahatsız edici bir mantık bulacaklar mı?

Aslında bu sorular bizi o zaman şaşırtmıştı, ancak o zamandan beri bazı sonuçları gördük. Etik ve yapay zeka konusu yalnızca konferans salonlarında ve üniversitelerde tartışılmakla kalmıyor, yasama sayfalarına da girdi ve yakında bir toplum olarak nasıl faaliyet gösterdiğimizin dokusuna eklenecek.

AI İyi ve Kötü - Bir Yılda Çok Şey Olabilir

Bir yıldan daha kısa bir süre önce makine öğrenimi e-kitabımızın piyasaya sürülmesinden bu yana, birçok AI geliştirmesi oldu (iyisiyle kötüsüyle).

Tesla, kendi kendini süren arabalarla ilgili otomatik pilot kazalarını bildirdi ve Deepfake gibi teknolojiler ortaya çıktı; bu sayede derin öğrenme teknolojisi, gerçek kişilerin görüntülerini, sahte haberler oluşturmak amacıyla katılmadıkları durumlara bindirerek dijital medya oluşturmak için kullanılabilir veya aldatmacalar.

Çok talihsiz bir olayda, kendi kendini süren bir Uber arabası bir yayayı öldürdü . Bu trajedi, toplumumuz bir yapay zeka teknolojisine güvendiği için meydana geldi. Daha sonra insan hatasının kazada rol oynadığı anlaşılsa da, bunları bir kez yapay zeka olarak etiketlediğinizde, teknolojinin kendi haline bırakılacak kadar akıllı olmadığını söylemek zor . Bu korkunç trajediye rağmen, araba şirketleri ( ve Ikea ) yeni kendi kendine giden araba planlarını duyurmaya devam ediyor.

Ve AI'nın etiği zarar verme potansiyeli nedeniyle tartışmaya açık olsa da, şu anda yararlandığımız birçok şaşırtıcı sonucun da ortaya çıkmasına neden olan aynı güven, gelişimine olan aynı güvendir.

Teknoloji, her zaman olduğu gibi, sorunun ve çözümün bir parçasıdır. AI'nın hızlı geliştirme hızını ve günlük olarak ortaya çıkan yeni uygulamalarını düşünün:

  • Tümör görüntülerini analiz etmek ve akciğer kanseri türlerini tanımak için AI
  • Herkesi harika bir fotoğrafçı yapan yapay zeka
  • Sunucu gruplarını daha verimli hale getirebilecek yapay zeka

Bu büyüleyici ve faydalı teknolojileri duymuş veya duymamış olabilirsiniz. Trajedi etrafında medya hissi çok daha yaygındır. Aldatmaca ve heyecan, yapay zeka teknolojisinden kaynaklanan hataları çevreler çünkü çok daha fazla dikkat toplar; AI asistanlarının sıradan, genellikle komik başarısızlıklarından daha ciddi gizlilik endişeleriyle ilgili hikayelere .

Mesele şu ki, duymuş olsanız da olmasanız da, AI'nın çokça duyurulan hatalarına rağmen birçok olumlu şey yapıyor. Bu imtihanlar ve sıkıntılar insanları konuşturuyor ve daha üst düzeyde gerçekleşen tartışmalar kesinlikle geleceğimizi şekillendirmede rol oynayacak.

Yapay Zekayı Etik Olarak Geliştirmek İçin Organize Bir Çaba

AI gelişimini çevreleyen yüksek oranda duyurulan hatalar, akademik molalar ve kırık teknolojik sınırlar, dünya çapındaki liderlerin dikkatini çekti. Ne de olsa yapay zeka zaten kullanılıyor ve sivil toplum çeşitli şekillerde yaygın kabul görmeye hazırlanıyor.

Hükümetler ve dernekler bunu izlemeli ve konuşmalı. Ve iyi ki öyleler. İşte kafamın üstündeki örneklerin kısa bir listesi:

  • Teknolojiyi insanlığın yararına ilerletmek için geleceğin AI teknoloji uzmanlarını eğitmek ( AI4ALL ).
  • BM, ekonomik büyümeye nasıl yardımcı olabileceğini anlamaya çalışıyor ve daha büyük bir iyilik için çalışıyor
  • AI'nın sosyal etkilerini araştırmak ( AI Now Institute )
  • Teknoloji liderlerini, insanlık merkezli, şeffaf ve güvene dayalı bir teknoloji gelişimini benimsemeye açık bir mektupla çağırmak
  • Yapay zekanın parlamento çalışmasının bir parçası haline getirilmesi: Yapay Zeka Birleşik Krallık Lordlar Kamarası Seçim Komitesi'nin yapay zekanın ekonomik, etik ve sosyal etkilerini dikkate alması

Etik işletim sistemi

Etik İşletim Sistemi , gelecekteki teknik ve itibar risklerini en aza indirerek geleceğe yönelik teknolojik gelişmeye çalışan bir çerçeve oluşturma uygulamasıdır. Sadece yeni bir teknolojinin dünyayı nasıl daha iyi hale getirebileceğini değil, aynı zamanda nesnelere nasıl zarar verebileceğini veya kötüye kullanılabileceğini de dikkate alıyor.

Bu işletim sistemi, dikkate alınması gereken birkaç genel alan önerir:

  • Gerçek ve Dezenformasyon
    Üzerinde çalıştığınız teknoloji, "sahte" şeyler için kullanılabilecek bir araca dönüştürülebilir mi?
  • Bağımlılık
    İnsanların bu kadar popüler olması yeni bir aracın yaratıcısı için harika, ancak sağlıkları için iyi mi? Araç, insanların zamanlarını iyi geçirmeleri için daha verimli hale getirilebilir mi, ama sonsuz değil mi? Ilımlı kullanımı teşvik etmek için nasıl tasarlanabilir?
  • eşitsizlik
    Kimlerin erişimi olacak ve kim olmayacak? Erişimi olmayanlar olumsuz etkilenecek mi? Araç, ekonomik refahı ve sosyal düzeni olumsuz etkiliyor mu?
  • etik
    Teknolojiyi oluşturmak için kullanılan veriler herhangi bir şekilde önyargılı mı? Teknoloji mevcut önyargıyı güçlendiriyor mu? Ekip, süreç boyunca önyargıları tespit etmeye yardımcı olacak araçları yeterince çeşitli geliştiriyor mu? Araç, başkalarının onu "denetlemesi" için yeterince şeffaf mı? Önyargıyı ortadan kaldırmak için işe alım için yapay zeka örneği - peki ya yaratıcıları, hangi önyargıya sahip olabilirler?
  • Gözetim
    Bir hükümet veya ordu, teknolojiyi bir gözetim aracına dönüştürebilir veya vatandaşların haklarını başka şekilde sınırlamak için kullanabilir mi? Toplanan veriler, kullanıcıları hayatları boyunca takip etmeye izin veriyor mu? Kimin amaçları için bu verilere erişmesini istemezsiniz?
  • Veri Kontrolü
    Hangi verileri topluyorsunuz? Ona ihtiyacın var mı? Bundan kazanç sağlıyor musunuz? Kullanıcılarınız bu kârı paylaşıyor mu? Kullanıcıların verileri üzerinde hakları var mı? Kötü aktörler bu verilerle ne yapar? Şirketiniz satın alınırsa verilere ne olur?
  • örtük güven
    Teknolojinizin kullanıcı hakları var mı? Terimler açık ve anlaşılması kolay mı? İlgilenebilecekleri kullanıcılardan bilgi saklıyor musunuz? Kullanıcılar, teknolojiyi kullanmaya devam ederken belirli yönleri seçip devre dışı bırakabilir mi? Tüm kullanıcılar eşit mi yaratıldı?
  • Nefret ve Diğer Suçlar
    Teknoloji zorbalık veya taciz için kullanılabilir mi? Nefret yaymak, başkalarına karşı ayrımcılık yapmak için kullanılabilir mi? Silahlandırılabilir mi?

Göz önünde bulundurulması gereken pek çok alan var, ancak her birinin gülünecek bir konu olmayan kendi sonuçları var. Etik OS, potansiyel bir AI gelişimi ile riskler tanımlandığında, sorunu tam olarak incelemek için paydaşlar arasında paylaşılabileceğini söylüyor.

Akıllı ve Etik Bir Geleceğe Doğru İlerlemek

AI Kongresi ve Veri Bilimi Zirvesi'nde katıldığım panel, AI geliştiricilerinin daha etik bir şekilde ilerlemelerine yardımcı olacak ek stratejilerle sonuçlandı. Teknoloji etiğinin iş kültürünün içine yerleştirilmesi ve kurumsal bir vizyonun parçası olması gerektiğini ve etik AI ödül avcılarının böcek avcılarının yaptığı gibi çalışabileceğini söylediler!

GDPR ve 2018 Kaliforniya Tüketici Gizliliği Yasası gibi büyük tüketici gizliliği yasalarının yürürlüğe girmesiyle, veri bilimindeki ilerlemelerin politika tarafından nasıl şekillendirileceğini şimdiden görüyoruz.

Bazı hipotezler, düzenlemelerin AI gelişimini yavaşlatacağını öne sürüyor. Bu süreçte gerçekleşebilirken, tüketicilerin verilerinin ve kişisel bilgilerinin kötüye kullanılmadığına dair daha fazla güven duymaları sürece olan güveni artırabilir. Bu, kullanımın ve benimsenmenin artmasına bile yol açabilir – kim bilir.

Kesinlikle tüm cevaplara sahip değiliz ama tartışmaya çok dikkat ediyoruz.

Resim Kredisi

Özellik Resmi: Unsplash / Markus Spiske