Sztuczna inteligencja i etyka: walka o zaufanie
Opublikowany: 2018-10-02Niedawno uczestniczyłem w AI Congress and Data Science Summit w Londynie i postanowiłem wziąć udział w panelu dyskusyjnym zatytułowanym Etyka i sztuczna inteligencja. Panelistami byli Harriet Kingaby, współzałożycielka Not Terminator oraz Emma Perst, dyrektor wykonawczy DataKind UK.
Etyka to tak ciekawa dyskusja i być może najważniejszy aspekt w rozwoju sztucznej inteligencji (AI). W zeszłym roku opublikowaliśmy przewodnik po uczeniu maszynowym Marketers Field Guide i omówiliśmy temat sztucznej inteligencji i etyki, a także takie tematy, jak uczciwość, wyjaśnialność i bezpieczeństwo. Gdyby sztuczna inteligencja miała być rozwijana całkowicie nieetycznie, całkowicie stracilibyśmy do niej zaufanie, więc musimy mieć ją na uwadze.
W naszym ebooku omówiliśmy:
Do tej pory ML i AI były wdrażane głównie do wykonywania niższych poziomów, głównie przyziemnych zadań, aby poprawić produktywność. Ale wkrótce mogą być w stanie dosłownie decydować o życiu lub śmierci. Samojezdny samochód będzie odpowiedzialny nie tylko za bezpieczne dotarcie pasażerów do celu, ale także za zapewnienie bezpieczeństwa wszystkim innym. To tylko kwestia czasu, kiedy autonomiczny samochód znajdzie się w sytuacji bez wyjścia; wypadek jest nieunikniony, jedynym wyborem jest skręcanie w kierunku pieszego A po lewej stronie lub pieszego B po prawej stronie. W jaki sposób system sztucznej inteligencji pod maską decydowałby, jakie działania podjąć? Na podstawie rozmiaru? Wiek? Status społeczny? A kiedy badacze wypadków próbują ustalić, co wpłynęło na wynik, czy znaleźliby w to wbudowaną etycznie kłopotliwą logikę?
Rzeczywiście, te pytania wprawiły nas wtedy w zakłopotanie, ale od tamtej pory widzieliśmy niektóre wyniki. Temat etyki i sztucznej inteligencji jest dyskutowany nie tylko w salach konferencyjnych i na uniwersytetach, ale trafił na legislację i wkrótce zostanie wszyty w tkankę tego, jak działamy jako społeczeństwo.
Sztuczna inteligencja dobra i zła – wiele może się wydarzyć w ciągu jednego roku
Od czasu wydania naszego e-booka o uczeniu maszynowym mniej niż rok temu, nastąpiło wiele zmian w sztucznej inteligencji (na lepsze lub gorsze).
Tesla zgłosiła wypadki z autopilotem z samojezdnymi samochodami i pojawiły się technologie takie jak Deepfake , dzięki którym technologia głębokiego uczenia może być wykorzystywana do tworzenia cyfrowych mediów poprzez nakładanie obrazów prawdziwych osób na sytuacje, w których nie brały udziału, z zamiarem tworzenia fałszywych wiadomości lub mistyfikacje.
W jednym strasznie niefortunnym incydencie samojezdny samochód Ubera zabił pieszego . Ta tragedia wydarzyła się, ponieważ nasze społeczeństwo zaufało technologii AI. Chociaż później okazało się, że błąd ludzki odegrał rolę w wypadku, kiedy oznaczysz te rzeczy jako sztuczną inteligencję, trudno będzie powiedzieć, że technologia nie jest wystarczająco inteligentna, aby pozostawić ją samym sobie. Mimo tej strasznej tragedii firmy samochodowe ( i Ikea ) nadal ogłaszają nowe plany dotyczące samodzielnej jazdy samochodem.
I chociaż etyka sztucznej inteligencji jest przedmiotem dyskusji ze względu na jej potencjalne szkody, to samo zaufanie do jej rozwoju zaowocowało również wieloma niesamowitymi rezultatami, z których obecnie korzystamy.
Technologia, jak zawsze, jest częścią problemu i częścią rozwiązania. Weź pod uwagę szybkie tempo rozwoju i nowe zastosowania sztucznej inteligencji pojawiające się codziennie, takie jak:
- Sztuczna inteligencja do analizy obrazów guza i rozpoznawania typów raka płuc
- Sztuczna inteligencja, dzięki której każdy jest świetnym fotografem
- Sztuczna inteligencja, która może zwiększyć wydajność farm serwerów
Być może słyszałeś lub nie słyszałeś o tych fascynujących i korzystnych technologiach. Sensacja medialna wokół tragedii jest znacznie bardziej rozpowszechniona. Szum i podekscytowanie otaczają błędy związane z technologią AI, ponieważ przyciągają one znacznie więcej uwagi; od przyziemnych, często przezabawnych niepowodzeń asystentów sztucznej inteligencji po historie o poważniejszych obawach dotyczących prywatności .
Chodzi o to, czy o tym słyszysz, czy nie, sztuczna inteligencja robi wiele pozytywnych rzeczy, pomimo mocno nagłośnionych błędów. Te próby i udręki sprawiły , że ludzie rozmawiają , a dyskusje toczące się na wyższym poziomie z pewnością odegrają rolę w kształtowaniu naszej przyszłości.
Zorganizowany wysiłek na rzecz etycznego rozwoju sztucznej inteligencji
Bardzo nagłośnione błędy, przerwy w nauce i przekroczone granice technologiczne związane z rozwojem sztucznej inteligencji zwróciły uwagę liderów na całym świecie. W końcu sztuczna inteligencja jest już w użyciu, a społeczeństwo obywatelskie przygotowuje się do powszechnej akceptacji na różne sposoby.
Rządy i stowarzyszenia muszą to monitorować i mówić o tym. I dobrze, że są. Oto krótka lista przykładów z mojej głowy:
- Kształcenie przyszłych technologów sztucznej inteligencji w celu rozwijania technologii z korzyścią dla ludzkości ( AI4ALL ).
- ONZ pracuje nad zrozumieniem, w jaki sposób może pomóc osiągnąć wzrost gospodarczy i działać dla większego dobra
- Badanie społecznych implikacji AI ( AI Now Institute )
- Wezwanie liderów technologii w liście otwartym do przyjęcia skoncentrowanego na ludzkości, przejrzystego i opartego na zaufaniu rozwoju technologii
- Włączenie sztucznej inteligencji do prac parlamentarnych: brytyjska komisja ds. sztucznej inteligencji Izby Lordów w celu rozważenia ekonomicznych, etycznych i społecznych implikacji sztucznej inteligencji
Etyczny system operacyjny
Etyczny system operacyjny to praktyka ustanawiania ram, które mają na celu zabezpieczenie rozwoju technologicznego w przyszłości poprzez zminimalizowanie przyszłych zagrożeń technicznych i reputacyjnych. Uwzględnia nie tylko to, w jaki sposób nowa technologia może zmienić świat na lepsze, ale także w jaki sposób może niszczyć rzeczy lub być niewłaściwie wykorzystywana.
Ten system operacyjny proponuje kilka ogólnych obszarów do rozważenia:
- Prawda i dezinformacja
Czy technologia, nad którą pracujesz, może zostać przekształcona w narzędzie, które można wykorzystać do „fałszowania” rzeczy? - Nałóg
To super dla twórcy nowego narzędzia, że jest tak popularne, że ludzie spędzają z nim dużo czasu, ale czy jest to dobre dla ich zdrowia? Czy narzędzie może być wydajniejsze, aby ludzie dobrze spędzali czas, ale nie w nieskończoność? Jak można go zaprojektować, aby zachęcić do umiarkowanego użytkowania? - Nierówność
Kto będzie miał dostęp, a kto nie? Czy te, które nie będą miały dostępu, odczują negatywny wpływ? Czy narzędzie negatywnie wpływa na dobrobyt gospodarczy i porządek społeczny? - Etyka
Czy dane wykorzystywane do budowy technologii są w jakikolwiek sposób stronnicze? Czy technologia wzmacnia istniejące uprzedzenia? Czy zespół opracowujący narzędzia jest wystarczająco zróżnicowany, aby pomóc w dostrzeżeniu błędów w całym procesie? Czy narzędzie jest wystarczająco przejrzyste, aby inni mogli je „audytować”? Przykład AI do zatrudniania w celu wyeliminowania uprzedzeń – ale co z jej twórcami, jakie mogą mieć uprzedzenia? - Nadzór
Czy rząd lub wojsko mogą przekształcić tę technologię w narzędzie do inwigilacji lub wykorzystać ją do innego ograniczenia praw obywateli? Czy zebrane dane pozwalają śledzić użytkowników przez całe ich życie? Kogo nie chciałbyś mieć dostępu do tych danych do swoich celów? - Kontrola danych
Jakie dane zbierasz? Potrzebujesz tego? Czy czerpiesz z tego korzyści? Czy Twoi użytkownicy mają udział w tym zysku? Czy użytkownicy mają prawa do swoich danych? Co źli aktorzy zrobiliby z tymi danymi? Co stanie się z danymi, jeśli Twoja firma zostanie przejęta? - Ukryte zaufanie
Czy Twoja technologia ma prawa użytkownika? Czy terminy są jasne i łatwe do zrozumienia? Czy ukrywasz informacje przed użytkownikami, na których im zależy? Czy użytkownicy mogą wyrazić zgodę na niektóre aspekty i zrezygnować z nich, nadal korzystając z technologii? Czy wszyscy użytkownicy są sobie równi? - Nienawiść i inne przestępstwa
Czy tę technologię można wykorzystać do zastraszania lub nękania? Czy można go wykorzystać do szerzenia nienawiści, dyskryminacji innych? Czy można go uzbroić?
Jest wiele obszarów do rozważenia, ale każdy ma swoje własne implikacje, które nie są śmieszne. Ethical OS mówi, że po zidentyfikowaniu zagrożeń związanych z potencjalnym rozwojem sztucznej inteligencji, można je udostępnić zainteresowanym stronom, aby w pełni zweryfikować problem.
W kierunku inteligentnej i etycznej przyszłości
Panel, w którym uczestniczyłem na AI Congress i Data Science Summit , zakończył się dodatkowymi strategiami, które mają pomóc twórcom AI iść naprzód w bardziej etyczny sposób. Powiedzieli, że etyka technologiczna powinna być wbudowana w kulturę biznesową i być częścią wizji korporacyjnej, a etyczni łowcy nagród AI mogą działać podobnie jak łowcy błędów!
Wraz z wejściem w życie głównych przepisów dotyczących prywatności konsumentów, takich jak RODO i kalifornijska ustawa o ochronie prywatności konsumentów z 2018 r., już teraz widzimy, jak postępy w dziedzinie nauki o danych będą kształtowane przez politykę.
Niektóre hipotezy sugerują, że regulacje spowolnią rozwój sztucznej inteligencji. Chociaż może się to zdarzyć w trakcie procesu, jeśli konsumenci mają większą pewność, że ich dane i dane osobowe nie są niewłaściwie wykorzystywane, może to zwiększyć zaufanie do procesu. Może to nawet prowadzić do zwiększonego wykorzystania i adopcji – kto wie.
Z pewnością nie znamy wszystkich odpowiedzi, ale zwracamy baczną uwagę na dyskusję.
Kredyty obrazkowe
Główny obraz: Unsplash / Markus Spiske