ИИ и этика: борьба за доверие

Опубликовано: 2018-10-02

Недавно я посетил AI Congress и Data Science Summit в Лондоне и принял участие в панельной дискуссии под названием «Этика и AI». Участниками дискуссии были Гарриет Кингаби, соучредитель Not Terminator, и Эмма Перст, исполнительный директор DataKind UK.

Этика — такая интересная дискуссия и, возможно, самый важный аспект в развитии искусственного интеллекта (ИИ). В прошлом году мы выпустили Полевое руководство по машинному обучению для маркетологов и обсудили тему ИИ и этики наряду с такими темами, как честность, объяснимость и безопасность. Если бы ИИ разрабатывался совершенно неэтично, мы бы полностью потеряли к нему доверие, поэтому мы должны держать его в уме.

В нашей электронной книге мы обсудили:

На сегодняшний день машинное обучение и искусственный интеллект в основном используются для выполнения более низкоуровневых, в основном рутинных задач, помогающих повысить производительность. Но вскоре они могут быть в состоянии буквально решать вопрос жизни или смерти. Беспилотный автомобиль будет отвечать не только за безопасную доставку своих пассажиров к месту назначения, но и за безопасность всех окружающих. Это только вопрос времени, когда беспилотный автомобиль окажется в безвыходной ситуации; авария неизбежна, ее единственный выбор - повернуть в сторону пешехода А слева или пешехода Б справа. Как система искусственного интеллекта под капотом решит, какое действие предпринять? Исходя из размера? Возраст? Социальный статус? И когда следователи по несчастным случаям попытаются определить, что повлияло на результат, обнаружат ли они этически тревожную логику, встроенную в это?

Действительно, эти вопросы поставили нас тогда в тупик, но с тех пор мы видели некоторые результаты. Тема этики и ИИ не только обсуждается в конференц-залах и в университетах, она пробилась на страницы законодательных актов и вскоре будет вшита в ткань того, как мы действуем как общество.

Хороший и плохой ИИ — многое может случиться за один год

С момента выпуска нашей электронной книги по машинному обучению менее года назад произошло много изменений в области ИИ (к лучшему или к худшему).

Tesla сообщала об авариях с автопилотом в автомобилях с автоматическим управлением, и появились такие технологии, как Deepfake , с помощью которых технология глубокого обучения может использоваться для создания цифровых медиа путем наложения изображений реальных людей на ситуации, в которых они не участвовали, с намерением создать фальшивые новости или розыгрыши.

В одном ужасно неудачном происшествии беспилотный автомобиль Uber сбил пешехода . Эта трагедия произошла из-за того, что наше общество доверяло технологии ИИ. Хотя позже было обнаружено, что человеческая ошибка сыграла свою роль в аварии, как только вы обозначите эти вещи как ИИ, трудно будет сказать, что технология недостаточно интеллектуальна , чтобы быть предоставленной самой себе. Несмотря на эту ужасную трагедию, автомобильные компании ( и Ikea ) продолжают объявлять о планах по выпуску беспилотных автомобилей.

И хотя этика ИИ подлежит обсуждению из-за его потенциальной опасности, именно та же самая вера в его развитие привела ко многим удивительным результатам, которыми мы сейчас пользуемся.

Технологии, как всегда, являются частью проблемы и частью решения. Примите во внимание быстрый темп развития и новые приложения ИИ, возникающие ежедневно, например:

  • ИИ для анализа изображений опухолей и распознавания типов рака легких
  • ИИ, который делает каждого отличным фотографом
  • ИИ, который может сделать фермы серверов более эффективными

Возможно, вы слышали или не слышали об этих увлекательных и полезных технологиях. Шумка в СМИ вокруг трагедии гораздо более распространена. Ажиотаж вокруг ошибок технологии ИИ, потому что она привлекает гораздо больше внимания; от приземленных, часто веселых неудач помощников ИИ до историй о более серьезных проблемах с конфиденциальностью .

Дело в том, слышите ли вы об этом или нет, ИИ делает много положительных вещей, несмотря на широко разрекламированные ошибки. Эти испытания и невзгоды заставляют людей говорить , и дискуссии, происходящие на более высоком уровне, безусловно, сыграют свою роль в формировании нашего будущего.

Организованные усилия по этичному развитию ИИ

Широко разрекламированные ошибки, академические перерывы и нарушенные технологические границы, связанные с развитием ИИ, привлекли внимание лидеров во всем мире. В конце концов, ИИ уже используется, и гражданское общество разными способами готовится к его широкому принятию.

Правительства и ассоциации должны следить за этим и говорить об этом. И хорошо, что они есть. Вот краткий список примеров, которые пришли мне в голову:

  • Обучение будущих технологов искусственного интеллекта для продвижения технологий на благо человечества ( AI4ALL ).
  • ООН работает над пониманием того, как это может помочь в достижении экономического роста и работе на общее благо
  • Исследование социальных последствий ИИ ( AI Now Institute )
  • Призыв технологических лидеров в открытом письме принять ориентированное на человека, прозрачное и основанное на доверии развитие технологий
  • Включение ИИ в работу парламента: Специальный комитет Палаты лордов Великобритании по искусственному интеллекту рассмотрит экономические, этические и социальные последствия ИИ

Этическая ОС

Этическая ОС — это практика создания структуры, которая пытается обеспечить перспективное технологическое развитие, сводя к минимуму будущие технические и репутационные риски. Он рассматривает не только то, как новая технология может изменить мир к лучшему, но и то, как она может нанести ущерб вещам или быть использована не по назначению.

Эта ОС предлагает несколько общих областей для рассмотрения:

  • Правда и дезинформация
    Можно ли превратить технологию, над которой вы работаете, в инструмент, который можно использовать для «подделки» вещей?
  • Зависимость
    Для создателя нового средства здорово, что оно настолько популярно, что люди тратят на него много времени, но полезно ли это для их здоровья? Можно ли сделать инструмент более эффективным, чтобы люди проводили время хорошо, но не бесконечно? Как он может быть разработан для поощрения умеренного использования?
  • Неравенство
    У кого будет доступ, а у кого нет? Будут ли негативно затронуты те, у кого не будет доступа? Влияет ли этот инструмент негативно на экономическое благополучие и общественный порядок?
  • Этика
    Являются ли данные, используемые для создания технологии, предвзятыми? Усиливает ли технология существующее предубеждение? Достаточно ли разнообразна команда, разрабатывающая инструменты, чтобы выявлять предубеждения в процессе? Достаточно ли прозрачен инструмент, чтобы другие могли его «проверить»? Пример ИИ для найма для устранения предвзятости — но как насчет его создателей, какой предвзятости они могут придерживаться?
  • Наблюдение
    Может ли правительство или военные превратить эту технологию в инструмент наблюдения или использовать ее для ограничения прав граждан? Позволяют ли собранные данные следить за пользователями на протяжении всей их жизни? Кому бы вы не хотели иметь доступ к этим данным для своих целей?
  • Контроль данных
    Какие данные вы собираете? Тебе это надо? Вы получаете от этого прибыль? Разделяют ли ваши пользователи эту прибыль? Есть ли у пользователей права на свои данные? Что злоумышленники будут делать с этими данными? Что произойдет с данными, если ваша компания будет приобретена?
  • Неявное доверие
    Есть ли у вашей технологии права пользователя? Являются ли термины понятными и понятными? Вы скрываете информацию от пользователей, которые могут им небезразличны? Могут ли пользователи включать и отключать определенные аспекты, продолжая использовать технологию? Все ли пользователи созданы равными?
  • Ненависть и другие преступления
    Можно ли использовать технологию для издевательств или домогательств? Можно ли использовать его для распространения ненависти, дискриминации других? Можно ли его вооружить?

Есть много областей, которые следует учитывать, но каждая из них имеет свои последствия, которые не вызывают смеха. Ethical OS заявляет, что как только риски, связанные с потенциальным развитием ИИ, будут выявлены, их можно будет разделить между заинтересованными сторонами, чтобы полностью проверить проблему.

Движение к разумному и этичному будущему

Панель, на которой я присутствовал на Конгрессе ИИ и Саммите по науке о данных, завершилась дополнительными стратегиями, которые помогут разработчикам ИИ продвигаться вперед более этично. Они сказали, что техническая этика должна быть встроена в бизнес-культуру и быть частью корпоративного видения, и что этические охотники за головами ИИ могут действовать так же, как охотники за ошибками!

С вступлением в силу основных законодательных актов о конфиденциальности потребителей, таких как GDPR и Калифорнийский закон о конфиденциальности потребителей от 2018 года, мы уже видим, как достижения в науке о данных будут определяться политикой.

Некоторые гипотезы предполагают, что регулирование замедлит развитие ИИ. Хотя это может произойти в процессе, если потребители будут больше уверены в том, что их данные и личная информация не используются не по назначению, это может повысить доверие к процессу. Это может даже привести к более широкому использованию и принятию — кто знает.

Конечно, у нас нет ответов на все вопросы, но мы внимательно следим за обсуждением.

Кредиты изображений

Feature Image: Unsplash / Маркус Списке