Этика ИИ: 4 основных вопроса, которые мы должны задать

Опубликовано: 2023-07-31

Год назад, если бы я сказал « ИИ» за обеденным столом, моя (взрослая) семья не поняла бы, о чем я говорю. Кроме детей, конечно. Дети и так все знают.

Недавний широкий доступ к генеративным инструментам искусственного интеллекта, ориентированным на потребителя, вызвал глобальные дискуссии от поглощения роботами до волнения по поводу того, что задачи, позволяющие сэкономить время, снимаются с наших полных рабочих тарелок.

Эксперты в данной области по всему миру удвоили усилия по созданию ресурсов машинного обучения для масс, в то время как политики рассматривают нормативные меры для обеспечения ограждений, поскольку злоумышленники проводят стресс-тестирование наших текущих систем.

В то же время мы разработали технологическую политику, которая изо всех сил пытается идти в ногу со скоростью инноваций, населением, которое не может эффективно отличать факты от вымысла в Интернете, и конфиденциальность, нагло игнорируемая некоторыми из тех же учреждений, которые рекламируют ее необходимость.

«Короче говоря, искусственный интеллект теперь играет роль в формировании знаний, коммуникации и власти».

Кейт Кроуфорд
Атлас ИИ

Ответы на четыре основных вопроса, связанных с искусственным интеллектом

Как мы можем получить информацию о том, в каком направлении мы будем развивать влияние ИИ? Как мы могли бы заранее уменьшить вред, причиняемый ИИ? Как отдельные лица, корпорации и законодатели могут свести к минимуму риск открытия банки с червями машинного обучения ?

Все начинается с этики — с каждого из нас, как личности, принимающего этические решения.

Мы новаторы. Мы рабочие. Мы семьи. Мы сообщества. Мы бизнес. Мы нации. Мы глобальное человечество. Мы строим, кормим и обучаем машины и, следовательно, на 100% вкладываемся в их производительность.

ИИ повлияет на каждого из нас на этой планете, и у каждого из нас есть доля и голос в том, как его можно — и как нельзя — впускать в нашу жизнь.

Мы учимся на своих ошибках в жизни и бизнесе, и ИИ ничем не отличается. Обучение — это основа природы ИИ. В конце концов, это называется машинным обучением . То, как мы его строим, определяет то, что он производит. Так при чем тут этика?

Этические принципы должны быть реализованы на четырех основных этапах всего жизненного цикла ИИ:

  • Как мы это строим
  • Что мы в него вкладываем
  • Что мы делаем с выводом
  • Как мы смягчаем непреднамеренные и неизбежные последствия

Пропустить этот последний шаг в жизненном цикле, как вы уже догадались, неэтично .

Эти этапы могут показаться вполне разумными вехами, с помощью которых можно установить правила и руководящие принципы. Мы живем рядом с алгоритмами машинного обучения с 1950-х годов . Мы уже несколько лет разрабатываем глобальные данные и этические стандарты ИИ. И все же мы далеки от согласия и еще дальше от принятия.

Если мы посмотрим на некоторые текущие юридические препятствия для крупных технологий, станет ясно, что лица, ответственные за принятие решений на каждом этапе жизненного цикла ИИ, серьезно не принимают во внимание этические соображения.

Этические вопросы, связанные с ИИ

Итак, как мы можем настаивать на соблюдении этических норм теми, кто участвует на каждом этапе жизненного цикла ИИ?

Мы задаем вопросы, мы задаем еще вопросы, затем снова задаем те же самые вопросы, и мы никогда не прекращаем задавать вопросы.

  1. Кто принимает решения на каждом этапе? Нам нужны ответы на этот вопрос, чтобы смягчить предвзятость, обеспечить лучшие практики и включить разнообразие мнений.
  2. Для кого принимаются и оптимизируются решения? Опять же, это уменьшает предвзятость, но, что более важно, обеспечивает оценку воздействия на все стороны, прежде чем двигаться дальше.
  3. Какой капитал требуется для поддержки ИИ в масштабе? Это необходимо для проведения логического анализа долгосрочных выгод и затрат.
  4. Каковы социальные, политические и экономические последствия? Понимание причин и следствий необходимо для постоянной корректировки руководящих принципов с течением времени. (Мне нравится думать, что этот шаг связан с гибкой разработкой продукта: запустить, изучить, повторить.)

Как ИИ влияет на труд и экономику

Три недавних тематических исследования из Стэнфорда, Массачусетского технологического института и Microsoft Research показали аналогичные результаты роста производительности труда сотрудников с помощью генеративных инструментов искусственного интеллекта по сравнению с их коллегами, которые не использовали инструменты для выполнения своих задач.

В различных дисциплинах (поддержка клиентов, разработка программного обеспечения и создание бизнес-документов) мы видим на эмпирических данных, что бизнес-пользователи увеличили свою пропускную способность в среднем на 66%. В лучшем случае это экономит время на интеллектуальных задачах, создавая условия для более персонализированных человеческих прикосновений, воображения и отточенных результатов.

С увеличением масштабов производительности возникают опасения, что некоторые рабочие места в конечном итоге устареют. Исторически у отрасли был естественный жизненный цикл, когда новые инновации поражали рынки труда. Например, когда-нибудь задумывались, что случилось с телефонными операторами ?

Ни у кого нет волшебного переключателя, позволяющего неквалифицированным или недостаточно квалифицированным работникам немедленно войти в отрасли, требующие более продвинутых навыков. Существует разрыв в навыках, который исторически опирался на системы социальной защиты и истощал их. Для выявления, финансирования и заполнения этих пробелов в навыках требуется время. Несмотря на то, что некоторые страны активно поддерживают повышение квалификации своих работников, данные показывают, что наиболее уязвимые слои населения нашей планеты, как правило , несоразмерно страдают во время этих инновационных периодов расцвета.

Несмотря на то, что экономические прогнозы четко указывают на положительное влияние на рынок труда использования генеративного ИИ в бизнесе, знаем ли мы в полной мере, чему грозит этот экономический бум?

Креативщики, такие как художники, музыканты, режиссеры и писатели, входят в число тех отраслей, в которых возбуждено несколько коллективных исков против OpenAI и материнской компании Facebook Meta. Крупные технологические компании, извлекающие выгоду из ИИ, опровергают утверждения о том, что работы художников, защищенные авторскими правами, незаконно использовались для обучения моделей ИИ. Художники массово удаляют онлайн-аккаунты, а известные творческие компании, такие как Getty Images, подают иски . В ответ Федеральная торговая комиссия (FTC) недавно провела расследование практики очистки данных OpenAI в Интернете.

Это прекрасный пример четырех этапов жизненного цикла ИИ. Давайте зададим наши этические вопросы:

  1. Кто принимал эти решения? Не креативщики.
  2. Для кого были оптимизированы решения? Не креативщики.
  3. Какова была капитальная стоимость? Человеческий капитал? Финансовый капитал? Природный капитал? Возможно, это было во всех трех за счет креативов.
  4. Учитывались ли социальные, политические и экономические последствия? Возможно, но кем? Не креативщики.

Готовы ли мы рисковать поколением творческих личностей и смежных с ними отраслей, удерживая работу от публикации в Интернете? Как это повлияет на нашу творческую культурную эволюцию, на средства к существованию создателей и на долгосрочное социальное и политическое влияние? Кто-то продумал это потенциальное влияние, определил, оправданы ли юридические и репутационные риски, и решил двигаться дальше?

Может быть. Или просто не продумали вообще. В обоих случаях решение было неэтичным, независимо от их интерпретации юридических последствий.

Для глобальной экономики крайне важно определить организации, действующие в рамках этических норм, чтобы поставить их поддержку выше тех, которые нарушают этические стандарты. Не раскрывая этическую позицию лиц, принимающих решения, мы рискуем непреднамеренно посмотреть в другую сторону именно в тот момент, когда нам нужно широкое внимание.

Вопрос на вынос: как мы можем оценить, измерить или определить этическую позицию компании?

Дайте нам знать здесь.

Как ИИ влияет на окружающую среду

ИИ — это энергоемкая инфраструктура. Воздействие на окружающую среду в значительной степени остается вне поля зрения и внимания, и в таком пространстве, как технический сектор, о нем часто забывают.

В MIT Technology Review сообщается, что при обучении одной модели ИИ может выделяться столько же углерода, сколько пять автомобилей, что эквивалентно более чем 626 000 фунтов углекислого газа. Минералы Земли также играют большую роль в том, что питает энергию для массовой вычислительной обработки генеративного ИИ. Добыча необходимых металлов, задействованных в физической инфраструктуре вычислений, часто происходит за счет локального и геополитического насилия .

«Без полезных ископаемых из этих мест современные вычисления просто не работают».

Кейт Кроуфорд
Атлас ИИ

Помните наш третий этический вопрос: какой капитал требуется для подпитки ИИ в больших масштабах? Провести логический анализ долгосрочных выгод и затрат. Природный капитал в форме воздействия на нашу планету не должен быть исключен из уравнения, если мы достаточно смелы, чтобы задавать правильные вопросы.

Задавать правильные вопросы может быть страшно, особенно если вопросы затрагивают ваши собственные средства к существованию как источник разногласий. Но в интересах знания — сила , технологи должны обеспечить прозрачность, чтобы в конечном итоге участвовать в любых этических технологических решениях.

Это не корпоративный саботаж! Группа специалистов по машинному обучению, «которые также осведомлены об общем состоянии окружающей среды», взяла на себя обязательство создать вспомогательные инструменты для оценки выбросов углерода в результате их работы. После оценки они могут вычислить способы сокращения этих выбросов. Они даже сделали этот калькулятор выбросов , чтобы другие специалисты по ИИ могли рассчитать оценки.

Главный вопрос: как мы можем побудить технологов и поставщиков проявлять смелость в отношении прозрачности ИИ?

Дайте нам знать здесь.

Как системы обеспечения рентабельности инвестиций влияют на этику ИИ

Регулирование само по себе не может решить наши проблемы с ИИ. Технологов часто мотивируют метрики, которые для них могут показаться этически агностическими, потому что они не регулируются, но они приносят прибыль на их инвестиции. Каковы эти рамки рентабельности инвестиций? Где мы видим эти наборы правил в дикой природе, которые возвращают некоторую форму вознаграждения компании, следующей за правилами?

Давайте рассмотрим алгоритм Google PageRank в качестве примера нерегламентирующего воздействия на технологическую этику. Алгоритм Google PageRank анализирует «множество сигналов, которые соответствуют общему опыту страницы». Это включает в себя элементы, которые соответствуют передовым практикам UX, следуя рекомендациям ADA и политикам конфиденциальности.

Отсутствие паттернов даркнета не означает положительного рейтинга. Несоответствие требованиям ADA будет означать менее благоприятный рейтинг. Улучшая внешний вид сайта и следуя рекомендациям Google, мы видим, что этические решения принимаются непреднамеренно на основе соблюдения ненормативного набора правил.

Почему сайт вашей компании должен следовать рекомендациям алгоритма другой компании? Потому что это увеличивает ваши шансы на высокий рейтинг в Google. Воздействие на узнаваемость компании и воспринимаемую важность в Интернете, что влияет на их прибыль, является мотиватором и, таким образом, влияет на этические нормы без соблюдения нормативных требований.

Вопрос на вынос: как мы можем привлечь наших технологов к ответственности за их этическую практику за пределами традиционного нормативного пространства? В чем они находят ценность? Где они черпают топливо для своего успеха?

Дайте нам знать здесь.

Это начинается с нас

Кем бы вы ни были, каждый играет свою роль в минимизации рисков, связанных с неэтичным использованием инструментов искусственного интеллекта и машинного обучения. Как личности, нам крайне важно принимать этические решения в отношении использования ИИ и того, как — и чему — мы учим эти машины об обществе.

История ИИ только начинается, и то, как он полностью изменит будущее, — это история, которая еще не написана… пока. К счастью, у нас есть право голоса в том, как ИИ развивается как в нашей личной, так и в профессиональной жизни. Все сводится к тому, чтобы этика была на первом месте.


G2 хочет услышать от вас!

Те, кто интересуется этикой ИИ, поделитесь, пожалуйста, своими мыслями о том, чего не хватает в этом разговоре, что является наиболее важным для вас, вашей отрасли, компании или средств к существованию. Я планирую продолжить эту беседу и поделиться последующими статьями, основанными на идеях и знаниях, полученных от вас и остального сообщества G2.

Хотите больше интеллектуального лидерства? Эта статья является частью серии «Голоса G2», в которой рассказывается о различных влиятельных лидерах G2.