Использование генеративного ИИ? Примите во внимание эти 7 советов от эксперта по правовым вопросам

Опубликовано: 2023-09-22

Моя работа как главного юрисконсульта G2 — помогать строить и защищать компанию, поэтому неудивительно, что я (и юристы повсюду!) в центре внимания генеративный искусственный интеллект .

Хотя ИИ открывает возможности для организаций, он также таит в себе риски. И эти риски вызывают беспокойство у всех руководителей бизнеса, а не только у юридических отделов.

Имея так много информации, я понимаю, что в этих водах может быть трудно ориентироваться. Итак, чтобы помочь разобраться в сути этих проблем и свести их в полезное руководство для всех бизнес-лидеров, я недавно встретился с некоторыми из ведущих умов в области ИИ на дискуссии за круглым столом в Сан-Франциско.

Там мы обсудили меняющуюся ситуацию в области генеративного искусственного интеллекта, законы, влияющие на него, и то, что все это означает для работы нашего бизнеса.

Мы пришли к соглашению, что да, инструменты генеративного искусственного интеллекта коренным образом меняют наш образ жизни и работы. Тем не менее, мы также согласились с тем, что существует несколько юридических факторов, которые предприятиям следует учитывать, когда они начинают свой путь к созданию ИИ.

Основываясь на этом обсуждении, вот семь вещей, которые следует учитывать при интеграции ИИ в вашу компанию.

1. Понять местность

Ваша первая задача — определить, работаете ли вы с компанией, занимающейся искусственным интеллектом , или с компанией, использующей ИИ. Компания, занимающаяся искусственным интеллектом, создает, разрабатывает и продает технологии искусственного интеллекта, причем ИИ является ее основным бизнес-предложением. Подумайте об OpenAI или DeepMind.

С другой стороны, компания, использующая ИИ, интегрирует ИИ в свои операции или продукты, но не создает саму технологию ИИ. Система рекомендаций Netflix является хорошим примером этого. Понимание разницы имеет решающее значение, поскольку оно определяет сложность юридической территории, в которой вам нужно ориентироваться, и определяет, какие законы применимы к вам.

G2 представляет ключевое программное обеспечение для искусственного интеллекта в этой развивающейся области. Взглянув на возможные инструменты с высоты птичьего полета, вы сможете принять более обоснованное решение о том, какой из них подходит для вашего бизнеса.

Следите за последними изменениями в законодательстве, поскольку на горизонте появляются правила генеративного ИИ. Законодательство быстро развивается в США, Великобритании и Европе. Аналогичным образом активно решаются судебные дела с участием ИИ. Оставайтесь на связи со своими адвокатами, чтобы быть в курсе последних событий.

2. Выберите подходящего партнера, учитывая условия использования.

Вы можете многое рассказать о компании по ее условиям использования. Что ценит компания? Как они выстраивают отношения со своими пользователями или клиентами? Условия использования могут служить лакмусовой бумажкой.

OpenAI, например, в своей политике использования прямо заявляет, что ее технология не должна использоваться для вредоносных, вводящих в заблуждение или иным образом неэтичных приложений. Bing Chat требует от пользователей соблюдать законы, запрещающие оскорбительный контент или поведение. Google Bard , тем временем, уделяет особое внимание безопасности и конфиденциальности данных, подчеркивая приверженность Google защите пользовательских данных. Оценка этих условий необходима для обеспечения соответствия вашего бизнеса принципам и юридическим требованиям партнера по искусственному интеллекту.

Мы сравнили условия использования и политику конфиденциальности нескольких ключевых игроков в области генеративного ИИ , чтобы определить, какие инструменты ИИ лучше всего подойдут для профиля рисков нашей компании, и рекомендуем вам сделать то же самое.

Кому принадлежат исходные данные, если говорить о вашей компании и компании, занимающейся искусственным интеллектом? Кому принадлежит продукция? Будут ли данные вашей компании использоваться для обучения модели ИИ? Как обрабатывает инструмент искусственного интеллекта и кому он отправляет личную информацию? Как долго входные или выходные данные будут храниться инструментом искусственного интеллекта?

Ответы на эти вопросы помогут понять, в какой степени ваша компания захочет взаимодействовать с инструментом искусственного интеллекта.

3. Пройдите лабиринт прав собственности

При использовании инструментов генеративного ИИ крайне важно понимать степень вашего права собственности на данные, которые вы помещаете в ИИ, и на данные, полученные из ИИ.

С договорной точки зрения ответы зависят от соглашения, которое вы заключили с компанией, занимающейся искусственным интеллектом. Всегда следите за тем, чтобы в условиях использования или соглашениях об обслуживании четко описывались права собственности.

Например, OpenAI занимает позицию, согласно которой пользователь и OpenAI владеет всеми входами и выходами. Google Bard, Bing Chat от Microsoft, Jasper Chat и Claude от Anthropic аналогичным образом предоставляют пользователю полную собственность на входные и выходные данные, но одновременно оставляют за собой широкую лицензию на использование контента, созданного ИИ, множеством способов.

Клод от Anthropic предоставляет пользователю право собственности на входные данные, но только «разрешает пользователям использовать выходные данные». Anthropic также предоставляет себе лицензию на контент ИИ, но только «для использования всех отзывов, идей или предлагаемых улучшений, которые предоставляют пользователи». Условия договора, которые вы заключаете, сильно различаются в разных компаниях, занимающихся искусственным интеллектом.

4. Найдите правильный баланс между авторским правом и интеллектуальной собственностью.

Способность ИИ генерировать уникальные результаты ставит вопросы о том, кто обладает защитой интеллектуальной собственности (ИС) в отношении этих результатов. Может ли ИИ создавать произведения, защищенные авторским правом? Если да, то кто является обладателем авторских прав?

Законодательство не совсем ясно дает ответы на эти вопросы, поэтому крайне важно иметь активную стратегию в области интеллектуальной собственности при работе с ИИ. Подумайте, важно ли для вашего бизнеса обеспечить право собственности на интеллектуальную собственность на результаты ИИ.

В настоящее время юрисдикции разделились во взглядах на владение авторскими правами на произведения, созданные ИИ. С одной стороны, Бюро авторских прав США придерживается позиции, что произведения, созданные ИИ, при отсутствии какого-либо участия человека, не могут быть защищены авторским правом, поскольку их автором не является человек.

Примечание. Бюро авторских прав США в настоящее время принимает комментарии общественности о том, как законы об авторском праве должны учитывать право собственности на контент, созданный с помощью ИИ.

Источник: Федеральный реестр.

В отношении произведений, созданных ИИ и частично созданных человеком, Бюро авторских прав США занимает позицию, согласно которой авторские права будут защищать только те аспекты, созданные человеком, которые «независимы» и «не влияют» на состояние авторских прав ИИ. сам созданный материал.

С другой стороны, британское законодательство предусматривает, что результаты ИИ могут принадлежать человеку или предприятию, и система ИИ никогда не может быть автором или владельцем интеллектуальной собственности. Разъяснения из многих мировых юрисдикций ожидаются, и бизнес-юристам «обязательно следить за ними», поскольку в ближайшие несколько лет ожидается значительное увеличение количества судебных разбирательств по вопросам владения продукцией.

5. Знайте, где хранятся данные, как они используются, а также действующие законы о конфиденциальности данных.

Конфиденциальность — еще одна важная область, которую следует учитывать. Вам необходимо знать, где хранятся ваши данные, надежно ли они защищены и используются ли данные вашей компании для поддержки генеративной модели искусственного интеллекта.

Некоторые компании, занимающиеся искусственным интеллектом, анонимизируют данные и не используют их для улучшения своих моделей, в то время как другие могут. Очень важно установить эти моменты на раннем этапе, чтобы избежать потенциальных нарушений конфиденциальности и обеспечить соблюдение законов о защите данных.

В общих чертах, сегодняшние законы о конфиденциальности обычно требуют от компаний выполнения нескольких ключевых вещей:

  • Уведомлять потребителей о том, как обрабатываются персональные данные.
  • Иногда получайте согласие от отдельных лиц перед сбором персональных данных.
  • Разрешить отдельным лицам получать доступ, удалять или исправлять информацию, связанную с их личной информацией.

Из-за того, как устроен ИИ, с технической точки зрения чрезвычайно сложно отделить личную информацию, что практически затрудняет полное соблюдение этих законов. Законы о конфиденциальности постоянно меняются, поэтому мы определенно ожидаем, что появление ИИ приведет к дальнейшим изменениям в этих законах.

6. Помните о местных правилах.

Если ваша компания работает в Европейском Союзе, соблюдение Общего регламента защиты данных (GDPR) становится критически важным. GDPR поддерживает строгие правила в отношении ИИ, уделяя особое внимание прозрачности, минимизации данных и согласию пользователей. Несоблюдение может привести к огромным штрафам, поэтому важно понимать и соблюдать эти правила.

Как и GDPR, предлагаемый Европейским Союзом Закон об искусственном интеллекте (AIA) представляет собой новую правовую основу, направленную на регулирование разработки и использования систем искусственного интеллекта. Это будет применяться к любой компании, занимающейся искусственным интеллектом, которая ведет бизнес с гражданами ЕС, даже если компания не имеет постоянного места жительства в ЕС.

AIA регулирует системы искусственного интеллекта на основе системы классификации, которая измеряет уровень риска, который технология может представлять для безопасности и основных прав человека.

К уровням риска относятся:

  • Низкий или минимальный (чат-боты)
  • Высокий (роботизированные операции, кредитный скоринг)
  • Неприемлемо (запрещено, эксплуатирует уязвимые группы и включает социальную оценку со стороны правительства)

Как компаниям, занимающимся искусственным интеллектом, так и компаниям, интегрирующим инструменты искусственного интеллекта, следует с самого начала рассмотреть возможность обеспечения совместимости своих систем искусственного интеллекта путем включения функций AIA на этапах разработки своих технологий.

AIA должен вступить в силу к концу 2023 года с двухлетним переходным периодом для приведения его в соответствие, несоблюдение которого может привести к штрафам в размере до 33 миллионов евро или 6% от глобального дохода компании (это больше, чем GDPR, несоблюдение которого влечет за собой штрафы). штрафуется на сумму более 20 миллионов евро или 4% от глобального дохода компании).

7. Определить и согласовать фидуциарные обязанности

Наконец, должностные лица и директора вашей компании несут фидуциарные обязанности действовать в интересах компании. Ничего нового там нет. Однако новым является то, что их фидуциарные обязанности могут распространяться на решения, связанные с генеративным ИИ.

На совет директоров возлагается дополнительная ответственность за обеспечение этичного и ответственного использования компанией технологии. Должностные лица и директора должны учитывать потенциальные юридические и этические проблемы, влияние на репутацию компании и финансовые последствия при работе с инструментами ИИ.

Прежде чем принимать решения, руководители и директора должны быть полностью информированы о рисках и преимуществах генеративного ИИ. Фактически, многие компании сейчас назначают руководителей ИИ, в обязанности которых входит надзор за стратегией, видением и внедрением ИИ компании.

ИИ существенно повлияет на фидуциарные обязанности должностных лиц и директоров компаний. Фидуциарные обязанности относятся к обязанностям руководителей компании действовать в интересах компании и ее акционеров.

Теперь, с развитием искусственного интеллекта, этим лидерам придется идти в ногу с технологиями искусственного интеллекта, чтобы гарантировать, что они принимают лучшие решения для компании. Например, им может потребоваться использовать инструменты искусственного интеллекта для анализа данных и прогнозирования рыночных тенденций. Если они проигнорируют эти инструменты и примут неверные решения, их можно будет рассматривать как не выполняющих свои обязанности.

По мере того, как ИИ становится все более распространенным, должностным лицам и директорам придется решать новые этические и юридические проблемы, такие как конфиденциальность данных и алгоритмическая предвзятость, чтобы гарантировать, что они управляют компанией ответственным и справедливым образом. Таким образом, ИИ добавляет новый уровень сложности к тому, что значит быть хорошим руководителем компании.

Устанавливаем закон с помощью ИИ

Буквально в прошлом месяце в Конгрессе были представлены два новых элемента регулирования генеративного ИИ. Во-первых, это Закон об иммунитете ИИ по статье 230 — законопроект, целью которого является лишить платформы генеративного ИИ иммунитета по статье 230 в соответствии с Законом о порядочности в сфере коммуникаций .

Примечание. Иммунитет раздела 230 обычно защищает компьютерные онлайн-сервисы от ответственности в отношении стороннего контента, который размещается на их сайте и создается их пользователями. Противники этого законопроекта утверждают, что, поскольку пользователи предоставляют входные данные, они являются создателями контента, а не генеративной платформой искусственного интеллекта.

Альтернативно, сторонники законопроекта утверждают, что платформа предоставляет информацию, которая генерирует выходные данные в ответ на ввод пользователя, что делает платформу соавтором этого контента.

Предложенный законопроект может иметь огромный эффект: он может привлечь компании, занимающиеся искусственным интеллектом, к ответственности за контент, созданный пользователями с использованием инструментов искусственного интеллекта.

Вторая политика, SAFE Innovation Framework для искусственного интеллекта , фокусируется на пяти политических целях: безопасность, подотчетность, основы, объяснение и инновации. Каждая цель направлена ​​на то, чтобы сбалансировать социальные выгоды от генеративного ИИ с рисками социального вреда, включая значительное злоупотребление рабочими местами со стороны противников и злоумышленников, дезинформацию и усиление предвзятости.

Продолжайте следить за новыми законами о генеративном ИИ и заявлениями о том, как внедрение генеративного ИИ взаимодействует с существующими законами и правилами.

Примечание. Ожидается, что предстоящие выборы 2024 года будут иметь решающее значение для ландшафта генеративного ИИ с точки зрения регулирования. Например, HIPAA не является законом об ИИ, но ему придется работать с правилами генеративного ИИ.

Хотя ваши юристы будут держать вас в курсе, важно, чтобы все бизнес-лидеры были осведомлены о проблемах.

Вам не обязательно быть экспертом во всех юридических деталях, но понимание семи соображений поможет вам решить проблемы и знать, когда обратиться к юристу за советом эксперта.

Когда партнерство между искусственным интеллектом и бизнесом построено правильно, мы все можем внести свой вклад в рост и защиту нашего бизнеса, ускоряя инновации и избегая рисков.

Хотите знать, как ИИ влияет на юридическую отрасль в целом? Я узнаю больше об эволюции искусственного интеллекта и права, а также о том, что ждет эту пару в будущем.