Искусственный интеллект и законодательство в России и за рубежом

  • Социальные технологии
  • 16.01.2024

Еще лет пятнадцать назад было замечено: информационные технологии развиваются, проникают во все сферы жизни беспрецедентно быстро. Так быстро, что законодатели разных стран не успевают оперативно реагировать на повсеместно возникающие новшества и защищать государство и граждан от рисков во вновь появляющихся областях практики. Складывается ситуация, напоминающая сюжет про Ахиллеса и черпаху: законодательство бежит вдогонку, но никак не может догнать то новое, что привносят в нашу жизнь «чудеса цифровизации». Сохраняющийся разрыв во многом остается «серой зоной», в которой можно рассчитывать на здравый смысл, трезвый расчет, собственные знания, порядочность партнеров, но никак не на защиту закона. На протяжении последних лет законодателей особенно беспокоит такое «цифровое чудо» как искусственный интеллект (AI).

С осени 2022 года, в связи с взбудоражившем весь мир появлением генеративной нейросети[1] Chat GPT, общественность и власти разных стран активно обсуждают связанные с новшеством риски и необходимость законодательного регулирования. Острые дискуссии вызвали случаи защиты студентом написанного нейросетью диплома (Россия), продажи за миллион долларов написанной нейросетью картины (Великобритания), сдачи нейросетью экзамена на ученые степени юриста и медика (США). 

Картины, который нарисовал оснащенный генеративной нейросетью робот Botto

В качестве основных угроз AI выделяют в том числе следующие:

  • Распространение «алгоритмической предвзятости», когда через нейросетвые сервисы тиражируются и приобретают все более массовый характер вредные предрассудки. Причина – в том, что массивы суждений и решений, на которых обучалась нейросеть, могут отражать предвзятость авторов этих решений и суждений. Например, сознательную или бессознательную дискриминацию людей по признакам пола, национальности, расы и т.п. В результате сгенерированные сетью тексты и рекомендации оказываются зараженными предрассудками, и при этом они предлагаются все более широкому кругу пользователей.
  • Нарушение авторских прав, когда нейросеть обучается в том числе на образцах, являющихся объектами авторских прав. В результате сгенерированные нейросетью тексты, изображения или аудиофайлы могут содержать заимствования из чужих произведений, что нарушает права авторов.
  • Нарушение конфиденциальности, когда путем нейросетевой обработки контента, который находится в открытом доступе, могут раскрываться чувствительные персональные данные, факты личной жизни людей или сведения, составляющие коммерческую или государственную тайну.
  • Дезинформация и манипулирование мнением, когда при помощи нейросетей целенаправленно генерируется контент, содержащий ложные сведения либо предвзятые оценки.
  • Необъяснимость результата  - это особенность многих нейросетей, отличающая их от простых машинных алгоритмов. Зачастую невозможно восстановить, на основании каких рассуждений и способов обработки данных нейросеть приняла решение. Например, решение об отказе человеку в выдаче кредита.
  • Замена человека в профессиях, ведущая к росту безработицы. С этим риском человечество столкнулось вплотную: уже сегодня из мировой практики известно большое количество случаев массового сокращения персонала в компаниях, начавших использовать в своих бизнес-процессах нейросети.
  • Негативное влияние на экологию, связанное с высокой энергозатратностью обучения нейросетей и, соответственно, с экологическим ущербом от производства электроэнергии. По оценкам экспертов, например, для обучения нейросети Chat GPT было затрачено количество электроэнергии, достаточное для энергоснабжения Нью-Йорка на протяжении месяца.

Соответственно, сегодня правительства разных стран активно обсуждают, ищут и начинают реализовывать законодательные меры, направленные на минимизацию рисков использования нейросетей. Что сделано на сегодня?

Наиболее жестко к вопросу подошли в Китае. Приняты нормативные акты, детально регламентирующие работу рекомендательных AI-сервисов. Регламентируются также услуги с применением генеративного AI: сервисы подлежат обязательному лицензированию, специальные органы оценивают их безопасность, законом определены требования к обучающим данным. В отличие от других стран, китайская версия Тик-Тока – образчик благопристойности. Жесткие ограничения сочетаются в Китае с серьезной господдержкой ИТ-бизнеса и масштабным финансированием научных исследований AI, поскольку руководство страны ставит целью к 2030 году перехватить у США мировое лидерство в области AI.

С появлением Chat GPT и его аналогов Евросоюз начал срочно дорабатывать свой закон об искусственном интеллекте, разработка  которого ведется уже несколько лет. Новая версия закона принята Европарламентом 11 мая 2023 года. Появились требования к качеству данных, на которых обучается AI; стала обязательной регистрация в базе данных Евросоюза.

Даже в США, где долгие годы действовал принцип невмешательства государства в развитие технологий искусственного интеллекта, появление массово доступных генеративных нейросетей вызвало острое беспокойство властей и общественности. Теперь законодатели активно обсуждают вопросы лицензирования нейросетевых сервисов, оценку их безопасности, ответственность за нежелательные последствия использования AI. Концепция регулирования в сфере AI подготовлена двумя сенаторами и одобрена двумя партиями конгресса США.

В России с 1 октября, после бурных дискуссий с участием представителей бизнеса, общества и государства, вступила в силу новая редакция Закона №149-ФЗ «Об информации…», дополненная статьей о рекомендательных технологиях (РТ). Теперь Закон обязывает публиковать правила применения РТ на ресурсах самих рекомендательных сервисах, информировать пользователей о типах и источниках данных, под угрозой блокировки в течение 10 дней устранять выявленные нарушения. В частности, о законодательном регулировании и обязательных требованиях к работе рекомендательных сервисов. Особенно долго обсуждался вопрос о размещении специально кнопки, позволяющей пользователям отключить рекомендации, как это было сделано в Китае. В конце-концов стороны пришли к выводу о нецелесообразности такой меры как обязательной, поскольку по факту она равносильна просто отказу от использования рекомендательного сервиса.

Специальных законов, регулирующих сферу генеративного AI, в России нет. Но в любом случае, независимо от того, использовался AI или не использовался, к ответственности привлекаются и будут привлекаться нарушители действующих законов в области персональных данных, запрещенного контента, авторских прав или государственной тайны. Не говоря уже о хищении данных и кибератаках на интернет-ресурсы государства, научных организаций, бизнеса или частных лиц.

Помимо законодательной в РФ ведется активная работа над стандартизацией технических аспектов разработки и использования AI. В соответствии с принятой программой, к 2024 году будет написано 2014 технических регламентов. Следование регламентам важно для стыковки и интеграции AI-систем с другими информационными системами, а также для взаимодействия бизнесов с государством, в т.ч. участием в госзакупках.

Вместе с законодательным и техническим регулированием в области создания и использования AI-инструментов действуют этические нормы. Речь идет прежде всего о правилах и ограничениях, которые разрабатывают и добровольно соблюдают крупные разработчики AI-технологий. В октябре 2021 года компаниями Сбербанк, Газпром нефть, Яндекс, VK, МТС, Ростелеком и еще полутора десятком организаций был подписан Кодекс этики в сфере AI. В документе закреплены требования к применению AI, касающиеся в т.ч. безопасности данных, идентификации AI при взаимодействии с человеком, возложения на человека ответственности за последствия применения AI. К настоящему времени к Кодексу присоединились уже 250 разработчиков, внедряющих технологии AI – это и ИТ-компании, и научные учреждения, и государственные органы.

Юрий Пахомов



[1] К генеративному AI относится класс моделей машинного обучения, которые создают контент (текст, музыку, изображения и др.) на основе пользовательского запроса.

Вернуться к списку новостей