16 июня 2024 г.
4 мин чтения

Регулирование
ИИ в России

Национальное регулирование ИИ находится в стадии активного формирования.

Основополагающим документом является Национальная стратегия развития ИИ до 2030 года, утвержденная Указом Президента Российской Федерации от 10.10.2019 г. № 490 (http://www.kremlin.ru/acts/bank/44731). Стратегия определяет “цели и основные задачи развития искусственного интеллекта в Российской Федерации, а также меры, направленные на его использование в целях обеспечения национальных интересов и реализации стратегических национальных приоритетов, в том числе в области научно-технологического развития”.

Отдельным пунктом 19 выделены вопросы обеспечения безопасности ИИ. Среди основных принципов «развития и использования технологий искусственного интеллекта, соблюдение которых обязательно при реализации настоящей Стратегии»:

Защита прав и свобод человека

Безопасность систем ИИ

Прозрачность систем ИИ

Защищённость систем ИИ

Иконка информации

Реализация этих принципов на текущий момент может быть представлена в виде ряда практических шагов по обеспечению доверия и безопасности систем ИИ.

К первому такому шагу можно отнести соответствие ИИ-решения Кодексу о этике в сфере ИИ (https://ethics.a-ai.ru/), задающего основополагающие принципы этичного создания, внедрения и использования ИИ в России.

Кодекс этики не является обязательным к исполнению всеми разработчиками и пользователями систем ИИ и носит рекомендательный характер. Однако следование его принципам соответствует целям создания безопасного ИИ для человека и общества. Реализацией Кодекса этики ИИ занимается специальная комиссия, в сферу ответственности которой входят вопросы оценки рисков и гуманитарного воздействия систем ИИ, оценка эффективности реализации Кодекса, формирование свода наилучших практик решения этических вопросов в жизненном цикле ИИ, например этичного применения рекомендательных сервисов.

Вторым шагом может стать проверка систем ИИ на соответствие техническим стандартам и регламентам.

Технический комитет по стандартизации № 164 «Искусственный интеллект» (ТК 164), в деятельности которого принимают участие 68 профильных организаций, ведет работы по разработке национальных и международных стандартов в области искусственного интеллекта.

В России уже действует в общей сложности более 100 ГОСТ по ИИ в сферах:
  • здравоохранения,
  • образования,
  • ИТ,
  • транспорта,
  • сельского хозяйства.

Также действуют стандарты по ряду прикладных систем, в частности по ситуационной видеоаналитике, обработке данных дистанционного зондирования Земли, техническим средствам досмотра в аэропортах.

Стандарты, затрагивающие вопросы безопасности ИИ:
  • функциональная безопасность (ПНСТ 836-2023);
  • обеспечение доверия к ИИ (ГОСТ 59276);
  • оценка качества систем ИИ (ГОСТ 59898);
  • оценка робастности нейронных сетей (ГОСТ 70462);
  • управление рисками ИИ (ПНСТ 776-2022);
  • стандарты работы с большими данными для ИИ (ГОСТ 70889, 70466 и 59926);
  • смещенность в системах ИИ (ПНСТ 839-2023);
  • этические и общественные аспекты ИИ (ПНСТ 840-2023).

ПНСТ 836-2023 «Искусственный интеллект. Функциональная безопасность и системы искусственного интеллекта» - стандарт для систем ИИ в области критической инфраструктуры и безопасности, к которым предъявляются дополнительные требования в соответствии с введенной классификацией рисков.

Также прорабатываются вопросы, связанные с понятием жизненного цикла модели ИИ, в соответствии с которым формализуются стадии и методы проверки и верификации моделей ИИ.

Национальный нормативно-правовой ландшафт ИИ активно формируется в том числе с учетом опыта, полученного в экспериментальных правовых режимах по использованию высокоавтоматизированных транспортных средств и других беспилотных систем.

Возможный сценарий обеспечения доверия к систем ИИ:

Центр безопасности

22 мая 2024 года при поддержке Министерства цифрового развития, связи и массовых коммуникаций Российской Федерации был создан консорциум для исследований безопасности технологий искусственного интеллекта (https://digital.gov.ru/ru/events/51054/). В консорциум вошли АНО «Национальный технологический центр цифровой криптографии» (НТЦ ЦК), Академия криптографии Российской Федерации и Институт системного программирования им. В.П. Иванникова Российской академии наук (ИСП РАН).

Выводы

Рассматривая вопросы регулирования ИИ в общемировом масштабе, стоит отметить, что Россия занимает здесь одну из лидирующих позиций – уже сформулированы цели регулирования ИИ, сформирован и работает базовый регуляторный каркас, создаются соответствующие надзорные структуры и средства по контролю и верификации систем ИИ. В отличие от законодательства ЕС (https://artificialintelligenceact.eu/), регулирование ИИ в России изначально не перегружено строгой категоризацией всех систем ИИ на опасные и неопасные, а наоборот, призвано строго контролировать только те области применения ИИ, где это жизненно необходимо.

Мы внимательно следим за изменениями и дополнениями в национальном регулировании ИИ, соответствующие аналитические материалы будут своевременно обновляться. Также более полную информацию по регулированию ИИ в России вы можете найти на сайте https://ai.gov.ru/ai/regulatory/