Регулирование
ИИ в России
Национальное регулирование ИИ находится в стадии активного формирования.
Основополагающим документом является Национальная стратегия развития ИИ до 2030 года, утвержденная Указом Президента Российской Федерации от 10.10.2019 г. № 490 (http://www.kremlin.ru/acts/bank/44731). Стратегия определяет “цели и основные задачи развития искусственного интеллекта в Российской Федерации, а также меры, направленные на его использование в целях обеспечения национальных интересов и реализации стратегических национальных приоритетов, в том числе в области научно-технологического развития”.
Отдельным пунктом 19 выделены вопросы обеспечения безопасности ИИ. Среди основных принципов «развития и использования технологий искусственного интеллекта, соблюдение которых обязательно при реализации настоящей Стратегии»:
Защита прав и свобод человека
Безопасность систем ИИ
Прозрачность систем ИИ
Защищённость систем ИИ
Реализация этих принципов на текущий момент может быть представлена в виде ряда практических шагов по обеспечению доверия и безопасности систем ИИ.
К первому такому шагу можно отнести соответствие ИИ-решения Кодексу о этике в сфере ИИ (https://ethics.a-ai.ru/), задающего основополагающие принципы этичного создания, внедрения и использования ИИ в России.
Кодекс этики не является обязательным к исполнению всеми разработчиками и пользователями систем ИИ и носит рекомендательный характер. Однако следование его принципам соответствует целям создания безопасного ИИ для человека и общества. Реализацией Кодекса этики ИИ занимается специальная комиссия, в сферу ответственности которой входят вопросы оценки рисков и гуманитарного воздействия систем ИИ, оценка эффективности реализации Кодекса, формирование свода наилучших практик решения этических вопросов в жизненном цикле ИИ, например этичного применения рекомендательных сервисов.
Вторым шагом может стать проверка систем ИИ на соответствие техническим стандартам и регламентам.
Технический комитет по стандартизации № 164 «Искусственный интеллект» (ТК 164), в деятельности которого принимают участие 68 профильных организаций, ведет работы по разработке национальных и международных стандартов в области искусственного интеллекта.
В России уже действует в общей сложности более 100 ГОСТ по ИИ в сферах:
- здравоохранения,
- образования,
- ИТ,
- транспорта,
- сельского хозяйства.
Также действуют стандарты по ряду прикладных систем, в частности по ситуационной видеоаналитике, обработке данных дистанционного зондирования Земли, техническим средствам досмотра в аэропортах.
Стандарты, затрагивающие вопросы безопасности ИИ:
- функциональная безопасность (ПНСТ 836-2023);
- обеспечение доверия к ИИ (ГОСТ 59276);
- оценка качества систем ИИ (ГОСТ 59898);
- оценка робастности нейронных сетей (ГОСТ 70462);
- управление рисками ИИ (ПНСТ 776-2022);
- стандарты работы с большими данными для ИИ (ГОСТ 70889, 70466 и 59926);
- смещенность в системах ИИ (ПНСТ 839-2023);
- этические и общественные аспекты ИИ (ПНСТ 840-2023).
ПНСТ 836-2023 «Искусственный интеллект. Функциональная безопасность и системы искусственного интеллекта» - стандарт для систем ИИ в области критической инфраструктуры и безопасности, к которым предъявляются дополнительные требования в соответствии с введенной классификацией рисков.
Также прорабатываются вопросы, связанные с понятием жизненного цикла модели ИИ, в соответствии с которым формализуются стадии и методы проверки и верификации моделей ИИ.
Национальный нормативно-правовой ландшафт ИИ активно формируется в том числе с учетом опыта, полученного в экспериментальных правовых режимах по использованию высокоавтоматизированных транспортных средств и других беспилотных систем.
Возможный сценарий обеспечения доверия к систем ИИ:
Центр безопасности
22 мая 2024 года при поддержке Министерства цифрового развития, связи и массовых коммуникаций Российской Федерации был создан консорциум для исследований безопасности технологий искусственного интеллекта (https://digital.gov.ru/ru/events/51054/). В консорциум вошли АНО «Национальный технологический центр цифровой криптографии» (НТЦ ЦК), Академия криптографии Российской Федерации и Институт системного программирования им. В.П. Иванникова Российской академии наук (ИСП РАН).
Выводы
Рассматривая вопросы регулирования ИИ в общемировом масштабе, стоит отметить, что Россия занимает здесь одну из лидирующих позиций – уже сформулированы цели регулирования ИИ, сформирован и работает базовый регуляторный каркас, создаются соответствующие надзорные структуры и средства по контролю и верификации систем ИИ. В отличие от законодательства ЕС (https://artificialintelligenceact.eu/), регулирование ИИ в России изначально не перегружено строгой категоризацией всех систем ИИ на опасные и неопасные, а наоборот, призвано строго контролировать только те области применения ИИ, где это жизненно необходимо.
Мы внимательно следим за изменениями и дополнениями в национальном регулировании ИИ, соответствующие аналитические материалы будут своевременно обновляться. Также более полную информацию по регулированию ИИ в России вы можете найти на сайте https://ai.gov.ru/ai/regulatory/