Регулирование ИИ в ЕС
Европейский Союз (ЕС) во многом является пионером в вопросах регулирования ИИ – на текущий момент (июнь 2024 года) основной законодательный каркас уже создан и идет активная проработка отдельных его механизмов и принятие соответствующих актов как на уровне всего ЕС, так и отдельных его членов. Такое положение дел стало ответом на бурное развитие ИИ технологий в последнее десятилетние и в особенности на появление и широкое распространение мощного генеративного ИИ, производящего контент, сравнимый с контентом, созданным человеком. Стало ясно, что помимо очевидных преимуществ, столь развитый ИИ может неcти в себе и многочисленные риски для человека. Поэтому основными целями ИИ регулирования стали обеспечение неотъемлемых прав и свобод человека, строгое следование ИИ принятым в обществе этике и морали, обязательная оценка потенциального риска тех или иных ИИ решений.
Механизм оценки опасности ИИ ALTAI
Каждое ИИ решение вначале оценивается (self-assessment) в соответствии с документом ALTAI (Assessment List for Trustworthy Artificial Intelligence ). ALTAI состоит из десятков вопросов к разработчикам ИИ решения. Целью этих вопросов является выяснение, может ли ИИ решение быть потенциально опасным для человека и окружающей среды.
Составителями этого документа является группа AI HLEG (High-Level Expert Group on Artificial Intelligence ) экспертов по ИИ. Эта же группа может вносить изменения и дополнения в документ, а также является соавторами регулирующих актов в области, так называемых, высокорискованных ИИ систем (high-risk AI), о которых пойдет речь ниже.
Регулирование высокорискованного ИИ
Ответы на вопросы ALTAI позволяют сделать примерный вывод, к какому типу относится ваше ИИ решение. Вернее, представляет ли оно особый риск или нет. Далее, классификация ИИ систем делится на системы “неприемлемого риска”, “высокорискованные”, “ограниченного и минимального риска” и “ИИ системы общего назначения”.
Системы ИИ неприемлемого уровня риска полностью запрещены (Art. 5 документа Artificial Intelligence Act, https://artificialintelligenceact.eu/). К ним относятся системы определения благонадежности граждан на основе их действий, ИИ для манипулирования поведением человека, ИИ, использующий уязвимости определенных категорий граждан и ряд других.
Высокорискованные (ВР) ИИ системы попадают под особое регулирование, сформулированное в отдельном наборе статей AI Act. Документ содержит:
- полное описание жизненного цикла ВР ИИ решений,
- основные определения (Art. 3), понятия и принципы (Art. 8) регулирования ВР ИИ решений,
- классификацию ВР ИИ решений,
- типизацию ВР ИИ решений (Art. 6, 7 and Annex III).
Далее в AI Act приводятся многочисленные требования к ВР ИИ решениям, в частности:
- наличие отдельной системы управления рисками (Art. 9: Risk management system),
- требование к данным и наличие политик управления данными (Art. 10: Data and data governance),
- логирование работы (Art. 12: Record-keeping)
- наличие полной документации (Art. 18),
- обеспечение прозрачности и подконтрольности человеку (Art. 13, 14), наличие системы оценки качества (Art. 17: Quality management system).
Отдельно указано, что как разработанные в ЕС, так и импортируемые ВР ИИ решения должны проходить специальную процедуру соответствия (Art. 43: Conformity assessment, Annex V-VII) данному акту (Art. 26: Obligations of importers), по результатам которой выдается акт о сертификации ВР ИИ решения (Art. 44).
Также водится понятие ИИ «песочниц» (Art. 53: AI regulatory sandboxes) для тестирования ВР ИИ систем до их открытого развертывания и регламентируется само такое тестирование (Art. 54a). К пользователям ВР ИИ системы предъявляются многочисленные требования (Art. 52), например об уведомлении о генеративном характере предоставляемого контента (“deep fake”) или о использовании ИИ при взаимодействии с третьими лицами. Вводится общеевропейская база данных ВР ИИ систем (Art. 60), для которых предполагается их мониторинг даже после ухода с рынка (Art. 61: Post-market monitoring…). За нарушения AI Act вводятся значительные штрафы (Art. 71: Penalties), включая однократные (до 30M Euro) и оборотные (до 6%).
Регулирование ИИ общего назначения
В отдельную категорию вынесены ИИ системы общего назначения, такие как популярные модели ChatGPT и их аналоги (Art. 4). При условии, что ИИ система общего назначения не является составной частью ВР ИИ системы (которые попадают под регулирование, описанное выше), такая система должна (Art. 4):
- Проходить процедуру соответствия (conformity assessment procedure).
- Содержать исчерпывающую техническую документацию.
- Разработчики таких систем должны предоставлять всю необходимую информацию лицам, вводящим в эксплуатацию такие ИИ системы.
Кроме того, некоторые статьи регулирования ВР ИИ систем должны быть применены и к системам ИИ общего назначения.
Регулирование невысокорискованного ИИ
Для ИИ решений, не попадающих под определение ВР, жесткое регулирование отсутствует. Однако здесь работают многочисленные стандарты в области ИИ, созданием которых занимается специальный комитет ISO/IEC Artificial Intelligence в системе стандартизации (https://www.iso.org/committee/6794475.html). Стандарты в области ИИ весьма разнообразны. Их условно можно разделить на стандарты:
- общего характера, регламентирующие работу с данными, ИИ моделями, задающие стандарты верификации точности, робастности и прозрачности ИИ моделей;
- отраслевые стандарты, учитывающие специфику той или иной отрасли при развертывании в ней ИИ систем.
Отметим, что стандарты ЕС значительно коррелируют с российскими национальными стандартами, что облегчает их понимание.
Будущие шаги для обеспечения доверия ИИ систем в ЕС
Отметим еще два важных нововведения в регулировании ИИ в ЕС, которые были представлены в документе Coordinated plan on artificial intelligence (https://digital-strategy.ec.europa.eu/en/policies/plan-ai). Предполагается, что к 2026-2027 годам будут созданы:
- TEFs (Testing and Experimentation Facilities) – инфраструктура для всестороннего тестирования и оценки безопасности ИИ решений и, в особенности, ВР ИИ решений (ИИ песочницы);
- DIHs (Digital Innovation Hubs) – инновационные хабы для обмена и использования достоверных и безопасных ИИ решений, служащих целью широкого распространения доверенного ИИ во всех областях хозяйствования. Это очень амбициозные цели, однозначно ведущие к обеспечению всесторонней безопасности ИИ.