Top.Mail.Ru
РБК Компании

Как судят ИИ: юридические и регуляторные тренды в России и мире

По всему миру уже идет работа над формированием юридического регулирования искусственного интеллекта. Я попытался узнать, на какой стадии мы находимся сейчас
Как судят ИИ: юридические и регуляторные тренды в России и мире
Источник изображения: Unsplash.com
Кирилл Пшинник
Кирилл Пшинник
Сооснователь и генеральный директор онлайн-университета Zerocoder

ИИ — моя сфера интереса. Я твердо уверен, что нейросети не заменят людей, но люди, использующие нейросети заменят тех, кто их не использует

Подробнее про эксперта

Сейчас нейросети перешли из сферы исключительно технологической в обыденную жизнь: ими пользуются на работе и в быту так же, как, например, смартфонами.

Главным вызовом здесь становится скорость. Технологические инновации развиваются быстрее, чем юридические нормы. В результате на практике возникает «правовой вакуум»: компании уже используют ИИ в медицине, транспорте и госуслугах, но закон до конца не определяет, кто несет ответственность в случае ошибки алгоритма или нарушения прав граждан.

Меня зовут Кирилл Пшинник, я научный сотрудник Университета Иннополис и CEO онлайн-университета «Зерокодер». Я интересуюсь искусственным интеллектом во всех его проявлениях, в том числе в регуляторном вопросе. Сегодня я объясню, как юридически подходят к контролированию нейросетей за границей, и какие вероятные сценарии может принять регулирование ИИ в России.

Зачем регулировать ИИ

Регуляция ИИ необходима не для того, чтобы «связать руки» разработчикам, а чтобы создать условия для безопасного и предсказуемого развития технологий. И вот почему.

Во-первых, ИИ работает с огромными массивами данных — медицинских, финансовых, биометрических. Условные утечки могут стоить людям здоровья, репутации и денег. Без четких юридических рамок ответственность становится размытой: кто виноват, если алгоритм поставил неверный диагноз или отказал человеку в кредите? Закон должен расставить эти акценты и защитить пользователей.

Во-вторых, ИИ уже сейчас влияет на права человека. Алгоритмы могут усиливать дискриминацию, неправильно классифицировать людей или использоваться для манипуляции общественным мнением. Регуляция нужна как «система сдержек и противовесов», чтобы бизнесу было выгодно внедрять этичные решения, а не только быстрые и прибыльные.

В-третьих, регулирование — это фактор доверия. Компании и пользователи скорее примут новые технологии, если будут уверены, что они прошли проверку, соответствуют стандартам и не представляют угрозы.

Наконец, речь идет не только о безопасности, но и о глобальной конкуренции. Страны, которые первыми установят «правила игры» и смогут экспортировать их как стандарт, получат стратегическое преимущество. GDPR — свод правил Евросоюза о защите персональных данных — стал мировым ориентиром в свой области; то же самое может произойти с регулированием ИИ. Поэтому регулирование — это не тормоз инноваций, а наоборот, инструмент их устойчивого развития.

Что происходит «у них»

Евросоюз

Европейский союз стал первым в мире, кто принял масштабное регулирование ИИ — EU Artificial Intelligence Act (AI Act), который вступил в силу 1 августа 2024 года. Он основывается на риск-ориентированном подходе, где системы ИИ делятся на четыре уровня: минимально-рискованные (без особых ограничений), ограниченного риска (требуют прозрачности, например, уведомление о том, что контент — ИИ-генерированный), высокого риска (включают медицинские, транспортные, биометрические системы — подлежат сертификации и строгому контролю) и ненадлежащего риска, которые полностью запрещены (например, социальное кредитование, эмоциональное распознавание, предиктивная полицейская аналитика). Отдельное внимание уделено ИИ общего назначения (GPAI) — модели вроде ChatGPT обязаны соблюдать дополнительные требования по прозрачности, особенно если обладают системными рисками.

США

В США нет единой федеральной системы регулирования ИИ, из-за чего возникает своего рода «федеративная мозаика»: основная масса законов принимается на уровне штатов, а федеральные меры остаются преимущественно рамочными и добровольными. В октябре 2023 года администрация Байдена издала исполнительный указ «Safe, Secure and Trustworthy Artificial Intelligence», который поставил задачи перед агентствами: разработка стандартов безопасности, управление рисками, отчетность, тестирование и закупки ответственных систем ИИ. Также были выпущены ненормативные политики, включая «AI Bill of Rights», содержащий пять этических принципов для ИИ, а NIST — это Национальный институт стандартов и технологий США — разработал AI Risk Management Framework с рекомендациями для оценки рисков.

С возвращением Дональда Трампа на пост президента в 2025 году произошел разворот курса: он отменил указ Байдена и подписал новый Executive Order 14179 «Removing Barriers to American Leadership in AI», нацеленный на дерегулирование, рост инноваций и удаление препятствующих политик. При этом на федеральном уровне продолжают формироваться инструменты и институты: действует National Artificial Intelligence Initiative Act (2020), запускающий межагентское сотрудничество, создающий офисы по ИИ, а также AI Safety Institute при NIST.

На фоне слабого федерального регулирования штатам приходится активнее развивать собственные инициативы. Например, Калифорния, Нью-Йорк, Флорида и Техас уже приняли или рассматривают законы по прозрачности, борьбе с дискриминацией, обозначению чатботов и инструментов ИИ, а Техас планирует создать специальную «регуляторную песочницу» для инновационных ИИ-систем. Эти меры делают американский подход гибридным: федеральные ориентиры и рамки плюс разнообразие местных законов.

Китай

Китай первым внедрил формальные меры регулирования в отношении генеративного ИИ: временные меры по управлению сервисами вступили в силу 15 августа 2023 года. Они требуют, чтобы публичные сервисы проходили оценку безопасности, регистрировали алгоритмы, соответствовали социальным идеалам и не нарушали государственных интересов. Дальнейшие стандарты, опубликованные в апреле 2025 года, нацелены на безопасность данных и защиту информации, на которой происходит обучение моделей.

С 1 сентября Китай вводит обязательную маркировку контента, сгенерированного ИИ: текст, изображения, аудио, видео и виртуальные сцены должны содержать явные указания или метаданные о генерации алгоритмом. Параллельно существует широкая нормативная база, включающая законы о защите персональных данных (PIPL), кибербезопасности и интеллектуальной собственности, а также этическую регуляцию — Кодекс этики и контроль рекомендаций.

Что происходит в России

В России пока нет комплексного федерального закона об ИИ, зато у нас действует множество отдельных нормативных и стратегических документов. Указ Президента 2019 г. определил приоритеты развития ИИ, включая технологический суверенитет и интеграцию искусственного интеллекта в экономику и госуправление. В его основе лежат экспериментальные правовые режимы (ЭПР) — своего рода «регуляторные песочницы», действующие с 2020–2022 гг. и позволяющие тестировать ИИ-технологии с минимальными бюрократическими барьерами.

В конце 2024 г. была обновлена концепция регулирования ИИ на 2025–202X гг., которая введет правила использования ИИ в образовании, медицине и других сферах. Ключевые принципы — человекоориентированность, технологическая безопасность, ответственность и прозрачность.

С 2021 г. в России действует Кодекс этики ИИ, разработанный с участием Альянса ИИ, представителей госорганов и отраслевых компаний. Основные принципы — защита прав человека, прозрачность и персональная ответственность разработчика. Кодекс этики ИИ уже подписали около 247 организаций, включая таких «мастодонтов», как Сбер, Яндекс и МТС.

Также у нас активно продвигается серия национальных стандартов: ГОСТы по классификации и оценке качества ИИ, разработанные Техническим комитетом № 164 при Росстандарте. Уже утверждены десятки стандартов, ориентированных на разные области применения — от транспорта до машиностроения.

В феврале этого года власти заявили, что вводить жесткое регулирование ИИ пока рано — предпочтение отдается более гибким мерам, чтобы не задушить инновации. Вместе с тем, Госдума создала рабочую группу. Ее задача — проработать вопросы этики и противодействия преступлениям с применением ИИ, а также учитывать интересы малого бизнеса при разработке законодательства.

Еще в России был принят закон № 408-ФЗ, обязывающий владельцев платформ раскрывать алгоритмы рекомендательных систем и источники данных. Роскомнадзор может блокировать ресурсы в случае нарушений. Обсуждаются правки в Гражданский кодекс в части авторских прав на результаты, созданные с помощью ИИ, особенно в промышленной сфере. В гражданском праве ИИ по-прежнему рассматривается лишь как инструмент — авторские права принадлежат человеку, который создал произведение.

Тренды в регулировании ИИ

Если смотреть глобально, то можно выделить несколько ключевых трендов. Первый — это риско-ориентированный подход: страны стараются классифицировать системы ИИ по уровням риска, чтобы регулировать только те технологии, которые могут реально угрожать безопасности человека. Именно этот принцип лежит в основе европейского AI Act, а также в стратегиях Канады, Японии и Южной Кореи.

Второй тренд — обязательная прозрачность и маркировка контента, созданного нейросетями. Китай и Евросоюз уже требуют, чтобы ИИ-генерации сопровождались специальными метками, США и Великобритания обсуждают аналогичные меры. Это связано не только с защитой авторских прав, но и с борьбой с дезинформацией.

Третий тренд — развитие этических кодексов и добровольных стандартов, которые постепенно превращаются в обязательные нормы. GDPR показал, что мягкие рамки могут эволюционировать в жесткие правила, а страны, которые первыми внедряют такие подходы, формируют будущую повестку.

Для России эти тренды означают, что у нас есть «окно возможностей». С одной стороны, государство не спешит вводить жесткие барьеры, что позволяет компаниям экспериментировать и тестировать технологии. С другой — рано или поздно появятся обязательные требования к маркировке, к сертификации медицинских и транспортных систем, к защите данных и этике.

Вопрос в том, сумеем ли мы встроиться в международную систему правил или выработаем собственный путь, учитывающий национальную специфику. Пока курс скорее эволюционный: постепенное наращивание стандартов и этических рамок вместо единого закона. Но в условиях быстро растущего рынка именно способность найти баланс между гибкостью и безопасностью станет главным фактором конкурентоспособности.

Регулирование искусственного интеллекта перестает быть отвлеченной темой и напрямую влияет на стратегию компаний. В ЕС уже действует AI Act, который требует сертификации высокорисковых систем и прозрачности генеративного контента — это означает рост затрат на соответствие и необходимость заранее закладывать в продукт процессы аудита и маркировки.

В США бизнес получает больше гибкости, но компании должны быть готовы к резким политическим разворотам и разнородности законодательства по штатам. В Китае же регуляция идет рука об руку с государственной политикой: требования к маркировке, регистрации алгоритмов и защите данных становятся обязательными условиями для работы на рынке.

Для российских компаний это создает двойной вызов. С одной стороны, внутреннее регулирование пока мягкое: можно экспериментировать, тестировать решения в «песочницах», выстраивать собственные стандарты качества. С другой — экспортные амбиции потребуют соответствия международным правилам. Я думаю, первые отрасли, в которых бизнес столкнется с новыми барьерами, — медицина, финтех, транспорт и образование: здесь государство планирует ввести строгие рамки в ближайшие годы.

Поэтому компаниям уже сейчас стоит инвестировать в системы управления рисками ИИ, внедрять внутренние кодексы этики, готовиться к прозрачности алгоритмов и кросс-граничному соответствию. В противном случае риски «непопадания» в будущие стандарты могут оказаться критичнее, чем конкуренция на рынке. Успешными окажутся те, кто научится использовать регулирование как фактор доверия и конкурентное преимущество, а не как административную нагрузку.

Интересное:

Новости отрасли:

Все новости:

Достижения

Вошла в рейтинг Smart500Компания была включена в рейтинг Smart500 — ТОП-100 крупнейших образовательных компаний cтраны
Победитель премии SEAПобедитель SEA (School of Education) в номинации «Прорыв года.Взрослое образование»
Победитель EdTechs AwardsПобедитель EdTechs Awards в номинации «Новая ниша/аудитория»
Лидер в no-code обученииЗанимает 60% рынка обучения no-code разработке по версии Smart Ranking в 2024 году
Стабильный рост выручкиЗа первый квартал 2025 года выручка 144 миллиона, что на 72% больше, чем в прошлом году

Контакты

Адрес
Россия, г. Москва, Большая Новодмитровская ул., д. 23, эт. 2, каб. 46
Телефон

Социальные сети

ГлавноеЭкспертыДобавить
новость
КейсыМероприятия