Как этика ИИ стала насущной необходимостью

Новые технологии внедряются быстрее, чем люди осознают, как они отразятся на их жизни. Но развитие нейросетей невозможно без выработки этических принципов

Кирилл Пшинник
Сооснователь и генеральный директор онлайн-университета Zerocoder

ИИ — моя сфера интереса. Я твердо уверен, что нейросети не заменят людей, но люди, использующие нейросети заменят тех, кто их не использует

Стремительно ворвавшись в жизнь миллионов, а то и миллиардов людей, ИИ не только ускорил и сделал более эффективным процесс решения различных задач, но и поставил новые острые вопросы перед мировым сообществом. Главный из них — проблема конфиденциальности, использования данных пользователей, а также их доверия к новой технологии. Лидеры рынка искусственного интеллекта, как и страны-потребители ИИ-услуг начали вырабатывать этические нормы работы нейросетей, чтобы защитить своих граждан от вторжения в их личную жизнь.

Меня зовут Кирилл Пшинник, я научный сотрудник Университета Иннополис и CEO онлайн-университета «Зерокодер». Искусственный интеллект — сфера моего интереса и мой постоянный помощник. В этот раз поговорим, что такое ИИ-этика, почему она необходима и какие подходы к ней предлагают разные страны.

Глобальные стратегии в области этики ИИ

В 2025 году этика искусственного интеллекта перешла из области дискуссий в поле практической необходимости как для бизнеса, так и для всего общества. Как отмечает доктор Николас Морисон из Института Альфреда Дикина при Университете Дикина (Австралия), геополитическая конкуренция в области ИИ приобретает характер «глобального соревнования ценностей», где каждая страна стремится закрепить свои принципы в алгоритмах работы нейросетей.

Ситуация многополярная: США ориентируются на защиту индивидуальных прав и свободы выражения мнений, Европейский союз внедряет в ИИ ценности достоинства, приватности и принципа предосторожности. Китай настаивает на реализации социалистических принципов в алгоритмах ИИ, рассматривая это как свой цивилизационный долг. Россия, по словам уже профессора Пьера Бекуша из Парижского университета, формирует подход, основанный на концепции «суверенного интернета», где алгоритмическая фильтрация и интеграция с системами наблюдения обосновываются защитой национальных интересов.

Ситуация на рынке этичного ИИ и последствия нарушений

Рынок решений для этичного ИИ растет рекордными темпами — на 29,5% ежегодно. По данным Technavio, его объем достигает $1,6 млрд. Эта цифра — лучшее подтверждение, что этические принципы превращаются из добровольной практики в обязательное условие ведения бизнеса. Как подчеркивает аналитическая платформа Scrut Automation, компании вынуждены инвестировать в аудиты, системы машинного обучения HITL и создание специальных комитетов по этике ИИ, что напрямую влияет на их бюджеты.

Последствия нарушения этических норм могут быть катастрофическими. Так, в декабре 2024 года итальянские власти оштрафовали OpenAI на €15 млн за использование данных пользователей без их согласия.

В Голландии, в свою очередь, на американскую компанию Clearview AI бы наложен штраф в €30,5 млн за незаконное извлечение миллиардов фотографий из интернета для обучения алгоритмов распознавания лиц. Время предупреждений о недопустимости неэтичного использования нейротехнологий закончилось. Власти европейских и других стран перешли от слов к прямым действиям по защите своих граждан от произвольных попыток создателей нейросетей получить доступ к их личному контенту.

Реакция бизнеса и проблема доверия потребителей

Доверие потребителей к технологиям ИИ остается ключевым вызовом для бизнеса. По данным исследования Orienteed, 63% пользователей не доверяют ИИ в вопросах обращения с персональными данными, а 59% — испытывают эмоциональный дискомфорт от использования их данных для обучения нейросетей. Эти цифры подтверждаются и в отчете Amra&Elma, где также отмечается, что 40% компаний называют приватность главным барьером при внедрении ИИ в свои рабочие процессы.

Однако бизнес не может игнорировать технологические тренды: 88% компаний используют ИИ в своей ежедневной работе, но лишь 13% имеют штатных специалистов по этике искусственного интеллекта. Ситуация классическая — внедрение технологий значительно опережает формирование этических рамок их использования.

Согласно Стэнфордскому индексу ИИ, в США уровень доверия ИИ находится на довольно низком уровне — всего 39% пользователей готовы спокойно предоставлять нейросетям информацию о себе, не опасаясь утечек и прочих неприятностей. Китай демонстрирует иные показатели. Официальная статистика заявляет, что в КНР искусственному интеллекту доверяют 83% населения, считая его полезным инструментом для решения бытовых и рабочих вопросов.

Решения вопросов этики ИИ: российский подход

В России формирование этических стандартов ИИ происходит в контексте концепции цифрового суверенитета. Как анализирует доктор Ючан Ли в статье «Управление искусственным интеллектом в Европе под внешним давлением: последствия для сотрудничества с Китаем», опубликованной в журнале «Россия в глобальном мире», российское регулирование тесно интегрировано с доктриной национальной безопасности. В отличие от западных стран, где защита персональных данных и приватность являются приоритетом, в России вопросы этики ИИ часто рассматриваются через призму государственных интересов и цели поддержания стабильности.

Это подтверждается исследованием Defence and Artificial Intelligence, подготовленном Европейской парламентской исследовательской службой (EPRS). По ее данным, Россия активно инвестирует в применение ИИ в области оборонной промышленности, стремясь таким образом компенсировать технологическое отставание от США и Китая.

В то же время только оборонным сектором работа по интеграции ИИ в России не ограничивается. Нейросети разрабатывают и внедряют представители бизнеса из самых разных отраслей. При этом российские компании сталкиваются с двойным вызовом: необходимостью соответствовать международным стандартам для работы на глобальных рынках и адаптацией к национальным требованиям регулирования. По данным РБК, российский рынок ИИ в 2025 году характеризуется фрагментацией регуляторной среды и недостатком квалифицированных кадров в области этики технологий.

Биполярная ИИ-этика

Несмотря на геополитические разногласия, международное сообщество стремится к поиску универсальных этических принципов работы с ИИ. Рекомендации ЮНЕСКО по этике искусственного интеллекта, принятые 194 государствами-членами, закладывают основу для глобального диалога на эту непростую и довольно острую для многих тему. Как отмечается в документах организации, защита прав и достоинства человека является краеугольным камнем подхода к этике ИИ, основанного на продвижении принципов прозрачности, справедливости и человеческого контроля над системами искусственного интеллекта.

Однако, как предупреждает профессор Пьер Бекуш, мир движется к новому биполярному порядку в области ИИ, где две сверхдержавы — США и Китай — формируют альтернативные цифровые экосистемы с разными этическими кодексами.

Европа, несмотря на амбициозный регуляторный подход, рискует стать зависимой от США стороной в этой конфронтации. При таких условиях, как справедливо отмечают исследователи Стэнфордского университета, от того, какие ценности будут заложены в системы ИИ сегодня, будет зависеть характер всеобщего цифрового завтра.

Общие усилия для развития ИИ

Я согласен с большинством экспертов: этика ИИ перестала быть вопросом добровольного выбора. Компании должны рассматривать этические принципы как стратегическую необходимость. Те организации, которые построят свои системы в соответствии с универсальными ценностями — уважением к правам человека, прозрачностью и справедливостью, — получат конкурентное преимущество в условиях все более строгого регулирования и сложного формирования потребительского доверия к технологиям.

В мире, где искусственный интеллект становится основным проводником к получению знаний, этические дилеммы переходят из академических дискуссий в сферу повседневных решений для бизнеса, государства и отдельных пользователей. Ответственное развитие ИИ требует совместных усилий всех заинтересованных сторон — от разработчиков алгоритмов до конечных пользователей — для создания технологий, которые служат человечеству, а не подменяют собой человеческие ценности и цели.

Присоединяйтесь к компаниям, которые уже делятся новостями бизнеса на РБК КомпанииУзнать больше