Генеративный нейтралитет. Могут ли политикам запретить работать с ИИ
Агитационные видео, дипфейки, звонки ботов, имитирующих голос президента, — нейросети стали эффективным политическим инструментом и причиной громких скандалов

ИИ — моя сфера интереса. Я твердо уверен, что нейросети не заменят людей, но люди, использующие нейросети заменят тех, кто их не использует
По оценкам ООН и Европарламента, а также исследовательских центров Гарварда и Массачусетса, к концу 2025 года генеративный искусственный интеллект стал уже стандартным инструментом политической деятельности. От 60% до 80% крупных аналитических компаний в странах ОЭСР используют его для анализа общественного мнения, маркетинга и целенаправленного общения со сторонниками различных политических партий и движений. Объем мирового рынка подобных услуг оценивается в $1,5–2 млрд в год.
Меня зовут Кирилл Пшинник, я научный сотрудник Университета Иннополис и CEO онлайн-университета «Зерокодер». Искусственный интеллект — моя профессия, и я хочу рассказать, как он влияет на политическую ситуацию в мире.
Нейросети в политике — это проблема
Разработчики популярных ИИ-моделей официально заявляют об их политическом нейтралитете. Однако академические исследования и опросы демонстрируют более сложную картину. Эксперименты Стэнфордского и Массачусетского университетов показали: значительная часть пользователей в США воспринимает крупные нейросети, как левоцентристские, к тому же модели дают разные по тону ответы на одни и те же вопросы, если они сформулированы с позиции разных партий.
Компании OpenAI, Google и Anthropic, в качестве мер противодействия сложившейся практике, обновили механизмы работы своих нейросетей, чтобы те избегали агитации за конкретных кандидатов на выборах, объективно описывали программы и основные принципы политических сил и, тем более, не допускали экстремистских высказываний.
Но с американскими нейросетями хотя бы можно обсудить политическую ситуацию в стране. С китайскими ИИ-моделями все намного сложнее. Нейросети либо обходят вопросы о политических деятелях и событиях в КНР стороной, либо переводят разговор в некое подобие общей дискуссии о стабильности. На вопросы о других странах они отвечают свободно.
В свою очередь, в Европе власти требуют обязательной маркировки ИИ-контента. А все в тех же США из-за многочисленных скандалов во время президентских выборов 2024 года, Федеральной избирательной комиссии, а также властям нескольких штатов пришлось начать разработку правил использования ИИ в политическом поле и запретов дипфейков, в том числе голосовых.
Российский ИИ — за стабильность
Ситуация в России качественно отличается от происходящего в сфере отношений ИИ и политики по всему миру. Во время своего выступления на форуме AI Journey 2025 президент Владимир Путин подчеркнул: ИИ и генеративные нейросети — национальный приоритет. Для развития российского искусственного интеллекта необходимо создать отдельный координационный орган, а также увеличить поток инвестиций в разработку отечественных нейросетей.
Крупнейшие российские СМИ уже сейчас экспериментируют с генерацией новостей, видеороликов и инфографики, что позволяет создавать визуальный ряд и текстовый контент на основе политической повестки в режиме реального времени.
В регионах ИИ используется для подготовки агитационных материалов, проработки сценариев встреч с местными жителями, а также анализа обратной связи на основе публикаций в соцсетях. В ряде субъектов ежедневно нейросети обрабатывают сотни тысяч сообщений, а охваты цифровой агитации вырастают на 20-30% при сохранении или снижении бюджетов.
Звонки Байдена и ролики Трампа
В США ИИ уже прочно вошел в политический процесс, став эффективным инструментом политтехнологов. Исследование Центра медиа-взаимодействия Техасского университета показывает, что в ходе 2024 и 2025 годов не менее 70% федеральных политических кампаний использовали генеративные инструменты для сегментации сообщений и исследования общественного мнения.
При этом сама стоимость контакта с избирателем или, после выборов, сторонником той или иной политической партии снизилась на 15-20% по сравнению с предыдущими кампаниями. Аналитики прогнозируют, что к выборам 2028 года расходы на рекламу кандидатов, созданную с помощью ИИ, превысят $5 млрд. При этом общий объем этого рекламного рынка оценивается в $10-11 млрд.
Одновременно с этим в США фиксируются случаи создания ИИ-контента с целью манипуляции общественным мнением. Так, некоторые политики заказывали видеоролики с фейковыми митингами и экспертами. Другой пример — крупный скандал со звонками избирателям во время прошлогодних президентских выборов. ИИ-бот, имитирующий голос Джо Байдена, начал звонить жителям Нью-Гэмпшира, призывая их отказаться от голосования во время праймериз. Это возмутило как обычных жителей, так и политических активистов. В итоге было начато расследование инцидента, а на федеральном уровне заговорили об острой необходимости ввести жесткие правила использования нейросетей во время предвыборной агитации.
Одновременно с этим политические ролики, созданные при помощи ИИ, попадая в социальные сети они набирали сотни миллионов просмотров. Причем на создание такого контента тратилось в 5-10 раз меньше средств, чем на организацию традиционных съемок.
После выборов создание нейровидео с образами известных политиков не закончилось. Президент Дональд Трамп — поклонник подобного формата. Короткие ИИ-ролики с его образом набирают миллионы просмотров в TikTok и на других платформах. При этом каждый из них становился предметом дискуссий о границах допустимой политической сатиры и пропаганды.
Ограниченный ИИ в Европе
Власти Евросоюза требуют обязательной маркировки ИИ-контента и прозрачности работы с нейросетями, поэтому их влияние на политическую ситуацию в странах ЕС остается ограниченным. При этом, согласно отчету Европарламента, в 2025 году большинство крупных партий использовали технологии искусственного интеллекта для анализа настроений в обществе и таргетинга с помощью исследования социальных сетей. При этом отмечается, что представители крайне правого сектора активно используют ИИ для генерации изображений и видео, акцентирующих внимание на протестных настроениях граждан и миграционных кризисах. Отдельные примеры такого контента набирали более 600 тысяч просмотров и десятки тысяч репостов, даже если изначальный материал был удален.
Аналитики также фиксируют рост гражданских инициатив, в которых ИИ используется для выявления дезинформации в политическом пространстве, а также для связи с политиками.
Острые вопросы ИИ-этики
Отчеты ООН, международных НКО и исследовательских центров, опубликованные в 2025 году, признают ИИ неотъемлемой частью политических процессов и коммуникаций во всем мире. Однако его использование с целью воздействия на общество, особенно во время предвыборных компаний, ставит перед странами ряд острых вопросов, которые еще предстоит решить. Как защититься от откровенной пропаганды и дипфейков, избежать манипуляций, обнаружить неверную информацию? И справятся ли с новыми вызовами государственные регуляторы?
Впрочем, ИИ уже невозможно исключить из политики, хотя в этой среде еще предстоит научиться работать с ним. Я уверен, придерживаясь принципов этичного использования искусственного интеллекта, прозрачности и, в первую очередь, работая в интересах человека, разработчики смогут сделать нейросети максимально нейтральными, а политические системы — органично интегрировать его в свои процессы.
Рубрики
Интересное:
Новости отрасли:
Все новости:
Публикация компании
Достижения
Контакты
Рубрики


