Top.Mail.Ru
РБК Компании
Главная ООО «ЭЦР» 13 февраля 2026

Эксперты объяснили реальные риски военного ИИ вместо сценария Терминатора

Реальные угрозы ИИ связаны с автономным оружием и военными системами, где алгоритмы могут ускорить эскалацию конфликтов без должного контроля
Эксперты объяснили реальные риски военного ИИ вместо сценария Терминатора
Источник изображения: Сгенерировано нейросетью Gemini
Роман Душкин
Роман Душкин
Руководитель разработки ООО «ЭЦР»

Ведущий эксперт по искусственному интеллекту, старший преподаватель кафедры 22 «Кибернетика» НИЯУ МИФИ

Подробнее про эксперта

О чем на самом деле говорит Маск

Когда Илон Маск пугает «сценарием Терминатора», он в карикатурной форме пересказывает серьезный разговор про военный ИИ и автономное оружие. Речь не о неком едином сверхразуме в сети, а о конкретной ситуации: военная система с элементами ИИ получает слишком много автономии и может ускорить или исказить принятие решений по применению силы, включая ядерное оружие.

Эксперты по ядерной и военной безопасности обсуждают вполне рациональные вопросы: насколько допустимо доверять алгоритмам выбор целей, оценку угроз, противоракетную оборону, кибератаки. Опасность здесь — не «злая воля машины», а цепочка ошибок, эскалация и сокращение времени на человеческий контроль, если политики и военные решат «упростить себе жизнь» и переложить ответственность на черный ящик.

Почему «Судный день от ИИ» не запрограммирован

В реальности искусственный интеллект — это не персонаж, а область науки и набор технологий. Существуют тысячи систем и искусственных когнитивных агентов: одни помогают на порталах госуслуг, другие в медицине, третьи в промышленности или образовании, и все они созданы разными командами под разные задачи. У этих систем нет ни общей воли, ни единого «злого плана» — это инструменты внутри конкретных процессов.

Исследования по экстремальным рискам ИИ говорят о других сценариях: ошибочная автоматизация критических решений, широкодоступные кибероружия, манипуляция общественным мнением, постепенное «расползание» автономии без должного контроля. В ответ на это уже формируются технические и юридические барьеры: многоуровневый доступ, человек «в контуре» на критических участках, тестирование моделей на опасные способности, ограничения на автономное оружие и международные обсуждения в ООН.

Если говорить честно, главный риск — не восстание терминаторов, а человеческое желание снять с себя ответственность и доверить вопросы войны и мира непрозрачным алгоритмам. Это уже не про «через сколько лет ИИ устроит Судный день», а про то, как быстро мы договоримся о здравых правилах использования ИИ в армии и политике.

Интересное:

Новости отрасли:

Все новости:

Публикация компании

ГлавноеЭкспертыДобавить
новость
КейсыМероприятия