Эксперты объяснили реальные риски военного ИИ вместо сценария Терминатора
Реальные угрозы ИИ связаны с автономным оружием и военными системами, где алгоритмы могут ускорить эскалацию конфликтов без должного контроля

Ведущий эксперт по искусственному интеллекту, старший преподаватель кафедры 22 «Кибернетика» НИЯУ МИФИ
О чем на самом деле говорит Маск
Когда Илон Маск пугает «сценарием Терминатора», он в карикатурной форме пересказывает серьезный разговор про военный ИИ и автономное оружие. Речь не о неком едином сверхразуме в сети, а о конкретной ситуации: военная система с элементами ИИ получает слишком много автономии и может ускорить или исказить принятие решений по применению силы, включая ядерное оружие.
Эксперты по ядерной и военной безопасности обсуждают вполне рациональные вопросы: насколько допустимо доверять алгоритмам выбор целей, оценку угроз, противоракетную оборону, кибератаки. Опасность здесь — не «злая воля машины», а цепочка ошибок, эскалация и сокращение времени на человеческий контроль, если политики и военные решат «упростить себе жизнь» и переложить ответственность на черный ящик.
Почему «Судный день от ИИ» не запрограммирован
В реальности искусственный интеллект — это не персонаж, а область науки и набор технологий. Существуют тысячи систем и искусственных когнитивных агентов: одни помогают на порталах госуслуг, другие в медицине, третьи в промышленности или образовании, и все они созданы разными командами под разные задачи. У этих систем нет ни общей воли, ни единого «злого плана» — это инструменты внутри конкретных процессов.
Исследования по экстремальным рискам ИИ говорят о других сценариях: ошибочная автоматизация критических решений, широкодоступные кибероружия, манипуляция общественным мнением, постепенное «расползание» автономии без должного контроля. В ответ на это уже формируются технические и юридические барьеры: многоуровневый доступ, человек «в контуре» на критических участках, тестирование моделей на опасные способности, ограничения на автономное оружие и международные обсуждения в ООН.
Если говорить честно, главный риск — не восстание терминаторов, а человеческое желание снять с себя ответственность и доверить вопросы войны и мира непрозрачным алгоритмам. Это уже не про «через сколько лет ИИ устроит Судный день», а про то, как быстро мы договоримся о здравых правилах использования ИИ в армии и политике.
Рубрики
Интересное:
Новости отрасли:
Все новости:
Публикация компании
Рубрики