Top.Mail.Ru
РБК Компании

35% взломов ИИ — из-за паролей вроде «123456»

Исследование показало главную уязвимость бизнеса
35% взломов ИИ — из-за паролей вроде «123456»
Источник изображения: Сгенерировано нейросетью Freepik AI
Сергей Полунин
Сергей Полунин
Руководитель группы защиты инфраструктурных ИТ-решений компании «Газинформсервис»

Опыт в сфере информационной безопасности — более 15 лет. Ранее занимался построением безопасных ИТ-инфраструктур в различных компаниях

Подробнее про эксперта

Стремление компаний как можно быстрее внедрить искусственный интеллект оборачивается новыми, неожиданными рисками. Как выяснилось, главной угрозой становится не сложность технологий, а небрежность при их эксплуатации. Согласно данным исследования «Искусственный Интеллект в Кибербезопасности»*, проведенного на базе МГУ имени М. В. Ломоносова, 35% всех инцидентов безопасности в сфере ИИ за 2025 год были вызваны не изощренными хакерскими атаками, а элементарными ошибками: слабыми паролями, отсутствием базового контроля доступа и человеческого надзора.

В исследовании приведен отчет Adversa AI: «70% инцидентов были связаны с генеративным ИИ, но вот поразительный вывод: 35% всех инцидентов безопасности ИИ были вызваны простыми запросами, а не сложными хакерскими атаками. Большинство нарушений были вызваны неправильной проверкой, пробелами в инфраструктуре и отсутствием человеческого контроля. Системы давали сбои одновременно на нескольких уровнях: в самой модели ИИ, в поддерживающей ее инфраструктуре и в механизмах человеческого контроля, которые должны были выявлять проблемы до того, как они перерастали в более серьезные».

Классическим примером стал инцидент в июне 2025 года с ИИ-платформой для найма, использовавшейся сетью McDonald’s. Система, обрабатывавшая данные миллионов соискателей, была скомпрометирована из-за учетной записи с логином и паролем «123456», остававшейся активной с 2019 года. Это привело к утечке персональных данных 64 млн человек. Подобные случаи, как отмечают аналитики, стали системными: бизнес, инвестирующий в создание сложных нейросетевых моделей, зачастую игнорирует фундаментальные принципы ИТ-безопасности.

Мы наблюдаем парадоксальную ситуацию. Компании тратят миллионы на разработку и интеграцию продвинутых ИИ-решений, но экономят на выстраивании базовых защитных периметров. Это напоминает установку умного сейфа в доме с незапертой калиткой. Злоумышленникам сегодня часто даже не нужно «взламывать» искусственный интеллект — достаточно найти оставленную на видном месте тестовую учетку или незащищенную базу данных, к которой этот ИИ имеет доступ. Проблема носит не технологический, а управленческий характер.

Риски усугубляются растущим регулированием. После серии скандалов, в том числе с генерацией неправомерного контента, власти по всему миру ужесточают требования. Ошибка, приводящая к утечке данных, теперь грозит не только репутационными потерями, но и многомиллионными штрафами по законам о защите данных и цифровых сервисах.

Таким образом, конкурентное преимущество в эпоху повсеместной автоматизации смещается. Побеждает не тот, кто быстрее внедрил самую современную нейросеть, а тот, кто обеспечил ее безопасную, контролируемую и соответствующую регуляторным нормам эксплуатацию. И первым шагом к этому, как иронично указывает исследование, может стать банальная замена пароля «123456» на что-то более надежное и регулярный аудит прав доступа.

*Исследование опубликовано в International Journal of Open Information Technologies ISSN: 2307-8162 vol. 14, no. 2, 2026. Автор: старший научный сотрудник лаборатории открытых информационных технологий МГУ им. Ломоносова, канд. физ.-мат. наук, Д. Е. Намиот: Prompt Injection Attacks on Agentic Coding Assistants: A Systematic Analysis of Vulnerabilities in Skills, Tools, and Protocol Ecosystems | Maloyan | International Journal of Open Information Technologies

Интересное:

Новости отрасли:

Все новости:

Контакты

Адрес
Россия, г. Санкт-Петербург, ул. Кронштадская, д. 10
Телефон

Социальные сети

ГлавноеЭкспертыДобавить
новость
КейсыМероприятия