Top.Mail.Ru
РБК Компании
Главная AppSec Solutions 15 января 2026

В 2026 рынок продуктов для защиты ИИ вырастет как минимум в 4 раза

Объем первых в истории российского рынка сделок в сфере AI Security превысил сотни миллионов рублей. В 2026 его ждет бурный рост
В 2026 рынок продуктов для защиты ИИ вырастет как минимум в 4 раза
Источник изображения: Пресс-служба AppSec Solutions
Юрий Сергеев
Юрий Сергеев
генеральный директор AppSec Solutions

Юрий Сергеев, генеральный директор компании AppSec Solutions. Более 25 лет опыта в индустрии разработки ПО и более 15 лет в индустрии кибербезопасности.

Подробнее про эксперта

AI Security — это новый рынок, он только формируется, но совершенно очевидно, что этот рынок будет расти в геометрической прогрессии вслед за рынком продуктов на основе искусственного интеллекта. Доверие между человеком и ИИ становится новой валютой цифрового мира. Задача инженеров уже не просто защищать инновации, а защищать доверие

По данным из открытых источников, а также по нашим экспертным оценкам в 2025 спрос на продукты для защиты ИИ составит не менее 1 млрд рублей. ИИ-технологии развиваются и внедряются стремительно, и сегодня задача ИБ-компаний очень быстро обеспечить бизнесу защиту от растущих рисков. Сейчас над этой задачей трудится много команд, поэтому полагаем, что в 2026 рынок AI Security вырастет как минимум вчетверо, и этот рост продолжится в ближайшие 5 лет (согласно открытым данным, к 2029 рынок AI Security достигнет 11 млрд. руб., обогнав по темпам роста и доходности рынок DevSecOps).

AppSec Solutions в 2025 разработали отечественное решение AppSec.GenAI. Это российский инструмент анализа защищенности ИИ-систем на устойчивость к атакам.  Основная задача продукта — определить, как языковая модель противостоит манипуляциям, выявить риски и предотвратить кражу чувствительных данных. Инструмент разрабатывался более 2 лет. В компании уже окупили инвестиции в продукт, преодолев точку IRR и вышли в прибыль, рассчитывая увеличить выручку по AppSec.GenAI до наступления 2026, так как рынок искусственного интеллекта демонстрирует взрывной рост, в то время как инструментов для анализа безопасности моделей отечественной разработки пока практически нет.

Продукт отечественного вендора   позволяет тестировать модель на различные сценарии проникновения, начиная от Phishing Attack и Jailbreaking, заканчивая сложными атаками на звуковые и мультимодальные модели. AppSec.GenAi выявляет слабые стороны ИИ-моделей и позволяет разработчикам своевременно их доработать. Устойчивость и безопасность ИИ реализуют как регулярный и системный процесс: сначала задают модель угроз (что именно и где может пойти не так — от чат бота и RAG до агентных действий), опираясь на признанные таксономии риска вроде OWASP LLM Top 10 и MITRE ATLAS, затем применяют автоматизированные тесты, которые имитируют прямые и скрытые инъекции, утечки данных, злоупотребление инструментами, отравление данных и многошаговые «каскадные» сценарии, включая многоязычный обход защит (multilingual bypass). Результат измеряют понятными метриками — доля успешных атак, частота обхода фильтров, утечки персональных данных, «стоимость» компрометации и охват по категориям риска — и автоматически ставят «гейт» в конвейер разработки (CI/CD): релиз блокируется, если безопасность деградировала. Такой цикл делает безопасность измеримой, сравнимой между продуктовыми релизами и позволяет заранее отлавливать уязвимости, а не разбираться с уязвимым продуктом, развернутым в промышленной эксплуатации на стороне клиента.

Инструмент разработан для языковых моделей, которые используют различные сферы бизнеса: финтех, медицинские ИИ-технологии, управление производством или БигТех. Первыми клиентами сервиса стали крупные финтех-компании.

По данным Национального центра искусственного интеллекта при Правительстве РФ, 43% российских компаний используют искусственный интеллект в своей работе, но только у 36% есть хотя бы минимальные политики безопасности в этой области. Спектр уязвимостей ИИ-систем широк. Это и намеренное «заражение данных», на которых обучается модель, хищение чувствительных данных с помощью специальных промптов, «перегруз» ИИ-агента специально модифицированными запросами, что ведет к быстрому исчерпанию вычислительных мощностей компании, и другие.

Интересное:

Новости отрасли:

Все новости:

ГлавноеЭкспертыДобавить
новость
КейсыМероприятия