Искусственный интеллект в финансах: между инновациями и рисками
Обсуждаем с экспертом Lime Credit Group (МФК «Лайм-Займ») вопросы ответственности, последствия внедрения и сценарии развития ИИ в финансовой сфере

Эксперт в области информационной безопасности, сохранения конфиденциальности, целостности и доступности сведений, а также построения политики защиты корпоративных и персональных данных.
— Какие риски при массовом внедрении искусственного интеллекта (ИИ) в финансовом секторе остаются недооцененными, по вашему мнению?
— Самый недооцененный риск — это не «восстание машин», а хрупкость системы. Когда все банки и фонды используют схожие ИИ-модели, обучающиеся на одних и тех же данных, это создает скрытую корреляцию. Малейшая ошибка или атака может вызвать цепную реакцию и системный сбой, как домино. Не стоит забывать и про «цифровую пыль»: ИИ-системы, обученные на исторических данных, могут неосознанно воспроизводить устаревшие шаблоны принятия решений и создавать новые формы скрытой дискриминации в кредитовании.
Еще один риск — качество данных, на которых обучается ИИ. Особенно опасно то, что искажения могут оставаться незамеченными длительное время: модель будет выдавать внешне логичные, но фактически ошибочные выводы, опираясь на скомпрометированные данные. В финансовом секторе, где точность и предсказуемость критически важны, такая ситуация создает угрозу как для отдельных организаций, так и для стабильности рынка в целом.
— Кто должен нести ответственность за решения, принятые с помощью ИИ?
— Ответственность по умолчанию должна лежать на эксплуатирующей организации, которая использует ИИ для принятия решений. Разработчик отвечает за корректность реализации алгоритмов и отсутствие критических ошибок в коде. Регулятор обеспечивает правовую рамку, определяя требования к безопасности и надежности ИИ‑систем, процедуры контроля и надзора, механизмы защиты прав потребителей.
На практике это можно закрепить через «журналы решений» ИИ, которые можно проверить, и страхование ответственности для компаний, внедряющих ИИ.
— Может ли чрезмерная зависимость от ИИ привести к деградации управленческих компетенций?
— Действительно, существует риск постепенного ослабления профессиональной экспертизы при чрезмерной опоре на ИИ-системы, и его масштаб напрямую зависит от глубины проникновения технологий в деятельность компании. В оптимальной модели взаимодействия ИИ должен выступать в роли помощника, который берет на себя рутинные задачи по сбору и анализу данных. Он быстро обрабатывает массивы информации, выявляет закономерности и формирует предварительные рекомендации. При этом человек сохраняет за собой функцию принятия окончательных решений и ответственность за «обучение помощника», особенно в нестандартных ситуациях. Эксперт также отвечает за интерпретацию результатов для клиентов, регулятора и акционеров и за учет этических и социальных последствий принимаемых решений. ИИ — мощный помощник для анализа, но окончательное решение должно остаться за человеком.
— Насколько современное регулирование финансового рынка адаптировано к массовому использованию ИИ-технологий?
— Действующее регулирование не успевает за темпами развития технологий искусственного интеллекта. Сегодня ИИ активно внедряется практически во все сферы, где это технически возможно, — финансовый сектор не исключение. При этом область применения ИИ остается зоной активного изучения: идет постоянная оценка его эффективности в сравнении с человеческими решениями, тестируются новые сценарии использования. Однако четкие границы и допустимая глубина внедрения (включая уровень ответственности) пока не определены — на текущем этапе их задают преимущественно оценки экспертов.
— Какой сценарий развития ИИ в финансовой отрасли вы считаете наиболее вероятным в ближайшие 3-5 лет?
— Это может быть управляемый рост с постепенным усилением регуляторного контроля. Ключевым этапом дальнейшего развития будет реализация рисков и работа с последствиями от использования ИИ. В зависимости от их критичности и охвата будет выбран сценарий регулирования. Регуляторы будут стремиться минимизировать системные риски. В то же время полный запрет или резкое ограничение развития технологий маловероятны.
Можно ожидать:
- возникновения отдельных инцидентов (технических сбоев, хакерских атак на ИИ-модели, ошибок в принятии решений на основе ИИ);
- поэтапного введения новых норм и требований регулятора в ответ на выявленные проблемы;
- увеличения издержек на внедрение ИИ-систем из‑за необходимости соблюдения дополнительных требований (аудит, отчетность, сертификация);
- замедления темпов масштабирования ИИ-решений.
Таким образом, развитие ИИ в финансовой сфере продолжит идти поступательно, но с более строгой надзорной рамкой и повышенной требовательностью к прозрачности и безопасности алгоритмов и локализацией эффективных ИИ-технологий у крупных игроков.
Рубрики
Материалы партнеров РБК:
Все новости:
Публикация компании
Достижения
Профиль
Контакты
Социальные сети
Рубрики
