Речевая аналитика с ИИ: от распознавания речи к управлению опыта клиентов
Банки ищут способ лучше управлять клиентским опытом на основе реальных диалогов. О том, как это делает речевая аналитика с LLM, рассказывает Анна Ивлева из BSS
Эксперт в области систем речевой аналитики. Более 11 лет совокупного опыта работы в банковской сфере и разработке продуктов для контактных центров и электронных торговых площадок
О LLM и AI-агентах сегодня много говорят на профильных конференциях, в деловой прессе и профессиональном онлайн-сообществе. Экспериментов по-прежнему немало, но уже сформировались рабочие сценарии, которые дают заметный практический эффект. Клиенты это фиксируют: часть из них готова внедрять такие решения, рассматривая их как источник конкурентного преимущества. Анна Ивлева, владелец продукта «Речевая аналитика» компании BSS, рассказала, в каких ролях системы, усиленные LLM, уже успели проявить себя в банках.
Как изменились российские системы речевой аналитики к 2025 году и с какими вызовами столкнулись их разработчики?
Начиная с конца 2024 и в течение 2025 года рынок прошел этап серьезной трансформации. Решения для речевой аналитики двигались от классических сценариев — распознавания речи и полнотекстового поиска, дополненного ML-моделями, — к задачам осмысленного анализа диалога, включая понимание контекста и намерений собеседников.
Перед разработчиками, в том числе и нашей командой, встали две приоритетные задачи. С одной стороны, требовалось выстроить оптимальное сочетание проверенных временем подходов — лексических словарей, тегирования, моделей машинного обучения — с генеративными нейросетями и большими языковыми моделями (LLM). Этот баланс оказался нетривиальной инженерной задачей. С другой стороны, остро встал вопрос защиты данных. Заказчики ожидали четких ответов на вопрос, как участие искусственного интеллекта в анализе диалогов скажется на конфиденциальности и безопасности чувствительной информации.
Как компания BSS, которая давно развивает направление речевой аналитики, отреагировала на эти вызовы?
Прежде всего мы доработали платформу, встроив в нее AI-модуль на базе LLM с двумя режимами работы: AI-сканер и AI-исследователь. В режиме AI-сканера система посредством запросов к LLM извлекает расширенный набор параметров из каждого диалога — от оценки удовлетворенности клиента до персональных рекомендаций для операторов и специалистов по контролю качества. Результаты обработки фиксируются в карточке диалога в виде отдельных признаков: числовых метрик, коротких текстовых формулировок, рубрикаций, бинарных оценок или резюме разговора. На основании этих признаков формируется отчетность, отслеживается динамика — например, изменения эмоционального состояния клиентов в течение дня — и становится возможным сопоставить эффективность операторов, опирающихся на собственные лучшие практики, с результатами сотрудников, строго следующих скриптам.
Режим AI-исследователя, напротив, ориентирован не на анализ единичного диалога, а на работу с выборкой, которую пользователь формирует под конкретную задачу. В фильтрах такой выборки могут использоваться все доступные ресурсы системы: поиск по лексическим словарям, количественные и временные параметры, данные ML-моделей, а также результаты AI-сканера. В ответ AI-исследователь формирует обобщенные выводы и выявляет инсайты, которые неочевидны при традиционном аналитическом подходе. Отсутствие жестких ограничений по формату промптов позволяет пользователю варьировать уровень детализации, настраивать степень объективности и предиктивности ответов AI-модуля, подстраивая его под собственные гипотезы.
На этом уровне функциональности система фактически переходит в режим предиктивной аналитики: модель на основе выборки диалогов способна прогнозировать динамику ключевых показателей, включая уровень удовлетворенности клиентов и среднюю длительность обслуживания.
Отдельным приоритетом стала защита приватных данных. Для этих целей мы разработали деперсонализатор чувствительной информации — гибко настраиваемый инструмент, который шифрует все задаваемые пользователем данные. Такой подход критически важен при использовании внешних больших языковых моделей, включая YandexGPT, GigaChat и другие.

Как далеко продвинулись системы речевой аналитики на базе генеративных нейросетей в задаче распознавания эмоций собеседников?
Дискуссия о корректных методах определения эмоций ведется уже много лет. До появления LLM я исходила из того, что наилучшие результаты, особенно в голосовом канале, дает классический лексический подход. Он по-прежнему остается сильным инструментом, ведь позволяет с высокой точностью фиксировать клиентский негатив и выявлять конфликтогенные формулировки в речи операторов.
Появление же больших языковых моделей заметно расширило наши возможности. Для наглядности приведу конкретный пример. Недавно мы использовали LLM для анализа эмоциональной окраски «боевых» диалогов одного из заказчиков и обнаружили характерную особенность: модель тоньше улавливает контекст и за счет этого точнее оценивает наличие либо отсутствие негатива. Так, фраза «система будет на это ругаться» при лексическом поиске была классифицирована как негативная, тогда как LLM не отнесла ее к негативу — и это оказалось верным. В рассматриваемых случаях клиент не выражал раздражения, а лишь уточнял, как корректно работать с системой, чтобы его запрос гарантированно был обработан.
Помогают ли сегодня системы речевой аналитики с LLM прогнозировать поведение клиента на основе его диалогов?
Наш агент-исследователь уже сейчас решает эту задачу: по выборке диалогов модель формирует инсайты и выделяет устойчивые паттерны, на основании которых можно предположить дальнейшие шаги клиента. Следующий этап эволюции подобных решений — расширение горизонта анализа за счет подключения внешних источников данных, таких как WFM- и CRM-системы. Когда генеративная нейросеть начнет учитывать не только текстовые расшифровки разговоров, но еще операционные и клиентские данные из этих систем, точность прогнозов клиентского пути заметно возрастет.
Какие сценарии применения речевой аналитики сегодня приоритетны для финансового сектора?
Банковская отрасль делает ставку на речевую аналитику нового поколения. В фокусе — выявление драйверов повторных обращений и формирование бесшовного клиентского опыта, при котором запрос закрывается уже при первом контакте. Мы видим устойчивый спрос на AI-решения, способные анализировать полную историю взаимодействия клиента с банком. Такие системы помогают точно определить, что становится триггером повторных звонков по одним и тем же вопросам, автоматически находить скрытые проблемы и новые, стихийно возникающие тематики, которые не отслеживаются стандартными классификаторами. Еще один важный запрос — полноценный охват всей обратной связи: когда массив жалоб последовательно преобразуется в конкретный план по снижению рисков и повышению качества сервиса.
Могли бы вы привести примеры эффектов от внедрения систем речевой аналитики с ИИ в банках?
По итогам реализованных проектов мы видим, что уже в первые месяцы после запуска решения показатели удовлетворенности клиентов качеством сервиса (CSA, NPS и другие метрики) в среднем растут на 10-15%. Как в пилотных, так и в полноценных внедрениях фиксируется прирост конверсии порядка 22%. Применение LLM при анализе клиентских диалогов позволяет снизить операционные затраты как минимум на 19%.
Одновременно с тем сокращаются сроки обработки обращений и время, необходимое для выявления причин повторных контактов. Отдельные замеры демонстрируют, что цикл поиска инсайтов уменьшается с 5-14 дней при классическом аналитическом подходе до трех дней, а в отдельных кейсах — до нескольких часов.
Какие методики вы используете, чтобы оценить результативность таких систем?
Мы придерживаемся максимально прикладного подхода, который дает банку возможность оперировать конкретными цифрами. На старте проекта совместно с заказчиком формируются целевые KPI и целевые значения: это может быть рост доли обращений, закрытых при первом контакте, улучшение CSAT, сокращение длительности диалогов или выявление причин их избыточной продолжительности. Эти параметры фиксируются до внедрения модуля речевой аналитики с ИИ. После запуска системы наши аналитики-эксперты готовят пакет рекомендаций — от дообучения операторов и корректировки скриптов до изменения алгоритмов обслуживания. Когда банк внедряет эти изменения в процессы, проводится повторный замер KPI. Разница между показателями «до» и «после» и является измеримым эффектом от внедрения.
Второй используемый нами подход — A/B-тестирование. В этом случае рекомендации сначала масштабируются не на весь контакт-центр, а на пилотный отдел. Далее заказчик сравнивает динамику показателей пилотной группы с группой B, продолжившей работу по прежней модели, и по разнице в результатах оценивает вклад системы.
В каком направлении, на ваш взгляд, будут развиваться системы речевой аналитики с ИИ и решения BSS этого класса?
Ключевой вектор развития — интеллектуальные агенты-исследователи на основе больших языковых моделей. Такие агенты смогут в автоматическом режиме находить закономерности в больших массивах диалогов, проверять гипотезы, формировать отчеты по результатам проверки для заинтересованных стейкхолдеров, предлагать варианты управленческих решений и набор бизнес-метрик для расчета экономического эффекта. В этой логике речевая аналитика фактически превращается в полнофункционального AI-помощника по управлению клиентским опытом и прогнозированию поведения клиентов.
Со своей стороны мы развиваем модульную AI-платформу и совместно с заказчиками, готовыми к пилотным проектам и экспериментам, прорабатываем и тестируем новые корпоративные сценарии, ориентированные на проверку конкретных гипотез. Мы уже получили содержательную обратную связь от клиентов, которые опробовали наши AI-инструменты, и в целом она подтверждает наше видение дальнейшего развития. Поэтому мы продолжим движение в этом направлении, опираясь на запросы пользователей, и будем последовательно развивать решение, которое сочетает в себе функциональную глубину, дружелюбный интерфейс и удобство повседневной работы.