Кейс: ОТП Банк
Как AI-подход к анализу звонков и чатов в контакт-центре и Collection дал возможность лучше понимать клиентов

Клиент

ОТП Банк — универсальный российский банк, основан в 1994 году, входит в международную финансовую Группу ОТП (OTP Group), которая является одним из лидеров рынка финансовых услуг Центральной и Восточной Европы.

Задачи на старте

До внедрения речевой аналитики Naumen Conversation Intelligence банк сталкивался сразу с несколькими сложностями. Ручной контроль качества в контакт-центре и Collection не позволял объективно и быстро анализировать весь объем коммуникаций. Было важно перейти к оценке звонков и чатов, повысить качество сервиса, сократить время обработки обращений и снизить нагрузку на сотрудников. Помимо этого стояли задачи по росту продаж, повышению эффективности удержания клиентов в период охлаждения, более точному начислению сорри-бонусов, снижению регуляторных рисков и повышению качества работы с клиентами. Для решения этих задач требовалось не только автоматизировать контроль качества, но также выявить инсайты для поиска и работы с точками роста.

Что делали и какие инструменты использовали?

На платформе речевой аналитики от Naumen выстроена двухуровневая система анализа диалогов: на базе классических ML-моделей и больших языковых моделей — LLM. ML отвечает за массовые задачи: классификацию тематик, базовый контроль алгоритмов, автоматическую оценку всех звонков и чатов. LLM-модель подключается там, где требуется глубокое понимание контекста, эмоций клиента и специфики переговоров. Такой гибридный подход позволяет банку не только повысить качество сервиса и лучше понимать клиентов, но и получить измеримый экономический эффект.

Задачи и результаты в контакт-центре

Контакт-центр перешел к автоматической оценке звонков и чатов, что позволило объективно анализировать коммуникации, быстрее выявлять отклонения, тиражировать лучшие практики и получить измеримый бизнес-эффект.

#1

Сохранение продаж в период охлаждения
После оформления кредита у клиента есть 48 часов, чтобы принять финальное решение. Для удержания клиентов в этот период банк сначала с помощью базовой ML-аналитики запустил контроль соблюдения специальных алгоритмов работы. Затем подключили LLM, чтобы точнее определять тематику отказа, понимать причины несрабатывания офферов и давать рекомендации сотрудникам. В результате точность определения темы отказа выросла, а эффективность удержания клиентов увеличилась на 30%.

#2

Эффективное управление начислением сорри-бонусов сотрудниками
Начисление сорри-бонусов — это инструмент, который позволяет сотрудникам компенсировать негативный клиентский опыт непосредственно во время общения. На старте часть сорри-бонусов начислялась некорректно. После внедрения LLM банк смог учитывать не только формальные основания для компенсации, но и эмоциональный фон коммуникации, а также быстрее выявлять проблемные продукты и процессы. Двойной контроль повысил точность начислений с 85% до 97%.

#3

Контроль за соблюдением алгоритмов по работе с регуляторными рисками
Банк автоматизировал выявление кейсов, которые должны эскалироваться на вторую линию, но иногда из-за неполной информации от клиента или человеческого фактора они оставались на первой линии. Ежечасный контроль обращений помогает подсвечивать случаи, где проблема клиента не была решена или перевод на вторую линию не состоялся. Эксперты оперативно подключаются к таким кейсам, что в итоге на 25% снизило общий объем жалоб в ЦБ.

#4

Использование LLM для роста продаж на исходящем обзвоне
Банк проанализировал тысячи отказов, классифицировал возражения клиентов и выявил, где именно не работают стандартные скрипты. Это позволило точечно усилить обучение операторов и улучшить отработку возражений. В результате был отмечен дополнительный прирост конверсии по кредиту наличными и кредитным картам. Общий рост конверсии в продажи составил 3,3 п.п.

#5

LLM для улучшения ответа клиенту в чате
Еще один заметный эффект дало применение LLM в чатах. Модель помогает сотрудникам улучшать ответы клиентам: исправляет орфографию и пунктуацию, адаптирует формулировки под Tone of Voice банка, выстраивает логичную структуру ответа. Это напрямую влияет на качество клиентского опыта — рост CSI составил 0,3 балла.

#6

LLM-саммаризация диалога в чате
Банк внедрил LLM-саммаризацию диалогов: сотруднику больше не нужно вручную просматривать длинную историю переписки, чтобы понять контекст — он сразу видит суть текущего диалога, что сократило среднее время обработки обращения в чате.

Задачи и результаты в Collection

Сильный эффект речевая аналитика показала и в Collection, что нашло отражение в повышении уровня удовлетворенности клиентов (CSI). Банк измеряет CSI после каждой консультации — в голосе, чате и на роботе без искусственных выборок.

#1

Использование LLM-анализа для сложного диалога
После внедрения речевой аналитики банк стал анализировать 100% коммуникаций в Collection. ML-модели обеспечили корректность оценки более 99% для 7 из 8 критериев качества, однако один из самых важных критериев — мотивация клиента к погашению задолженности — оставался слишком сложным для ML. Команда перевела этот критерий на LLM: описала в промпте все условия, связанные с разными сценариями ответа клиента, и добилась высокой точности. Это дало прямой операционный эффект: число выполненных обещаний оплаты выросло на 5,5%.

#2

Определение тематик входящих звонков и чатов с помощью ML
Тематизация входящих обращений позволила быстро понимать причины скачков нагрузки и увидеть, что более трети простых тематик можно передать голосовому роботу. Среди ключевых тем входящих звонков — вопросы по просроченной задолженности, поступление платежа, перезвон после пропущенного звонка, досрочное погашение, реквизиты и способы оплаты. Речевая аналитика стала не только инструментом контроля качества, но и инструментом для более точного управления трафиком обращений.

#3

Сокращение времени на анализ диалога экспертом
Благодаря саммаризации длительного диалога оператор может быстро ознакомиться с его сутью без необходимости прослушивать разговор полностью. Cреднее время анализа одного диалога экспертом уменьшилось в 20 раз — с 7 минут до 20 секунд.

Планы по развитию решения

Основной вектор развития — дальнейший рост эффективности процессов, расширение числа сценариев с использованием LLM и поиск новых точек для автоматизации и улучшения клиентского опыта. Следующий этап развития в банке связан не с полным замещением ML, а с более точным разделением задач между технологиями. Простые, массовые сценарии планируется и дальше отдавать ML-моделям, поскольку их потенциал для таких задач уже хорошо раскрыт. LLM банк рассматривает как основной инструмент для сложных кейсов, где важны контекст, логика разговора, нюансы формулировок и выявление инсайтов.

В начало

Кейс: как КЦ ДОМ.РФ оптимизировал CJM и повысил качество сервиса с помощью речевой аналитики

Рассказываем о кейсе, где все начиналось со стандартной задачи по автоматизации контроля качества, а развилось в комплексный проект по изучению и улучшению CJM и клиентского опыта

Читать

Обсудите с нами ваши задачи

Хотите узнать, какую пользу платформа Naumen Conversation Intelligence может принести вашей компании?

Оставьте заявку, и наши специалисты помогут разобраться.

Стоимость использования продукта рассчитывается индивидуально