Все записи

ИИ-помощник для анализа требований

В работе техпресейла значительная часть времени уходит на анализ требований клиентов — они часто приходят в виде больших опросников, которые нужно внимательно разобрать и прокомментировать.

Когда таких документов много и нужна оперативность, ручная обработка начинает замедлять работу команды. С этим регулярно сталкивалась команда техпресейла Naumen. Поэтому Настя и Даша, системные аналитики команды, решили попробовать автоматизировать часть процесса и внедрили ИИ-помощника для анализа требований.

В статье рассказываем, как они собирали данные, какие подходы пробовали и как в итоге пришли к решению на базе RAG.


Чем занимается техпресейл

Мы подключаемся к работе тогда, когда клиент уже заинтересовался продуктом, но ему нужна более глубокая техническая консультация.

Техпресейл — это мост между продуктом и продажей. Мы проводим технические демонстрации, обсуждаем требования клиента и помогаем понять, подходит ли продукт под его задачи.

Чаще всего работа техпресейла с клиентом начинается с опросника — Excel-документа с требованиями.

Настя12.jpg


Почему Excel-файл оказался неудобным для анализа требований

Типичный опросник — это таблица с тремя колонками:

  • требование клиента
  • какой продукт соответствует
  • комментарии
Иногда требований десятки или сотни — нужно внимательно прочитать, найти контекст в прошлых кейсах, вручную проверить формулировки и ссылки на источники. Даже опытный специалист тратит на такой документ около часа. Если требования сформулированы сложнее — еще больше.
Когда таких задач много и у них срочные дедлайны, возрастает нагрузка на команду и появляются риски задержек. Поэтому мы решили автоматизировать процесс.

Настя12.jpg

С чего мы начали автоматизацию

Сначала нужно было собрать данные. Все старые опросники лежали у разных участников команды и были оформлены по‑разному.

Поэтому первым шагом мы:

  1. Собрали все опросники за год в единый массив.
  2. Привели их к единому формату.
  3. Классифицировали требования.
  4. Проверили и почистили данные от дублей и неточностей.

В итоге получился датасет примерно из 2 000 требований, который стал основой нашей базы для тестирования ИИ-помощника.

Настя12.jpg


Почему классические модели не сработали

Первой идеей было использовать классические методы анализа текста. Мы пробовали TF-IDF, Bag-of-Words и стандартные модели классификации.

Но столкнулись с двумя проблемами:

  • низкое качество классификации
  • дисбаланс данных
Большинство требований продукт действительно покрывал, поэтому модель быстро «научилась» отвечать одинаково. Стало понятно, что нужен другой подход.

Настя12.jpg

Как мы пришли к RAG-подходу

Мы перешли к векторному поиску и трансформерам. Идея была в том, чтобы по новому требованию находить в базе знаний похожие требования и использовать их как контекст.

Получился умный поиск по нашим прошлым ответам. Но этого все равно было недостаточно: нужно было не только находить похожие требования, но и генерировать комментарий.
Так мы пришли к подходу RAG (Retrieval-Augmented Generation) — LLM сначала находит факты в базе знаний, а уже потом формирует ответ.

Даша12.jpg

Как работает наш ассистент

Сервис работает в Telegram-боте и поддерживает два сценария.

Вопрос в чате — пользователь задает вопрос, бот ищет информацию в базе знаний и формирует ответ.

Загрузка Excel-файла — пользователь загружает файл с требованиями, после чего сервис проходит по каждой строке и автоматически заполняет:
  • соответствие (да / нет / не знаю) 
  • комментарий с объяснением соответствия
В итоге пользователь получает уже заполненный Excel-файл и может сразу перейти к проверке результатов, не тратя время на ручную обработку каждой строки.

Даша12.jpg

Из чего состоит база знаний

Мы используем два источника:
  • документацию по продуктам Naumen 
  • структурированные опросники из прошлых проектов
Документы разбиваются на небольшие смысловые фрагменты, для каждого фрагмента вычисляются эмбеддинги, после чего они сохраняются в векторной базе. Когда приходит новый запрос, система находит самые релевантные фрагменты и использует их как контекст для ответа.

Какие есть ограничения у ассистента

ИИ-ассистент помогает быстрее разбирать требования, но полностью заменить аналитика он пока не может.
Например, иногда клиенты присылают требования, которых еще нет в базе знаний. В таких случаях бот отвечает «не знаю», и требование разбирает специалист.

Даша12.jpg

Также иногда встречается типичная проблема LLM — галлюцинации. Поэтому финальную проверку ответа все равно делает системный аналитик.

Что это дало команде

В результате мы получили инструмент, который:
  • помогает быстрее обрабатывать требования
  • уменьшает объем ручной работы
  • дает доступ к базе знаний 24/7
  • может масштабироваться на другие команды

Похожие новости

Как перестать тратить полдня на один вопрос в чате

Рабочий вопрос, который в офисе решается за пять минут, в онлайне иногда превращается в переписку на полдня: написал в чат → подождал → уточнил → снова подождал. 

Мы обсудили эту тему с Димой — бизнес-аналитиком команды внедрения. В его работе коммуникации занимают значительную часть дня: с клиентами, разработчиками и внутри команды. 

Дима рассказал, какие ошибки чаще всего тормозят рабочие чаты и какие простые правила помогают экономить время всей команде. В статье — его подход к управлению онлайн-коммуникациями.

Как видеть будущее и превращать его в продукты и стратегии

Рынок цифровых продуктов меняется быстро, а требования к продуктовым командам постоянно растут. Чтобы принимать стратегические решения, важно понимать, какие изменения происходят на рынке и какие тренды будут определять его развитие.

Ксюша, руководитель продукта Project Ruler, рассказала о практическом подходе к трендвотчингу: где искать ранние сигналы, как отличать краткосрочные всплески интереса от устойчивых тенденций и какие изменения уже заметны на рынке систем управления проектами.

Все новости