Услуга

RAG-система: AI на базе ваших документов

RAG (Retrieval-Augmented Generation) — индекс по вашим документам, по которому LLM формирует ответы только из найденного контекста. В отличие от «обучения модели на ваших данных», RAG не требует переобучения, обновляется в реальном времени, и каждый ответ можно сослать на конкретный документ. Подходит для внутренних баз знаний, юр.документов, тех.поддержки, обучения сотрудников.

Цена:от 199 000 ₽
Срок:3–5 недель

Сценарии применения

Что мы реально внедряем под этой услугой — и какие задачи закрываем.

1

Внутренняя база знаний для сотрудников

Регламенты, инструкции, корпоративные политики, протоколы. Сотрудник пишет в чат — получает ответ с ссылкой на источник. Сокращает нагрузку на HR/IT.

2

Юридический и нормативный поиск

Договоры, законы, отраслевые регламенты, ГОСТы. AI находит нужный пункт, объясняет противоречия, формирует выписки. Идеально для compliance-команд.

3

Поддержка клиентов на базе документации

Бот отвечает на вопросы по продукту/услуге, опираясь на актуальную документацию. Не выдумывает фичи, всегда даёт точную ссылку на раздел.

4

Аналитика и поиск по протоколам

Совещания, отчёты, протоколы. AI находит решения по теме, восстанавливает контекст обсуждения, даёт сводки за период.

Стек

  • GPT-4o / Claude Sonnet (генерация)
  • OpenAI text-embedding-3-large / multilingual-e5
  • pgvector / Qdrant / Weaviate
  • Hybrid search (BM25 + dense)
  • Re-ranker (Cohere/local cross-encoder)
  • LangChain / LlamaIndex / custom pipeline

Интеграции

  • Confluence, Notion, Google Drive
  • SharePoint, OneDrive
  • 1С: Документооборот
  • PDF, DOCX, XLSX, HTML, Markdown
  • S3 / MinIO / любое объектное хранилище

Готовые модули по теме

Если задача типовая — у нас есть продукт, который можно подключить за 1–2 недели.

Кейсы по теме

Реальные внедрения с метриками и описанием решения.

Частые вопросы

Самые частые вопросы об этой услуге. Не нашли ответ — спросите при бесплатном аудите.

Fine-tuning «вшивает» данные в веса модели — это дорого, не масштабируется на десятки тысяч документов и не позволяет обновлять знания на лету. RAG хранит данные отдельно в векторной БД и подсовывает релевантный контекст в момент запроса. Обновление — мгновенное, дешевле в эксплуатации, можно разграничивать доступ по пользователю.

Системный промпт жёстко требует «отвечай только из контекста», каждый ответ подкрепляется цитатами и ссылками на документы. Если ответа в базе нет — бот честно говорит «не знаю» и предлагает эскалацию. На проде ставим evals и периодический A/B-аудит качества.

Да. На уровне индекса каждому документу присваиваем теги/ACL. При запросе пользователь видит только свои документы — например, юр.отдел не видит финансовые регламенты, и наоборот. Поддерживаем интеграцию с AD/LDAP/SSO.

Архитектура нормально работает на 10–500 тыс. документов. Дальше нужны шардирование и иерархический поиск — это тоже делаем. Один из наших проектов — RAG на 1.2 млн страниц нормативки.

Похожая задача в вашем бизнесе?

30 минут с архитектором. Расскажем, как решали похожие задачи, и дадим оценку срока и бюджета.