LABGO.AI
Все руководства
Руководства/chat-context

Как AI понимает ваше намерение — Intent-Aware Context Assembly

Для кого: инженеры лаборатории, начальники отделов. Что узнаете: как AI «понимает», что вы хотите, и почему теперь он отвечает точнее за миллисекунды.


Зачем это нужно?

Раньше AI получал только ваш текст и общие правила лаборатории. Это было всё равно что давать инженеру задачу одной фразой без чертежей и ГОСТов.

Теперь — AI распознаёт ваше намерение ещё до начала работы и сам подбирает нужные данные: ГОСТы, методики, образцы, заказы.


Как это работает (для занятого инженера)

Вы пишете: «рассчитай прочность куба B25 ультразвуком»
                            │
                            ▼
                ┌──────────────────────────┐
                │ 1. Я понял ваше намерение │  (мгновенно — 0 ms)
                │   🧮 Расчёт прочности    │
                └──────────┬───────────────┘
                           │
                           ▼
                ┌──────────────────────────┐
                │ 2. Подбираю контекст:    │  (~200 ms)
                │   📜 ГОСТ 22690-2015     │
                │   ⚙️  Методика «УЗК»     │
                │   🧱 Ваш куб B25-001     │
                └──────────┬───────────────┘
                           │
                           ▼
                ┌──────────────────────────┐
                │ 3. Запускаю расчёт       │  ← как обычно
                └──────────────────────────┘

14 типов намерений (что я понимаю)

🧮 Расчёты

  • calc-strength — расчёт прочности (УЗК, кубы, отскок, отрыв)
  • calc-frost — расчёт морозостойкости
  • calc-statistics — статистика партии (ГОСТ 18105)

📋 Создание

  • create-order — создать новый заказ
  • register-sample — принять/создать образец
  • plan-test — запланировать испытание
  • plan-drying — запустить сушильный цикл

🔍 Поиск

  • search-norm — что говорит ГОСТ
  • find-protocol — найти/сравнить протоколы
  • ask-status — узнать статус заказа

⚙️ Управление

  • fix-ncr — зарегистрировать несоответствие
  • edit-protocol — править существующий протокол
  • schedule-engineer — назначить инженера/выезд

Как я распознаю намерение

СпособСкоростьТочностьСтоимость
Regex (мгновенно)0 ms80%0₽
Cheap LLM (Haiku) — если regex неуверен150-300 ms95%~0.07₽ за классификацию
Кеш (на 5 минут)0 msкак было0₽

На 1000 запросов в день: ~70₽. По сравнению с ~$1 = 90₽ если бы я использовал большую модель — экономия ×30.


Транспарент-карточка «Я понял...»

После того как вы напишете сообщение и нажмёте Enter, наверху появится карточка:

┌────────────────────────────────────────────────────────┐
│ ✨ Я понял: 🧮 Расчёт прочности — куб B25 УЗК          │
│    Уверенность: высокая (95%) · мгновенно             │
│                                                        │
│ ⚠️ Для точного ответа я хотел бы узнать:              │
│   • По какому ГОСТу? (10180 / 22690 / 17624)         │
│   • Образцы / результаты измерений?                   │
│                                                        │
│  [+ Найти ГОСТ]  [+ Прикрепить заказ]                │
│                                                        │
│  [✓ Продолжить]  [Поправить ▾]                       │
└────────────────────────────────────────────────────────┘

Что можно сделать:

  • ✓ Продолжить — AI уже понял правильно, работаем
  • + Найти ГОСТ — AI сам найдёт нужный ГОСТ и прикрепит как контекст
  • Поправить ▾ — выпадающий список с альтернативными вариантами намерения
  • × Закрыть — пропустить карточку, отправить как есть

Папки как контекст (большая фича!)

Раньше можно было прикрепить только отдельные файлы через @. Теперь — целую папку.

Сценарий 1: Папка с 5 документами по заказу

Вы: @[Папка] СтройГарант — Заказ ORD-2026-001
       └─ договор.pdf
       └─ заявка.docx
       └─ чертёж.dwg
       └─ протокол приёмки.pdf
       └─ фото-объекта.jpg

AI: «Понял — папка из 5 документов. Беру в контекст AI-summary каждого.»

→ AI видит полные краткие описания всех 5 файлов сразу.

Сценарий 2: Папка с 50+ документами

Вы: @[Папка] Архив 2025 — все проекты
       └─ 50+ файлов

AI: «Папка большая — построил для неё краткое описание (Haiku ~1 параграф).
     Когда надо найти что-то конкретное — спросите, я ищу через RAG только в этой папке.»

→ AI видит сводное описание + индекс файлов, а полные тексты ищет по запросу.

Лимиты:

  • ≤ 10 файлов → все aiSummary в промпт сразу (стратегия inline-summaries)
  • > 10 файлов → folder-level summary + индекс (стратегия index-only)
  • > 50 файлов → только индекс (без AI-summary)
  • Кеш папки: 1 час (Redis) — повторные запросы мгновенно

Как улучшилась RAG (поиск по тексту ГОСТов и файлов)

РаньшеТеперь
Топ-20 чанков из RAGТот же топ-20, но:
❌ Дубликаты (один и тот же текст в разных ГОСТах)✅ Дедуп по контенту (Jaccard ≥ 0.85)
❌ Все 10 чанков из одного ГОСТа✅ Лимит 5 на источник — разнообразие
❌ Сортировка только по similarity✅ Intent rerank: для расчётов прочности поднимаются чанки с формулами
❌ Embeddings без кеша✅ Один и тот же запрос — embedding из L1+L2 кеша (~99% попаданий)

Пример intent rerank

Вы спрашиваете: «рассчитай прочность по ГОСТ 22690»

RAG найдёт 10 чанков. Раньше топ был — общие положения раздела 4. Теперь — чанки с формулами (R = F/S, упоминания «МПа», «коэффициент») идут наверх. Вы получите ответ с формулой в первой реплике AI, а не «давайте уточним...».


Что AI теперь видит ВСЕГДА (если приложено)

ПолеКуда попадаетРаньше
Файлы из чата (📎)В Preempt блок message_attachments❌ Терялись в pipeline
Коммерческие условия (минималки, скидки, выезды)В блок tenant_context❌ Деструктурировался, но не использовался
Папки (📁 как контекст)В блок folder_context со smart-summarize❌ Не было типа folder
Намерение пользователяВ блок intent_context❌ Только regex, без cheap-LLM fallback

FAQ

Q: AI стал отвечать дольше? A: Нет. Regex срабатывает мгновенно (0 ms). Cheap LLM включается только когда regex не уверен (~30% случаев) и добавляет 150-300ms. Это меньше чем время первой буквы ответа основной модели.

Q: Что значит «я понял с уверенностью 95%»? A: AI ОЧЕНЬ уверен в намерении. Если 50-80% — стоит проверить транспарент-карточку. Если ниже 50% — лучше поправить через [Поправить ▾].

Q: Можно отключить транспарент-карточки? A: Если карточка появляется без needsClarification, она автоматически свернётся. Полное отключение — в настройках профиля (TODO).

Q: Что если у меня нет интернета и Haiku недоступен? A: Система работает только на regex. Точность падает до ~80%, но всё работает.

Q: Папку с 200 файлами можно прикрепить? A: Можно, но AI обработает только первые 200 (safety limit). Для больших папок используйте drilldown в @ поиске и выберите конкретные файлы.


Шпаргалка для инженера

@<имя файла или ГОСТа>   — точечный контекст
@[Папка] <название>     — вся папка как контекст (smart-summarize)

Сообщение → ✨ карточка «Я понял: ...»
                ├─ Уверенность high → автопродолжение
                ├─ Уверенность medium → проверьте топик
                └─ needsClarification → AI попросит уточнить ИЛИ найдёт сам

[+ Найти ГОСТ]   — AI сам подберёт подходящий норматив
[+ Прикрепить заказ] — открыть @-палитру с фильтром «Заказы»
[Поправить ▾]    — список альтернативных намерений

By Alex Pashkin — CTO LABGO.AI