Как AI понимает ваше намерение — Intent-Aware Context Assembly
Для кого: инженеры лаборатории, начальники отделов. Что узнаете: как AI «понимает», что вы хотите, и почему теперь он отвечает точнее за миллисекунды.
Зачем это нужно?
Раньше AI получал только ваш текст и общие правила лаборатории. Это было всё равно что давать инженеру задачу одной фразой без чертежей и ГОСТов.
Теперь — AI распознаёт ваше намерение ещё до начала работы и сам подбирает нужные данные: ГОСТы, методики, образцы, заказы.
Как это работает (для занятого инженера)
Вы пишете: «рассчитай прочность куба B25 ультразвуком»
│
▼
┌──────────────────────────┐
│ 1. Я понял ваше намерение │ (мгновенно — 0 ms)
│ 🧮 Расчёт прочности │
└──────────┬───────────────┘
│
▼
┌──────────────────────────┐
│ 2. Подбираю контекст: │ (~200 ms)
│ 📜 ГОСТ 22690-2015 │
│ ⚙️ Методика «УЗК» │
│ 🧱 Ваш куб B25-001 │
└──────────┬───────────────┘
│
▼
┌──────────────────────────┐
│ 3. Запускаю расчёт │ ← как обычно
└──────────────────────────┘
14 типов намерений (что я понимаю)
🧮 Расчёты
- calc-strength — расчёт прочности (УЗК, кубы, отскок, отрыв)
- calc-frost — расчёт морозостойкости
- calc-statistics — статистика партии (ГОСТ 18105)
📋 Создание
- create-order — создать новый заказ
- register-sample — принять/создать образец
- plan-test — запланировать испытание
- plan-drying — запустить сушильный цикл
🔍 Поиск
- search-norm — что говорит ГОСТ
- find-protocol — найти/сравнить протоколы
- ask-status — узнать статус заказа
⚙️ Управление
- fix-ncr — зарегистрировать несоответствие
- edit-protocol — править существующий протокол
- schedule-engineer — назначить инженера/выезд
Как я распознаю намерение
| Способ | Скорость | Точность | Стоимость |
|---|---|---|---|
| Regex (мгновенно) | 0 ms | 80% | 0₽ |
| Cheap LLM (Haiku) — если regex неуверен | 150-300 ms | 95% | ~0.07₽ за классификацию |
| Кеш (на 5 минут) | 0 ms | как было | 0₽ |
На 1000 запросов в день: ~70₽. По сравнению с ~$1 = 90₽ если бы я использовал большую модель — экономия ×30.
Транспарент-карточка «Я понял...»
После того как вы напишете сообщение и нажмёте Enter, наверху появится карточка:
┌────────────────────────────────────────────────────────┐
│ ✨ Я понял: 🧮 Расчёт прочности — куб B25 УЗК │
│ Уверенность: высокая (95%) · мгновенно │
│ │
│ ⚠️ Для точного ответа я хотел бы узнать: │
│ • По какому ГОСТу? (10180 / 22690 / 17624) │
│ • Образцы / результаты измерений? │
│ │
│ [+ Найти ГОСТ] [+ Прикрепить заказ] │
│ │
│ [✓ Продолжить] [Поправить ▾] │
└────────────────────────────────────────────────────────┘
Что можно сделать:
- ✓ Продолжить — AI уже понял правильно, работаем
- + Найти ГОСТ — AI сам найдёт нужный ГОСТ и прикрепит как контекст
- Поправить ▾ — выпадающий список с альтернативными вариантами намерения
- × Закрыть — пропустить карточку, отправить как есть
Папки как контекст (большая фича!)
Раньше можно было прикрепить только отдельные файлы через @. Теперь — целую папку.
Сценарий 1: Папка с 5 документами по заказу
Вы: @[Папка] СтройГарант — Заказ ORD-2026-001
└─ договор.pdf
└─ заявка.docx
└─ чертёж.dwg
└─ протокол приёмки.pdf
└─ фото-объекта.jpg
AI: «Понял — папка из 5 документов. Беру в контекст AI-summary каждого.»
→ AI видит полные краткие описания всех 5 файлов сразу.
Сценарий 2: Папка с 50+ документами
Вы: @[Папка] Архив 2025 — все проекты
└─ 50+ файлов
AI: «Папка большая — построил для неё краткое описание (Haiku ~1 параграф).
Когда надо найти что-то конкретное — спросите, я ищу через RAG только в этой папке.»
→ AI видит сводное описание + индекс файлов, а полные тексты ищет по запросу.
Лимиты:
- ≤ 10 файлов → все aiSummary в промпт сразу (стратегия
inline-summaries) - > 10 файлов → folder-level summary + индекс (стратегия
index-only) - > 50 файлов → только индекс (без AI-summary)
- Кеш папки: 1 час (Redis) — повторные запросы мгновенно
Как улучшилась RAG (поиск по тексту ГОСТов и файлов)
| Раньше | Теперь |
|---|---|
| Топ-20 чанков из RAG | Тот же топ-20, но: |
| ❌ Дубликаты (один и тот же текст в разных ГОСТах) | ✅ Дедуп по контенту (Jaccard ≥ 0.85) |
| ❌ Все 10 чанков из одного ГОСТа | ✅ Лимит 5 на источник — разнообразие |
| ❌ Сортировка только по similarity | ✅ Intent rerank: для расчётов прочности поднимаются чанки с формулами |
| ❌ Embeddings без кеша | ✅ Один и тот же запрос — embedding из L1+L2 кеша (~99% попаданий) |
Пример intent rerank
Вы спрашиваете: «рассчитай прочность по ГОСТ 22690»
RAG найдёт 10 чанков. Раньше топ был — общие положения раздела 4.
Теперь — чанки с формулами (R = F/S, упоминания «МПа», «коэффициент») идут наверх.
Вы получите ответ с формулой в первой реплике AI, а не «давайте уточним...».
Что AI теперь видит ВСЕГДА (если приложено)
| Поле | Куда попадает | Раньше |
|---|---|---|
| Файлы из чата (📎) | В Preempt блок message_attachments | ❌ Терялись в pipeline |
| Коммерческие условия (минималки, скидки, выезды) | В блок tenant_context | ❌ Деструктурировался, но не использовался |
| Папки (📁 как контекст) | В блок folder_context со smart-summarize | ❌ Не было типа folder |
| Намерение пользователя | В блок intent_context | ❌ Только regex, без cheap-LLM fallback |
FAQ
Q: AI стал отвечать дольше? A: Нет. Regex срабатывает мгновенно (0 ms). Cheap LLM включается только когда regex не уверен (~30% случаев) и добавляет 150-300ms. Это меньше чем время первой буквы ответа основной модели.
Q: Что значит «я понял с уверенностью 95%»? A: AI ОЧЕНЬ уверен в намерении. Если 50-80% — стоит проверить транспарент-карточку. Если ниже 50% — лучше поправить через [Поправить ▾].
Q: Можно отключить транспарент-карточки?
A: Если карточка появляется без needsClarification, она автоматически свернётся.
Полное отключение — в настройках профиля (TODO).
Q: Что если у меня нет интернета и Haiku недоступен? A: Система работает только на regex. Точность падает до ~80%, но всё работает.
Q: Папку с 200 файлами можно прикрепить?
A: Можно, но AI обработает только первые 200 (safety limit). Для больших папок
используйте drilldown в @ поиске и выберите конкретные файлы.
Шпаргалка для инженера
@<имя файла или ГОСТа> — точечный контекст
@[Папка] <название> — вся папка как контекст (smart-summarize)
Сообщение → ✨ карточка «Я понял: ...»
├─ Уверенность high → автопродолжение
├─ Уверенность medium → проверьте топик
└─ needsClarification → AI попросит уточнить ИЛИ найдёт сам
[+ Найти ГОСТ] — AI сам подберёт подходящий норматив
[+ Прикрепить заказ] — открыть @-палитру с фильтром «Заказы»
[Поправить ▾] — список альтернативных намерений
By Alex Pashkin — CTO LABGO.AI