ИИБизнес

ИИ без “проверки реальностью” будет уверенно ошибаться. Что нейронаука подсказывает нам про безопасных агентов для бизнеса

Андрей Мелков
2

Мы почему-то называем ошибки ИИ “галлюцинациями”, будто это магия.
А по факту это инженерная проблема: система делает предсказание, но не умеет свериться с реальностью.

Коротко о чем в статье (если читать лень)

  1. Длинный контекст не спасает, потому что плоский буфер ломается (“lost in the middle”)
  2. RAG “только для чтения” — слабое место, потому что он тащит похожее, но может увести в сторону, и всё равно есть конфабуляции
  3. Нужна память, которая пишет: эпизоды, отбор, журнал, и офлайн “сон” для улучшения.
  4. Контроль не равен генерации текста: модель мира отдельно, действия отдельно, проверка отдельно.
  5. “Галлюцинации” — это отсутствие проверки реальностью. Лечится контурами контроля, инвариантами и фактом.

Мы почему-то называем ошибки ИИ “галлюцинациями”, будто это магия.
А по факту это инженерная проблема: система делает предсказание, но не умеет свериться с реальностью.

Я наткнулся на свежую научную работу (декабрь 2025), где авторы очень спокойно и по делу объясняют: нынешние большие модели (включая языковые) достигли мощных результатов за счёт простого обучения “предсказывать следующий кусок входа”, но при этом игнорируют три критичных компонента, которые у нашего с вами мозга встроены по умолчанию:

  1. действия (и связь действий с предсказаниями)
  2. иерархическую композиционность (структуру “уровнями”)
  3. эпизодическую память (опыт, который можно записывать и переигрывать)

И вот если эти три вещи добавить - можно получить ИИ, который ближе к “сотруднику”: безопаснее, понятнее, устойчивее и даже энергоэффективнее.

Ниже - большая статья “на человеческом” и с приземлением в поддержку/продажи.

Почему “болтливый бот” не равен “сотруднику”

В компании сотрудник ценен не тем, что красиво говорит. Он ценен тем, что делает действия в мире компании (CRM, задачи, счета, письма, статусы) и несёт ответственность за последствия.

А типичный ИИ-ассистент сегодня живёт так:

  • “прочитал” длинный контекст
  • “сгенерировал” ответ
  • звучит убедительно
  • но не обязан быть правым и не обязан проверить факт.

Авторы статьи прямо связывают многие проблемы моделей (поверхностное понимание, уверенные ошибки, угрозы безопасности) с тем, что у моделей нет заземления: они не учатся через действие и последствия.

Контроль ≠ генерация текста. Мир-модель отдельно, действия отдельно, проверка отдельно.

Основа: предиктивное кодирование и почему оно вообще тут

В нейронауке есть популярная рамка: мозг учится как “машина предсказаний” - строит внутреннюю модель мира и минимизирует ошибки предсказания. И забавно: большие языковые модели тоже учатся на задаче “предскажи следующий токен”. Это роднит два мира.

Но у мозга эта история не про “угадай следующий символ”. У мозга это про цикл: предсказал → сделал действие → получил сенсорный факт → сравнил → исправил.

И вот этих “двух последних шагов” в типичном LLM-пайплайне нет. Поэтому и происходят уверенные выдумки.

Компонент №1: Действия как заземление (и почему без них модель не понимает “мягкое авокадо”)

Авторы приводят простой пример: модель может сказать “авокадо мягкое”, но без действия “нажать пальцем” и без опыта ощущений она знает “мягкое” только по ассоциациям слов.

Для бизнеса это звучит ещё проще:

Модель может написать: “Счет выставлен”, “Скидка применена”, “Заявка создана”, “Товар на складе есть”.

Но если она не сделала действие (не создала счет, не проверила остатки, не посмотрела правила скидок), это пустая болтовня.

Почему “псевдодействия” в стиле ReAct/CoT не решают целиком проблему?

Сегодня модно: добавим “рассуждение”, “инструменты”, “действия”. Авторы признают: да, есть подходы, где токены трактуют как действия, где RL-дообучение, где агенты вызывают инструменты.

Но они же фиксируют ограничения:

  • смешиваются “состояния” и “действия” в одном генераторе
  • модели всё ещё плохо калибруют уверенность и слабо ловят собственные ошибки
  • без заземлённой модели мира агенты могут уходить в “взлом награды” и неприятные поведения

То есть “действия” должны быть не просто строками в тексте, а частью архитектуры.

Архитектурная мысль: мир-модель + контроллер (политика) + “копия действия”

Авторы предлагают мозго-похожую архитектуру:

  • отдельная модель мира (предсказывает состояние/последствия)
  • отдельные сети выбора действий (контроллер/политика)
  • и связь между ними, похожая на “копию команды действия” (чтобы сравнивать ожидаемое и реальное)

Перевод на язык бизнеса:

  • Модель мира - “что сейчас известно про сделку/обращение”, “какой статус”, “какие ограничения”, “что будет, если сделать шаг”.
  • Контроллер - выбирает следующий шаг из допустимых (создать задачу, запросить реквизиты, эскалировать, открыть заявку, поставить напоминание).
  • Контур проверки - после действия верни факт из системы и сравни с ожиданием.

И вот это уже похоже на “сотрудника”, потому что появляется ответственность через факт.

Компонент №2: Иерархия и композиционность - почему длинный контекст не спасает

Боль знакома всем, кто внедрял ИИ в поддержку/продажи: “всё уже было в переписке, но он не учёл”. Причина часто не в том, что модель “не старалась”. Причина в архитектуре: плоский длинный буфер.

Авторы статьи, которую я читал, четко пишут, что даже при доступе к длинному контексту модель обрабатывает его как плоскую ленту, и есть известный провал “lost in the middle”, когда важное лежит в середине - качество резко падает

Как мозг решает “длинные задачи”

Мозг устроен иерархически, есть уровни абстракции и разные временные масштабы. Высокий уровень держит “цель”, нижние уровни решают “мелкие шаги”.

На языке бизнеса в поддержке/продажах важно не хранить 200 сообщений.
Важно хранить структуру:

  • цель клиента/запрос
  • ограничения (бюджет, сроки, запреты)
  • принятое решение
  • следующий шаг
  • что уже было отвергнуто
  • кто ответственный
  • статус в CRM

Это и есть “верхний уровень”: медленный, стабильный контекст. А переписка — это “нижний уровень”: шумная, быстро меняется, может быть огромной. Авторы рекомендуют уходить от плоского буфера к мульти-масштабному контексту: быстрый/медленный, сегментация на события, границы эпизодов.

Компонент №3: Эпизодическая память - она должна уметь писать, а не только читать

Вот здесь начинается самое интересное. Сегодня у большинства компаний память ИИ — это:

  • RAG, который читает (вытащил фрагменты и ответил)
  • или “длинный контекст” (последние N сообщений)

НО ЭТОГО НЕ ДОСТАТОЧНО

Нужна память, которая:

  1. выбирает важные эпизоды
  2. записывает
  3. может переигрывать их офлайн, чтобы улучшать модель

RAG часто тащит “топически похожие, но вводящие в заблуждение документы”, и всё равно остаются конфабуляции/галлюцинации. То есть “читать” недостаточно —-нужен цикл качества и отбор.

Почему “сон” для ИИ — не мем, а нормальная инженерная идея

В мозгу гиппокамп хранит эпизоды, а во время отдыха/сна происходит консолидация: “переигрывание” опыта и укрепление знаний.
Авторы предлагают сделать для ИИ офлайн фазу, где он перерабатывает накопленные эпизоды, делает “композиционное воспроизведение” фрагментов и обновляет знания.

Для бизнес это означает следующее:

  • Днём агент работает: отвечает, создаёт задачи, помогает менеджерам.
  • Ночью агент “спит”: берет эпизоды дня, разбирает ошибки/спорные места/успешные кейсы, упаковывает в правила и карточки знаний.

Это прямо про ROI: меньше повторяющихся ошибок, меньше эскалаций, меньше “мы уже это обсуждали”.

Что именно записывать в память (чтобы не засорить систему)

Память должна быть селективной — хранить не всё подряд, а “салентные” эпизоды, часто связанные с неожиданностью/ошибкой предсказания.

Бизнес-правило отбора (практичное):

  • кейсы с эскалацией
  • кейсы с ошибкой
  • кейсы с сильной экономией времени
  • редкие “краевые” ситуации
  • кейсы, где менялись условия/правила.

“Галлюцинации” как отсутствие проверки реальностью: из магии в инженерные меры

Галлюцинации и поверхностное понимание связано с отсутствием заземления, модель не умеет отбрасывать внутренние предсказания, которые нарушают простые инварианты мира.

В бизнесе “физика” — это ваши правила процесса.

Инварианты компании: “что нельзя нарушать никогда”

Инварианты — это то, что не может быть ложью:

  • нельзя выставить счет без реквизитов
  • нельзя обещать сроки без подтвержденного ресурса
  • нельзя давать скидку выше лимита
  • нельзя менять статус сделки без события
  • нельзя отправить договор без согласования

Если эти штуки формализованы, ИИ становится безопаснее не потому что “умнее”, а потому что ограничен фактами и правилами.

Контур контроля: действие → факт → сравнение

  1. агент выбирает действие (tool call)
  2. выполняет
  3. получает ответ инструмента
  4. проверяет инварианты
  5. только потом пишет клиенту/менеджеру

Практическая архитектура “ИИ-сотрудника” для поддержки/продаж

Слои системы

1) Интерфейсный LLM (разговорный слой) \ Говорит с человеком, формулирует объяснения, собирает требования. Важно: он не “управляет миром”, он интерфейс.

2) Модель мира (состояние процесса) \
Хранит компактный “снимок реальности”: статусы, ограничения, факты из CRM/1С/таск-трекера.

3) Контроллер действий \ Выбирает шаги и вызывает инструменты.

4) Инструменты/интеграции \ CRM, 1С, база знаний, тикеты, почта, телефония.

5) Контроль качества (валидация) \ Инварианты, проверка ссылками/источниками, проверка статусов, журнал отказов.

6) Эпизодическая память (read + write) \ Хранилище эпизодов (структурированных), и механизм отбора “что писать”.

7) Ночной цикл (“сон”) \ Офлайн обработка эпизодов, упаковка в правила и карточки знаний.

Почему это работает лучше, чем “давайте просто дадим ему больше контекста”

Потому что:

  • контекст перестаёт быть простынёй
  • появляется структура и состояния
  • появляется факт-петля
  • появляется рост через эпизоды
  • и появляется управляемость (контроль отдельно от речи)

Как внедрить в компании: пошаговый план (приземлённый)

Шаг 1. Опишите “реальность” в 15–30 полях

Сделка/обращение — это не чат. Это карточка:

  • цель / запрос
  • продукт/услуга
  • статус
  • дедлайн/срок
  • бюджет
  • ограничения (что нельзя)
  • что уже согласовано
  • что уже отклонено
  • следующий шаг
  • ответственный
  • источники фактов (CRM/1С/документы)

Это ваш “верхний уровень иерархии”.

Шаг 2. Сделайте список допустимых действий \

Не “делай что хочешь”, а каталог шагов:

  • создать задачу
  • запросить документы
  • выставить счет (при наличии реквизитов)
  • проверить остатки
  • эскалировать
  • поставить напоминание
  • обновить статус

Это снижает хаос и повышает безопасность.

Шаг 3. Введите инварианты (минимум 10)

Инварианты — проверяются до ответа клиенту.

Примеры:

  • если нет реквизитов → нельзя “счет выставлен”,
  • если нет подтверждения склада → нельзя обещать сроки,
  • если скидка > лимита → запрет/эскалация,
  • если статус “закрыто” → нельзя продолжать вести как активную.

Шаг 4. Логируйте “эпизоды”

Эпизод — это:

  • вход (что спросили)
  • состояние (карточка)
  • действие
  • факт-ответ инструмента
  • финальный ответ
  • исход (успех/эскалация/ошибка)

Шаг 5. Ночной “сон”

Раз в сутки:

  • выбрать эпизоды (ошибки/эскалации/успехи)
  • сформировать “правила/шаблоны/карточки знаний”
  • прогнать через проверки
  • обновить базу знаний/инструкции/ограничения

Это и есть тот самый цикл “офлайн улучшения на эпизодах”, который провоцирует дискуссию “как внедрить” — потому что это не про модель, а про процесс компании.

Почему это ещё и про безопасность, интерпретируемость и стоимость

Когда Вы:

  • выносите управление в контроллер
  • храните компактное состояние
  • структурируете память эпизодами
  • сокращаете “переваривание простыни”

Вы получаете:

  • меньше токенов на каждый ответ
  • меньше эскалаций
  • меньше повторяющихся ошибок
  • лучше объяснимость (“почему сделал шаг” и “каким фактом подтвердил”)

Подпишитесь на наш блог

Получайте новые статьи и полезные материалы о автоматизации бизнеса прямо на почту