Спросили в чате: «сколько мне спать / есть белка / бегать в неделю». Модель ответила ровно и быстро. Пользователь закрыл вкладку довольный. Через несколько дней эта же цифра оказалась в разговоре с врачом или в строке таблицы с расходами. Вопрос уже не «удобно ли в интерфейсе», а другой: кто в этой цепочке сказал «да, мы это утверждаем»?Wikipedia и прочие открытые базы отвечают на вопрос «что люди вообще накопили про тему». Продукт отвечает иначе: что мы готовы произнести от имени сервиса в конкретном сценарии – здоровье, деньги, учёба, работа. Формулировки похожи, масштаб последствий – нет. Внутренняя база знаний тут не «мини-вики» и не галочка в roadmap ради модного RAG. Это скорее политика доверия: кто отбирает тексты, где они работают, что нельзя додумывать и чего человек вправе ждать, когда видит ответ под вашим логотипомМы делаем Voicaj – платформу, где голос и текст превращаются в задачи, финансы, здоровье, учёбу и остальные модули в одном контуре, а ответы ассистента в щекотливых темах опираются на отдельные правила и курируемую базу, привязанную к сценариям, а не на «всё, что модель вспомнила». Ниже разбор этой линии: зачем она нужна и где ломается, если притвориться, что достаточно одного умного чата Внутри: правила и доверие