AI, которому запрещено быть правым

Wait 5 sec.

AI, которому запрещено быть правымКогда AI подключают к криптографической системе, обычно задают вопрос: может ли модель найти правильный ответ? Но в криптографии это неправильный вопрос. Правильный вопрос другой: можно ли встроить AI так, чтобы даже при ошибке он не мог принять опасное решение? В этой статье я показываю, как мы реализовали в nonce-observatory отдельный слой governed solver orchestration — архитектуру, в которой AI может:анализировать public-safe feature contract;предлагать solver routes;строить очередь запусков;помогать с triage и объяснением маршрутов;но не может:видеть truth/private/nonce поля;принимать candidate_d;принимать k;формировать recovery claim;превращать свой score в криптографическое evidence.Иными словами:AI suggests. Exact verifier decides. Разбираю, почему для high-assurance систем важен не “умный AI”, а AI без authority, как устроена граница non-escalation, где проходит deterministic integrity gate, и почему в зрелой криптографической системе модель должна оставаться только планировщиком, а не источником истины.Внутри статьи:ECDSA / Schnorr / BIP340 контекст;governed solver orchestration;non-escalation boundary;safe payload и forbidden fields;solver queue vs cryptographic evidence;deterministic verifier;clean-control refusal;claim boundary: что мы не утверждаем.Статья будет полезна не только тем, кто работает с криптографией, но и всем, кто проектирует AI в критических системах, где ошибка модели не должна автоматически становиться принятым фактом. Читать далее