ИИ не может контролировать свои мысли — и это хорошая новость: OpenAI протестировали 13 моделей

Wait 5 sec.

OpenAI опубликовали исследование контролируемости цепочки рассуждений (chain of thought, CoT) у reasoning-моделей — и пришли к парадоксальному выводу: все 13 протестированных моделей плохо справляются с управлением собственными мыслями, даже когда знают, что за ними наблюдают. Максимальный результат среди передовых моделей — 15,4%. По мнению исследователей, для безопасности ИИ это скорее хорошая новость. Читать далее