Anthropic обновила свою Политику ответственного масштабирования (Responsible Scaling Policy, RSP) до версии 3.0 и убрала из нее ключевое обещание, которое компания давала с 2023 года: не обучать ИИ-модели, если безопасность не доказана заранее. Теперь компания готова остановить разработку только при одновременном выполнении двух условий: если она лидирует в гонке ИИ и если считает риски катастрофическими. "Мы не думаем, что кому-то поможет, если мы перестанем обучать модели. Нам не кажется, что при нынешней скорости развития ИИ имеет смысл брать на себя односторонние обязательства, когда конкуренты несутся вперед", — заявил в эксклюзивном интервью TIME Джаред Каплан, сооснователь и научный директор Anthropic. Читать далее