Исследователи из Fudan University и команды OpenMOSS научили языковую модель отличать перспективные научные работы от посредственных — и она справляется с этим лучше GPT-5.2, Gemini 3 Pro и других топовых моделей. Секрет в том, что вместо дорогой экспертной разметки модель училась на цитированиях — естественном "голосовании" научного сообщества. Читать далее