ИИ обучили «научному вкусу»: модель на 30B обошла GPT-5.2 в оценке потенциала статей

Wait 5 sec.

Исследователи из Fudan University и команды OpenMOSS научили языковую модель отличать перспективные научные работы от посредственных — и она справляется с этим лучше GPT-5.2, Gemini 3 Pro и других топовых моделей. Секрет в том, что вместо дорогой экспертной разметки модель училась на цитированиях — естественном "голосовании" научного сообщества. Читать далее