Фейковые рентген-снимки от ИИ научились обманывать не только врачей, но и другие нейросети

Wait 5 sec.

Исследователи предупредили о новой уязвимости в медицинском ИИ: сгенерированные нейросетями рентгеновские снимки уже достаточно реалистичны, чтобы вводить в заблуждение не только людей, но и сами AI-системы. В исследовании, опубликованном в журнале Radiology, 17 радиологов из 12 больниц в шести странах оценивали 264 снимка, половина из которых была синтетической. Когда врачи не знали, что среди изображений есть подделки, они правильно распознавали их только в 41% случаев. После предупреждения точность выросла до 75%.Отдельно проверили и большие языковые модели. GPT-4o, GPT-5, Gemini 2.5 Pro и Llama 4 Maverick показывали точность распознавания фейковых снимков в диапазоне от 57% до 85%. Причем GPT-4o, которая сама использовалась для генерации части таких изображений, тоже не смогла распознать их все. Читать далее