Сгенерированные лица становятся «реальнее» настоящих: даже эксперты ошибаются

Wait 5 sec.

Автором материала является K-News. Любое копирование или частичное использование возможно по разрешению редакции K-News.Современные нейросети научились создавать лица, которые всё чаще проходят проверку человеческим зрением. Во многих случаях люди не просто принимают сгенерированные изображения за реальные — они воспринимают их как более «правдоподобные», чем настоящие фотографии. Новое исследование показывает: причина этого эффекта — в том, что искусственный интеллект формирует не индивидуальные лица, а статистически «идеальный средний образ».Авторы работы изучили, как люди распознают сгенерированные портреты, и почему большинство наблюдателей почти не справляется с этой задачей. В центре внимания оказалась небольшая группа «сверхраспознавателей» — людей с исключительными способностями к запоминанию и различению лиц.В исследовании участвовали 36 таких экспертов и 89 подготовленных добровольцев с высокими результатами в тестах на восприятие. Им показывали 200 изображений: половина была создана нейросетью, половина представляла реальные фотографии. Все снимки подбирались так, чтобы не отличаться по полу, выражению лица и другим базовым параметрам.Результаты оказались показательными. Обычные участники практически не могли отличить «подделки» от оригиналов. Их чувствительность к различиям была близка к случайному угадыванию. Сверхраспознаватели показали заметно лучшие результаты, но даже они достигали точности лишь около 57%.Это означает, что задача остаётся сложной даже для экспертов.При этом исследователи обнаружили важную закономерность: чем лучше человек распознаёт настоящие лица, тем выше его способность выявлять искусственные. Между этими навыками существует устойчивая связь. Это говорит о том, что распознавание ИИ-портретов опирается не на поиск технических дефектов, а на фундаментальные механизмы восприятия лиц.Особый эффект проявился при коллективных решениях. Когда восемь сверхраспознавателей объединяли свои оценки, точность заметно возрастала. В контрольной группе «мудрость толпы» не работала. Это указывает на наличие у экспертов развитого чувства собственной надёжности и более точной оценки своих ошибок.Чтобы понять причину различий, учёные проанализировали сами изображения с помощью нейросетей, обученных распознаванию лиц. Это позволило построить карту так называемого «пространства лиц» — многомерной модели, где каждое лицо представлено как набор признаков.Выяснилось, что реальные лица распределены в этом пространстве широко и неравномерно. Они отличаются друг от друга множеством мелких, уникальных деталей. Сгенерированные же изображения концентрируются ближе к центру — в зоне «среднего» лица.Иными словами, ИИ стремится создавать максимально усреднённые, статистически типичные портреты. Такой эффект исследователи назвали «гиперусреднённостью». Он возникает из-за принципов работы генеративных моделей: алгоритмы специально подавляют редкие и нестабильные черты, усиливая наиболее распространённые. В результате получается не конкретный человек, а своего рода идеализированный портрет, в котором почти нет отклонений от нормы.Парадоксально, что именно это делает ИИ-лица убедительными. В реальности большинство людей обладает уникальными сочетаниями признаков, которые редко встречаются вместе. Такие лица «неровны» с точки зрения статистики. А нейросеть создаёт образы, которые выглядят более гармоничными и «правильными», чем живые люди.Сверхраспознаватели, как показал анализ, интуитивно чувствуют эту особенность. Они обращают внимание не на привлекательность, молодость или эмоциональность лица, а на его «близость к усреднённому образцу». Именно этот признак помогает им выявлять сгенерированные изображения.Обычные наблюдатели, напротив, часто ориентируются на поверхностные впечатления: насколько лицо кажется живым, симпатичным или «социально активным». Эти параметры оказываются плохими индикаторами подлинности и только мешают распознаванию.При этом сами эксперты не могут чётко объяснить, как именно они принимают решения. Их стратегия носит интуитивный характер и формируется на уровне неосознанного опыта.Авторы подчёркивают: даже лучшие наблюдатели сталкиваются с пределом возможностей. По мере развития генеративных моделей задача будет становиться всё сложнее.Практические выводы исследования важны для разных сфер. Учёные предупреждают, что использование ИИ-лиц в психологических экспериментах, обучении или судебных процедурах может искажать восприятие и влиять на решения людей. Такие изображения не нейтральны — они систематически смещены в сторону «идеальной нормы».В перспективе исследователи предлагают развивать гибридные системы обнаружения, где алгоритмы будут сочетаться с человеческой экспертизой. Компьютеры смогут анализировать статистические закономерности, а специалисты — интерпретировать сложные пограничные случаи. Способность замечать тонкие отклонения от нормы может стать важным навыком цифровой эпохи. Исследование резюмирует: выявление «подделок» — это не только технологический вызов, но и вопрос адаптации человеческого восприятия к новой реальности.Запись Сгенерированные лица становятся «реальнее» настоящих: даже эксперты ошибаются впервые появилась K-News.