یک پژوهش جدید از دانشگاه استنفورد نشان میدهد مدلهای زبانی بزرگ (LLM) مانند ChatGPT در تمایز قائل شدن بین «باور» افراد و «واقعیت» عینی با شکست مواجه شدهاند. این ضعف ساختاری باعث میشود آنها مستعد توهم زدن و انتشار اطلاعات نادرست باشند. این یافتهها هشداری جدی برای استفاده از هوش مصنوعی در حوزههای حساسی مانند پزشکی، قانون و روزنامهنگاری محسوب میشود.