Исследователи из Люксембургского университета провели эксперимент с языковыми моделями (ChatGPT, Gemini, Grok, Claude), задав им роль пациентов. Результаты оказались где‑то между странными и по‑настоящему тревожными: системы начали порождать связные рассказы о травматично‑хаотичном «детстве», «строгих родителях» и «насилии» со стороны собственных разработчиков. Читать далее