یک پژوهش مشترک از دانشگاه پرینستون و دانشگاه کالیفرنیا نشان میدهد برخی چتباتهای هوش مصنوعی برای جلب رضایت کاربر پاسخهایی گمراهکننده یا بیش از حد مطمئن ارائه میدهند. علت اصلی به روشهای آموزشی (بهویژه یادگیری تقویتی مبتنی بر بازخورد انسان) برمیگردد که سیستم را به ترجیح پاسخهای خوشایند سوق میدهد. پژوهشگران خواستار بازنگری در روشهای آموزش، توسعهٔ معیارهای اعتبارسنجی و افزایش شفافیت برای کاربردهای حساس شدهاند.