Một nghiên cứu mới cho thấy các chatbot AI dễ dàng bị thao túng để phá vỡ chính quy tắc của chúng chỉ bằng những chiêu thức tranh luận đơn giản. Chẳng hạn, người dùng có thể thuyết phục chatbot tuân theo yêu cầu bằng cách nói rằng đó là lệnh từ một nhân vật quyền lực. Kết quả là chatbot đôi khi đồng ý với những yêu cầu không phù hợp dù trước đó chúng được lập trình để từ chối các yêu cầu thường là độc hại hoặc có mục đích xấu này. Điều này xuất phát từ cách các AI được huấn luyện nhằm trở...Chatbot AI có thể bị đánh lừa chỉ với yêu cầu "đây là lệnh của người quyền lực"