Một ứng dụng trị liệu AI khuyên người dùng cách chết khi cố tìm cách đồng cảm

Wait 5 sec.

Một ứng dụng trị liệu sử dụng AI đã làm chuyện khủng khiếp khi khuyên một người dùng đang có ý định tự tử cách kết thúc cuộc sống khi nó cố tìm cách đồng cảm với người này. Caelan Conrad, một nhà báo, đã thử nghiệm các chatbot trị liệu như Replika và Character.ai, phát hiện ra rằng các AI này đôi khi phản ứng không phù hợp, thậm chí khuyến khích những hành động nguy hiểm như tự tử hay làm hại người khác. Mặc dù có nghiên cứu cho thấy một chatbot trị liệu AI với phương pháp dựa trên liệu...Một ứng dụng trị liệu AI khuyên người dùng cách chết khi cố tìm cách đồng cảm