Một nhóm nghiên cứu mới đã phát hiện ra phương pháp ẩn các cuộc tấn công prompt injection trong hình ảnh để thực hiện ý đồ xấu. Prompt injection là cách giấu các lệnh cho một hệ thống AI như LLM, thường ở vị trí mà người vận hành không thể nhìn thấy. Một ví dụ điển hình gần đây là việc ẩn một nỗ lực lừa đảo trong email với văn bản có màu sắc giống với màu nền, đánh lừa Gemini sẽ tóm tắt văn bản đó dù người nhận không đọc được. Một nhóm nghiên cứu gồm hai người từ Trail of Bits đã phát hiện...Hackers có thể cài mã độc vào hình ảnh, đánh lừa cơ chế circle to search