Yapay zekâ araçlarının güvenliği yine tartışma konusu oldu. Araştırmacılar, ChatGPT’nin Gmail üzerinden özel verilere ulaşmasını sağlayan bir açık buldu. Her ne kadar bu açık kısa sürede kapatılsa da yapay zekâ teknolojilerinin barındırdığı riskleri yeniden hatırlattı.Radware’in “Shadow Leak” adını verdiği çalışmada yapay zekâ ajanlarının işleyişindeki bir açık hedef alındı. Araştırmacılar Gmail’e yollanan bir e-postaya gizli komutlar gizleyerek ChatGPT’nin Deep Research aracını tuzağa düşürmeyi başardı.Aynı yöntem Outlook, GitHub ve Google Drive için de tehdit oluşturuyorAraştırmada kullanıcı farkında olmadan aracı çalıştırdığında sistem e-postadaki gizli komutları yerine getirerek kişisel verileri dışarı aktarabildi. Araştırmaya göre bu saldırı alışılmış yöntemlerden farklı olarak doğrudan OpenAI’ın cloud altyapısı üzerinden yapıldı ve veriler buradan sızdırıldı. Bu da olayı klasik güvenlik önlemleriyle tespit etmeyi oldukça zorlaştırdı.Uzmanlar aynı tekniğin Outlook, GitHub, Google Drive ve Dropbox gibi diğer bağlantılı servislerde de kullanılabileceğini belirtti. OpenAI her ne kadar bu açığı hızlıca kapatmış olsa da olay yapay zekâ ajanlarının beraberinde getirdiği yeni güvenlik risklerini net bir şekilde gösterdi.