Yapay zekâ güvenliği konusunda endişe yaratan yeni bir araştırma, ChatGPT ve Gemini gibi büyük dil modellerinin (LLM) yalnızca 250 kadar az sayıda belgeyle “zehirlenebileceğini” ortaya koydu. Bu yöntem, modellerin anlamsız metinler üretmesine neden olabiliyor.