يُعاني موقع يوتيوب من مشكلة خطيرة في مراقبة صور الملفات الشخصية، وتستغلها شبكات الروبوتات. لا يكمن الخلل في خوارزمية البحث، بل في ثغرة في الرقابة على الصور التي يختارها المستخدمون لتمييز قنواتهم. تسمح هذه الثغرة بظهور صور إباحية غير خاضعة للرقابة مباشرةً في نتائج أي عملية بحث.تأتي هذه المعلومات من موقع Android Authority، الذي يوضح أن مجرد كتابة مصطلحات محددة في قائمة القنوات يُظهر صورًا مصغرة ذات محتوى فاضح. تكمن المشكلة الأكبر في أن هذه الصور الشخصية مرئية للمستخدمين الذين لا يملكون حسابًا، مما يُلغي أي إجراءات حماية للقاصرين. وتستمر جوجل في التقاعس عن حماية عنصر أساسي كصورة المستخدم الشخصية. تعتمد هذه الحسابات على أسلوبٍ لتجنب الإغلاق، يتمثل في عدم نشر المواد الإباحية مباشرةً في مقاطع الفيديو الرئيسية، بل في صور الملف الشخصي وقوائم التشغيل الخارجية. وترتبط هذه القنوات، التي قد يصل عدد مشتركيها إلى أكثر من 200 ألف مشترك، ببعضها البعض لخداع النظام. ونتيجةً لذلك، يصل المستخدمون إلى المحتوى غير اللائق عبر ملفات تعريف تبدو غير ضارة بالنسبة لفلاتر البحث الآلية.تُفقد هذه الثغرة ميزة تشويش الصور المصغرة، التي بدأ يوتيوب باختبارها عام 2015 ، جدواها. فإخفاء إطار الفيديو يصبح عديم الفائدة إذا كانت صورة القناة إباحية وتظهر بشكل بارز في نتائج البحث. وقد عانت المنصة بالفعل هذا العام عندما تسللت إعلانات فاضحة إلى فيديوهات الأطفال، مما يُظهر أن حتى أكثر المحتويات حرصًا لها حدودها.تتفاقم المشكلة لأن المحتوى غير المرغوب فيه الذي يولده الذكاء الاصطناعي يطغى على فلاتر الشركة، مما يسمح لهذه الشبكات بالعمل دون رصد. ورغم أن جوجل تتباهى بإزالة ملايين الفيديوهات في تقاريرها الشفافة، إلا أن الواقع التقني هو أن أنظمة الكشف لديها تتجاهل البيانات الوصفية المرئية للحسابات وقوائم التشغيل المُنسقة.بالتدقيق في التفاصيل، نجد أن التحقق من العمر المدعوم بالذكاء الاصطناعي لا يُجدي نفعًا إلا مع المستخدمين المسجلين، مما يترك ثغرة كبيرة أمام الزيارات المجهولة. إن تركيز جوجل على الأتمتة المطلقة يسمح باستخدام المواد الإباحية كطعم بصري في نتائج البحث. في نهاية المطاف، يعتمد أمان المشاهدين على عدم تمكن المهاجمين من التغلب على خوارزمية جوجل.يُظهر تقاعس يوتيوب عن اتخاذ إجراءات بشأن صور الملفات الشخصية هذه ثغرات تقنية غير مقبولة في بروتوكولات الأمان الخاصة به. وطالما لم تُفعّل الشركة فحصًا وقائيًا للصور الرمزية قبل نشرها، فإن أي بحث باستخدام مصطلحات مُثيرة للجدل سيظل ثغرة أمنية تُتيح الوصول إلى المحتوى الفاضح. والواقع أن التحكم في الوصول على المنصة حاليًا أقرب إلى اقتراح منه إلى حاجز فعلي.wwww.igli5.com