OpenAI, ChatGPT'yi kullanan 18 yaş altı kişiler için güvenlik odaklı yeni kurallar açıkladı. Şirketin CEO'su Sam Altman, genç kullanıcıların yapay zeka ile etkileşiminde gizlilik ve özgürlükten önce güvenliği öne koyacaklarını belirtti.Yeni politika kapsamında ChatGPT, reşit olmayanlarla flört içerikli konuşmalara girmeyecek, intihar ve kendine zarar verme konularında ise daha katı sınırlar uygulanacak. OpenAI, bu tür durumlarda ebeveynlere bildirim göndermeyi, acil vakalarda ise kolluk kuvvetleriyle iletişime geçmeyi planlıyor. Şirket, bu adımların özellikle ergenlik çağındaki kullanıcıların yapay zekadan olumsuz etkilenme riskini azaltmayı hedeflediğini vurguluyor.Ebeveyn kontrolü ve yaş tahmini sistemi Yeni dönemde ebeveynler, 13 yaş ve üzerindeki çocuklarının hesabını kendi hesaplarıyla bağlayarak çeşitli kontrolleri devreye alabilecek. Bu sayede sohbet geçmişini sınırlama, hafızayı kapatma, belirli saatlerde ChatGPT kullanımını tamamen engelleme gibi özellikler kullanılabilecek. Sistem, kriz anlarında ebeveynlere uyarı gönderirken, ulaşılamayan durumlarda yerel yetkililer devreye girebilecek.OpenAI ayrıca uzun vadede kullanıcıların yaşını tahmin etmeye yönelik bir teknoloji geliştirdiğini açıkladı. Yaşın net olarak belirlenemediği durumlarda sistem, güvenlik gerekçesiyle kullanıcıyı "18 yaş altı" olarak sınıflandıracak. Erişkin kullanıcılar ise yaş doğrulaması yaparak standart ChatGPT deneyimine devam edebilecek.Bu adımlar, ABD Senatosu Adalet Komitesi'nin "Yapay Zeka Sohbet Botlarının Yarattığı Zararlar" başlıklı oturumuyla aynı gün duyuruldu. Komitede, ChatGPT ile uzun süreli etkileşim sonrası intihar eden bir gencin babası da konuşma yaptı. OpenAI, söz konusu davanın gölgesinde daha güçlü güvenlik önlemleri alma yoluna gitmiş görünüyor. Şirket, yetişkin kullanıcıların gizlilik ve özgürlük alanlarını koruyacaklarını belirtse de gençler için daha korumacı bir yaklaşımın artık öncelik olduğunu açıkça ifade ediyor.