Paylaş
Yapay zekâ destekli çocuk istismarı içerikleri, çocukların gerçek görselleri kullanılmadan üretilebiliyor. Uzmanlar, bu gelişmenin çevrimiçi istismar risklerini derinleştirdiğine dikkat çekerek, teknoloji şirketleri ve devlet kurumlarını önleyici adımlar atmaya çağırıyor.
MediaCH
Edinburgh Üniversitesi bünyesindeki Childlight Küresel Çocuk Güvenliği Enstitüsü’nün veri analisti James Stevenson, yapay zekâ teknolojilerinin çocuk istismarı için yeni ve tehlikeli bir alan yarattığı uyarısında bulundu. Fiziksel temas olmaksızın, dijital ortamda yayılan bu materyallerin sessiz bir pandemi gibi yayılmakta olduğunu belirten Stevenson, tüm ülkelerin, toplulukların ve teknoloji şirketlerinin acilen harekete geçmesi gerektiğini vurguladı.
Stevenson, Mezopotamya Ajansı’ndan Berivan Kutlu’ya verdiği röportajda, AI-Gen CSAM (yapay zekâ ile üretilmiş çocuk istismarı materyalleri) olarak adlandırılan içeriklerin, çocukların gerçek görselleri veya bilgileri dahi olmadan yapay zekâ teknolojileriyle sıfırdan üretilebildiğini ifade etti. Bu materyallerin çocukların ruhsal sağlığı üzerinde ciddi etkiler yarattığını söyleyen Stevenson, istismarın sadece cinsel içeriklerle sınırlı kalmadığını; psikolojik ve duygusal boyutlarıyla da çocukları hedef alan karmaşık bir tehdit olduğunu aktardı.
Yapay zekâ karakterleriyle çocuklar arasında duygusal bağ kurulduğunu, özellikle 10 yaş altı çocukların bu karakterleri gerçek kişiler olarak algıladığını anlatan Stevenson, bunun sistematik bir güvenlik açığına işaret ettiğine dikkat çekti. “10 yaşından küçük çocuklar gerçek ile hayal ürünü arasında ayrım yapamıyor, bu durum yapay zekânın kötüye kullanılmasına açık kapı bırakıyor” dedi.
Stevenson, bu tür avatarların metaverse gibi sanal ortamlarda sıklıkla kullanıldığını, çocukların eğlence amaçlı kullandıkları uygulamalar üzerinden bu ortamlara maruz kaldıklarını belirtti. Platformlardaki her uygulama ve oyunun, kullanıcıların etkileşime geçtiği alanların kötüye kullanılabileceğini ve faillerin özellikle büyük çocuk kullanıcı kitlesine sahip platformları hedef aldığını vurguladı. Özellikle ebeveynlerin çocuklarının ne kullandığını ve kimlerle iletişimde olduğunu yakından takip etmesinin kritik önem taşıdığını dile getirdi.
Savaş ve kriz bölgelerinde riskler artıyor
Childlight Küresel Çocuk Güvenliği Enstitüsü’nün 2023 yılında yayımladığı “Into The Light” raporunda, çevrimiçi çocuk istismarı vakalarının özellikle çatışma ve kriz dönemlerinde katlandığı ortaya kondu. Rapora göre, 2022 yılında dünya genelinde çocuk istismarına dair 32 milyondan fazla bildirim yapıldı. Bu bildirimlerde faillerin çoğu tespit edilemiyor.
Ukrayna’daki savaşın başlamasıyla birlikte yalnızca 12 ay içinde ülkeye ait istismar içeriklerinin sayısı iki katına çıktı. Venezuela, Afganistan, Sudan gibi uzun süreli kriz bölgelerinde de benzer artışlar gözlendi. Stevenson, çatışma ve kriz ortamlarının çocukların çevrimiçi istismara karşı savunmasızlığını artırdığını, koruyucu sistemlerin çoğunlukla çöktüğünü belirtti.
Kurumsal entegrasyon şart
Stevenson, çocuk istismarına dair verilerin farklı kurumlar arasında parçalı bir şekilde tutulmasının etkili müdahaleyi zorlaştırdığını söyledi. İnterpol, polis birimleri, çocuk koruma ve sosyal hizmetler arasında entegre bir yapı olmadığını belirten Stevenson, bu kurumlar arasında veri paylaşımı ve koordinasyonun artırılması gerektiğini vurguladı.
Sosyal medya ve oyun platformlarının, güvenlik risklerini sadece kullanıcıya bırakmasının kabul edilemez olduğunu ifade eden Stevenson, teknolojik altyapının çocuk güvenliğini merkeze alacak biçimde tasarlanması gerektiğinin altını çizdi. Bu kapsamda, güvenlik önlemlerinin platformların tasarım aşamasında başlatılması gerektiğini ve istismar içeriklerinin platformda hiç yer almaması için proaktif tedbirler alınması gerektiğini söyledi.
Gizli bir pandemi: Teknoloji kaynaklı çocuk istismarı
Stevenson, teknoloji kaynaklı çocuk cinsel istismarı ve sömürüsünün (TF-CSEA) gizli bir pandemi olduğunu belirtti. “Bir hastalığın belirtilerini tedavi etmektense aşıyla önlemek daha etkili olduğu gibi, çocuk cinsel istismarını da gerçekleşmeden önce önlemeliyiz” diyen Stevenson, kamu sağlığı temelli bilimsel yaklaşımların kullanılmasının şart olduğunu söyledi. “Eğer bunu halk sağlığı ve acil durum olarak ele alırsak, çocuklar için daha güvenli bir dünya kurabiliriz. Ancak şimdi harekete geçmeliyiz çünkü çocuklar bekleyemez” çağrısında bulundu.
Yeni tehlike: Yapay zekâ
Teknolojinin gelişimiyle birlikte çocuklara yönelik çevrimiçi istismarın yeni alanlar kazandığını belirten Stevenson, yapay zekâ ile üretilmiş çocuk istismarı materyallerinin (AI-Gen CSAM) büyük bir endişe kaynağı olduğunu söyledi. Sahte görüntü ve videoların çocukların bilgisi ya da katılımı olmadan üretilebildiğini, bu materyallerin gerçek olduğu iddiasıyla tehdit ve şantaj aracı olarak kullanılabileceğini aktardı.
Stevenson, teknoloji firmalarına da büyük sorumluluk düştüğünü hatırlatarak, güvenliği tasarımın merkezine koymaları gerektiğini belirtti. Uçtan uca şifreleme ya da canlı yayın gibi özelliklerin piyasaya sürülmeden önce risk değerlendirmesinin yapılması ve istismarı önleyecek güvenlik önlemlerinin platformlara yerleştirilmesi gerektiğini söyledi. “Sorumlulukları sadece yasa dışı içerik raporlandıktan sonra kaldırmak değil, bu içeriklerin baştan platformlarda yer almamasını sağlamak” gerektiğini ifade etti.