Yapay Zeka Tarafından Üretilen Çocuk Cinsel İstismarı Materyallerinin (AI CSAM) Ele Alınması: Eğitim Politikası İçin Fırsatlar

Yayın Tarihi: Temmuz 2025

Temel Çıkarımlar:

Bu politika brifingi, “nudify” veya “deepfake nudes” olarak adlandırılan yapay zeka tarafından üretilen çocuk cinsel istismarı materyallerinin (AI CSAM) okullardaki yaygınlaşan sorununu ele almaktadır. Brifing, mevcut yasal boşlukları, okulların bu tür olaylara tepkisini ve politika yapıcılar için önerileri vurgulamaktadır.

Okulların Hazırlıksızlığı: Çoğu okul, öğrencileri AI CSAM riskleri hakkında bilgilendirmemekte ve eğitimcileri bu tür olaylara nasıl müdahale edecekleri konusunda eğitmemektedir.

Yasal Boşluklar ve Belirsizlikler: Birçok eyalet AI CSAM’ı suç saymış olsa da, çoğu yasa, çocuk faillerin deepfake nudes oluşturması veya yayması durumunda okulların uygun çerçeveler oluşturmasını ele almamaktadır.

Siber Zorbalık Olarak Tanımlama İhtiyacı: Okulların proaktif ve uygun şekilde yanıt vermesini sağlamak için eyaletlerin zorunlu raporlama ve okul disiplin politikalarını güncellemeleri, deepfake nude olaylarını raporlama zorunluluğunu netleştirmeleri ve bu davranışı açıkça siber zorbalık olarak tanımlamaları gerekmektedir.

Islah Odaklı Yaklaşım: Çocuk failler için cezai tedbirler yerine davranışsal müdahalelere öncelik verilmelidir. Yanıtlar, çocuk gelişimi, travma-bilgilendirilmiş uygulamalar ve eğitim eşitliğine dayanmalıdır.

Ana Temalar ve Önemli Fikirler/Gerçekler:

AI CSAM’ın Tanımı ve Yayılma Yöntemleri:

AI CSAM, 2023 yılından itibaren üretken yapay zeka modellerinin çocukların cinsel içerikli görüntülerini oluşturmak için kötüye kullanılmasıyla ortaya çıkmıştır.

“Nudify,” “undress” veya “face-swapping” uygulamaları, vasıfsız kullanıcıların pornografik görüntüler oluşturmasını kolaylaştırmıştır. Bu uygulamalar, “teknik bilgi birikimi olmayanların hızlı ve potansiyel olarak çok sayıda kişiyi rızaları olmadan ‘deepfake nudes’ veya ‘deepfake porn’ oluşturmasına olanak tanır.”

AI CSAM, ya gerçek hayatta var olmayan çocukları tasvir eden ya da gerçek, teşhis edilebilir çocukların (örn. sosyal medya fotoğraflarından) masum görüntülerinin cinsel içerikli hale getirilmesiyle oluşturulan “morphed” görüntüler olarak ikiye ayrılır.

“Nudify uygulamalarının kullanım kolaylığı ve kısıtlama eksikliği, kendileri de reşit olmayan kullanıcılar da dahil olmak üzere, AI CSAM’ın hızlı bir şekilde oluşturulması için bir yol olmuştur.”

Okullardaki Durum ve Tepkiler:

Araştırma, AI CSAM’ın okullardaki yaygınlığının belirsiz olduğunu, ancak şu anda “çok yüksek olmadığını” göstermektedir. Bu durum, okullara “AI CSAM önleme ve müdahale stratejilerini proaktif olarak hazırlama fırsatı” sunmaktadır.

2023 ortalarından itibaren ABD’deki orta ve lise öğrencilerinin (hem devlet hem de özel okullarda) kız arkadaşlarının deepfake nudes’ini yapmak için yapay zekayı kullandığı bildirilmiştir. New Jersey, Teksas, Washington, Florida, Pennsylvania ve Güney Kaliforniya’da yüksek profilli vakalar yaşanmıştır.

“Çapraz mesleki katılımcılarımız arasında okullarda çıplaklık olaylarının yaygınlığı konusunda bir fikir birliği bulunmadığını gördük.” Bazıları sorundan haberdar değilken, bazıları yaygınlığın yüksek olduğuna inanmaktadır.

Öğrencilerin deepfake nudes oluşturma motivasyonları çeşitlidir: bazıları bunu komik bulurken, bazıları için zorbalık şekli, bazıları ise kötü niyetli ve büyük ölçekli görüntü üretimi veya şantaj yapmaktadır.

Çocukların bilişsel gelişimleri tamamlanmadığı için eylemlerinin potansiyel sonuçlarını tam olarak anlayamayabilirler. Dijital etkileşimler çocuklar için yüz yüze etkileşimlerden daha az gerçek görünebilir.

“Görüşmelerimiz, çoğu okulun şu anda çıplaklık uygulamalarının risklerini öğrencilerle ele almadığını göstermektedir.” Okullar genellikle çevrimiçi istismar riskleri hakkında eğitimi ancak bir olaydan sonra sağlamaktadır.

Okullar deepfake nude olaylarına doğru tepki vermekte zorlanmaktadır. Öğretmenler genellikle bu tür olaylarla nasıl başa çıkacakları konusunda eğitim almamakta ve okulların bu duruma yönelik bir kriz yönetim planı bulunmamaktadır.

Dışarıdan, okullar bazen çıplaklık olaylarını ilgili makamlara zamanında bildirememektedir. Bunun nedeni, “eyalet zorunlu raporlama yasalarının deepfake nudes’e uygulanabilirliğindeki belirsizlik, okul personelinin eyalet yasası hakkında yeterli bilgiye sahip olmaması veya – bazı katılımcıların öne sürdüğü gibi – konuyu örtbas etme arzusu” olabilir.

“Okullar bir çıplaklık olayını yanlış ele aldığında, mağdurların, ailelerinin ve okul topluluğunun diğer üyelerinin güvenini yok etmektedir.”

Yasal Çerçeve ve Politika Önerileri:

ABD eyaletlerinde onlarca AI CSAM ile ilgili yasa çıkarılmıştır, birçoğu son iki üç yılda. Bu yasaların çoğu, federal yasalarca uzun süredir yasaklanmış olmasına rağmen bazı eyaletlerde ele alınmamış olan gerçek çocukların “morphed” görüntülerini hedef almaktadır.

“AI CSAM yasalarının ulusal dalgası, derinlemesine bölünmüş bir dönemde nadir bir iki partili fikir birliği ve ivme örneğidir.” Ancak bu yasalar, “deepfake nude olayları ve bu olaylardan sorumlu çocuklarla ilgili okulların yükümlülükleri” gibi sorunları ele almamaktadır.

Politika Önerileri:

Zorunlu Raporlama Yasalarını Netleştirme: Eyaletler, okul personelinin deepfake nude olaylarını kolluk kuvvetlerine veya çocuk refah hizmetlerine bildirme yükümlülüğünü açıkça belirten zorunlu raporlama yasalarını güncellemeli ve okullar personelini eğitmelidir.

Siber Zorbalık Olarak Tanımlama: Eyaletler, öğrenci tarafından öğrenciye deepfake nude olaylarını bir “siber zorbalık” biçimi olarak tanımlayarak eğitimcileri hazırlıklı olmaya teşvik edebilirler. Bu, okulların politikalar oluşturmasını ve kaynak tahsis etmesini gerektirecektir.

Islah Odaklı Yaklaşım (Cezai Tedbirler Yerine): “Çocuk failler, çocukların deepfake nudes’ini oluşturan ve/veya paylaşan yetişkinlerle aynı sonuçlara tabi tutulmamalıdır.” Cezai yaptırımlar yerine, eyalet politika yapıcıları, eğitimciler, çocuk psikologları, gençlik adaleti savunucuları ve mağdur savunucularıyla istişare ederek çeşitli disiplin seçeneklerini değerlendirmelidir. Bazı eyaletler, genç veya ilk kez suç işleyen failler için davranışsal sağlık danışmanlığı veya eğitim programları gerektiren yasalar çıkarmıştır.

Gelecek Araştırma İhtiyaçları:

Öğrenci tarafından öğrenciye deepfake nude olaylarının sınırlı kapsamda olduğu düşünüldüğünde, “daha akıllı okul önleme ve müdahale stratejilerini bilgilendirebilecek araştırma boşluklarını doldurmanın tam zamanıdır.”

Gelecekteki araştırmalar, kaç ABD okulunun çıplaklık uygulamalarının öğrenci tarafından kullanılmasıyla ilgili olayları deneyimlediğini, ABD okullarının personeli eğittiğini ve öğrencilere (ve/veya ebeveynlere ve vasilere) çevrimiçi istismar riskleri hakkında eğitim verdiğini ve bu eğitimin etkinliğini belgelemelidir.

Öğrenci gizliliği yasaları, bu alanda yürütülebilecek araştırmayı sınırlamaktadır. Okullar, mağdurları ve suçlanan öğrencileri korumak için ayrıntıların açıklanmasını kısıtlamaktadır. Okulların anonimleştirilmiş veya toplu bilgileri politika yapıcılarla veya araştırmacılarla paylaşması, gizlilik riskleri taşısa da önleme ve müdahale çabalarına yardımcı olabilir.

Bu brifing, AI CSAM’ın gelişmekte olan bir sorun olduğunu ve özellikle okullar düzeyinde kapsamlı, duyarlı ve ıslah odaklı politika çözümlerine acil bir ihtiyaç olduğunu açıkça ortaya koymaktadır.

Scroll to Top