
08 Eylül 2025
Ergenlerin birbirlerinin deepfake çıplak fotoğraflarını oluşturmalarına olanak tanıyan araçlar çocuk güvenliğini tehlikeye atıyor ve ebeveynlerin buna müdahale etmesi gerekiyor.
Öğrenciler bu sonbaharda sınıflara dönerken, birçok öğretmen yeni yapay zeka araçlarının öğrenmeyi engellemesinden endişe duyuyor. Ancak daha endişe verici bir yapay zeka trendi gelişiyor: Daha büyük çocuklar, akranlarının deepfake çıplak fotoğraflarını oluşturmak için “soyunma” uygulamalarını kullanmaya başlıyor. Kaliforniya ve New Jersey gibi yerlerde yaşanan birkaç olay haberinin ardından , bu olgunun yaygınlığı belirsiz olsa da, henüz okulları bunaltmış gibi görünmüyor. Bu da, ebeveynlerin ve okulların yapay zekanın bu aşağılayıcı ve yasadışı kullanımını önlemek ve buna müdahale etmek için proaktif bir plan yapma zamanının geldiği anlamına geliyor.
HAI Politika Uzmanı Riana Pfefferkorn, yapay zeka ile üretilen çocuk cinsel istismarı materyallerinin yaygınlığını ve etkisini inceliyor. Mayıs 2025 tarihli bir raporda , Pfefferkorn ve ortak yazarlar Shelby Grossman ve Sunny Liu, sorunun boyutunu ve okulların ortaya çıkan riskle nasıl başa çıktığını değerlendirmek için eğitimciler, platformlar, kolluk kuvvetleri, yasa koyucular ve mağdurlardan görüşler topladı.
Pfefferkorn, “Henüz erken aşamada olmamıza ve sorunun ne kadar yaygın olduğuna dair kesin bir görüşe sahip olmamamıza rağmen, çoğu okul henüz öğrencileriyle yapay zeka destekli çocuk cinsel istismarı materyallerinin risklerini ele almıyor. Okullar bir olayla karşılaştığında, verdikleri tepkiler genellikle mağdurlar için durumu daha da kötüleştiriyor,” diyor.
Kolay Erişim, Yıkıcı Sonuçlar
Önceki araştırmalar, yapay zekâ çağında çocuk cinsel istismarı materyallerinin yaygınlaşmasının giderek artan bir sorun olduğunu ortaya koymuştur. Stanford Üniversitesi akademisyenleri tarafından 2023 yılında yapılan bir çalışma, üretken makine öğrenimi modelleri tarafından üretilen son derece gerçekçi açık içeriklerin etkilerini inceleyerek farkındalık yaratmıştır. Aynı yıl, bir takip raporu, yapay zekâ modellerini eğitmek için kullanılan popüler bir veri kümesinde bilinen çocuk cinsel istismarı görsellerinin varlığını analiz etmiştir. Bu çalışmayı temel alarak Pfefferkorn ve meslektaşları, okulların, platformların ve kolluk kuvvetlerinin çocuk güvenliğine yönelik en son tehditlerle nasıl başa çıktığını anlamak istemiştir.
Yasadışı amaçlarla kullanılabilen geçmiş teknolojilerin aksine, “çıplaklaştırma” veya “soyunma” uygulamaları, beceriksiz kullanıcıların yalnızca giyinik bir kişinin fotoğrafını kullanarak pornografik görüntüler oluşturmasına olanak tanımak için özel olarak tasarlanmıştır. Resmedilen kişiyi duygusal olarak travmatize edebilecek ve itibarını zedeleyebilecek inandırıcı görüntüler oluşturmak için Photoshop bilmenize veya açık kaynaklı bir yapay zeka modelini eğitmede usta olmanıza gerek yok. Çocuklar bu araçlara uygulama mağazaları, arama motorları ve sosyal medya reklamları aracılığıyla rastlayabilirler ve davranışlarını siber zorbalık veya yasa dışı çocuk pornografisi olarak görmeseler de, yıkıcı sonuçları vardır.
Pfefferkorn, “Bu uygulamalar, daha önce çocuk cinsel istismarı materyali oluşturmak için gereken tüm çalışmayı ortadan kaldırıyor, dolayısıyla öğrencilerin bu araçları keşfedip birbirlerine karşı kullanmaları şaşırtıcı derecede kolay oluyor” diye açıklıyor.
Hasarı Azaltma
Toplulukların, deepfake çıplaklık fotoğraflarının zararlarını azaltmak için birkaç yolu var. Stanford raporuna göre, federal yasa, teknoloji platformlarının hizmetlerinde buldukları çocuk cinsel istismarı içeriklerini, ister gerçek ister yapay zeka tarafından üretilmiş olsun, bildirmelerini ve kaldırmalarını gerektiriyor ve şirketler bu yasaya uyuyor gibi görünüyor. Ayrıca, yakında çıkacak yeni bir federal yasa, platformların, mağdurun talebi üzerine, rızası olmadan internette yayınlanan çıplaklıkları (ister gerçek ister deepfake olsun) kaldırmasını zorunlu kılacak. Mağdurlar ayrıca, deepfake çıplaklık fotoğraflarını oluşturan veya paylaşan kişiye karşı yasal işlem başlatabilirler; ancak ceza adalet sistemi çocuk suçlulara karşı hazırlıklı değil ve Stanford raporu, çocuklar için cezai yaptırımların uygun olup olmadığını sorguluyor.
Okulların da başvuru yolları var; bu yol, yakın zamanda yayınlanan “Yapay Zeka Tarafından Üretilen Çocuklara Yönelik Cinsel İstismar Materyallerinin Ele Alınması: Eğitim Politikası için Fırsatlar” başlıklı HAI Politika Özeti’nde özetlenmiştir . Failleri uzaklaştırabilir, okuldan atabilir veya onları onarıcı adalet programına yönlendirebilirler. Ancak bugüne kadar, çok az akademik kurum bu yeni risk türünü yönetmek için politikalar oluşturmuş gibi görünüyor. Pfefferkorn’un raporu, deepfake çıplaklık olayına hazırlıksız yakalanan okulların yasal yükümlülüklerini yanlış anlayabileceği ve okul müdahalesinin beceriksizce yapılmasının mağdurun acısını daha da kötüleştirebileceği ve toplum güvenini zedeleyebileceği sonucuna varıyor.
Bu bağlamda Pfefferkorn, deepfake çıplaklık görüntülerini durdurmanın en iyi yolunun tepki değil, önlem almak olduğu sonucuna varıyor. Bu da ebeveynlerin devreye girmesi gerektiği anlamına geliyor. Pfefferkorn, ebeveynlere şu güvenlik ipuçlarını izlemelerini öneriyor:
Çocuklara rızayı ve bedensel özerkliğe saygının, insan resimlerini, hatta kişinin kendi benzerliğinin sentetik olarak yaratılmış resimlerini bile kapsadığını öğretin. Çocukların, birinin resmini “çıplak göstermenin” komik olmadığını, zararlı olduğunu ve başlarını büyük belaya sokabileceğini anlamaları gerekir.
Öğrencileri, bu tür davranışların kendilerinde veya çevrelerinde gerçekleştiğini gördüklerinde seslerini yükseltmeye teşvik edin. Bir çocuk doğrudan bir yetişkinle konuşmaktan rahatsız oluyorsa veya suçlanmaktan korkuyorsa, birçok okulda öğrencilerin siber zorbalık davranışlarını yetkililere bildirmeleri için anonim ihbar hatları bulunmaktadır.
Çocuklarınızın fotoğraflarını sosyal medyada paylaşırken bir kez daha düşünün; kötü niyetli kişiler onları bulup soyunma araçlarıyla manipüle edebilir. Örneğin, çocuğunuzun yüzünü bir emojiyle kaplamak için fotoğraf düzenleme araçlarını kullanın.
Okul yöneticilerine, yapay zeka ile üretilen çocuk cinsel istismarı materyallerinin zararlı etkilerini azaltmak ve bu konuda farkındalık yaratmak için hangi adımları attıklarını sorun. Yeterli sayıda veli endişelerini dile getirirse okullar harekete geçecektir.
Çıplaklık uygulamalarını internetten sonsuza dek silemesek de, önleyici çocuk yetiştirme, okul mesajlaşması ve düzenlemelerle, gençlerin bu araçları keşfetme ve kullanma olasılığını azaltabiliriz. Pfefferkorn, çocuk güvenliğini korumada rolü olan tüm taraflara, “Bu davranışı normalleştirmeyelim” diyor.