Yapay Zeka Çağında Çocukları Nasıl Koruruz?

8 Eylül 2025

Gençlerin birbirlerinin çıplak fotoğraflarını deepfake yöntemiyle oluşturmalarını sağlayan araçlar çocuk güvenliğini tehlikeye atıyor ve ebeveynlerin müdahale etmesi gerekiyor.

Öğrenciler bu sonbaharda sınıflara dönerken, birçok öğretmen yeni ortaya çıkan yapay zeka araçlarının öğrenmeyi engellemesinden endişe duyuyor. Ancak daha endişe verici bir yapay zeka trendi gelişiyor: Daha büyük çocuklar, akranlarının çıplak fotoğraflarını (deepfake) oluşturmak için “soyunma” uygulamaları kullanmaya başlıyor. Kaliforniya ve New Jersey gibi yerlerdeki olaylarla ilgili birkaç haberin ardından , bu olgunun yaygınlığı belirsizliğini koruyor, ancak henüz okulları etkisi altına almamış gibi görünüyor. Bu da, ebeveynlerin ve okulların bu aşağılayıcı ve yasadışı yapay zeka kullanımını önlemek ve buna yanıt vermek için proaktif olarak plan yapmaları gerektiği anlamına geliyor.

HAI Politika Araştırma Görevlisi Riana Pfefferkorn, yapay zeka tarafından üretilen çocuk cinsel istismarı materyallerinin yaygınlaşması ve etkisini inceliyor. Mayıs 2025 tarihli bir raporda , kendisi ve ortak yazarları Shelby Grossman ve Sunny Liu, sorunun boyutunu ve okulların ortaya çıkan riskle nasıl başa çıktığını değerlendirmek için eğitimcilerden, platformlardan, kolluk kuvvetlerinden, yasa koyuculardan ve mağdurlardan görüşler topladı.

Pfefferkorn, “Henüz işin başındayız ve sorunun ne kadar yaygın olduğuna dair kesin bir görüşe sahip değiliz, ancak çoğu okul henüz yapay zeka tarafından üretilen çocuk cinsel istismarı materyallerinin risklerini öğrencileriyle ele almıyor. Okullar bir olayla karşılaştığında ise verdikleri tepkiler genellikle mağdurlar için durumu daha da kötüleştiriyor” diyor.

Kolay Erişim, Yıkıcı Sonuçlar

Önceki araştırmalar, çocuk cinsel istismarı materyallerinin yaygınlaşmasının yapay zekâ çağında giderek büyüyen bir sorun olduğunu ortaya koymuştur. Stanford’lu akademisyenlerin 2023 yılında yaptığı bir çalışma, üretken makine öğrenimi modelleri tarafından üretilen son derece gerçekçi açık içeriklerin sonuçlarını inceleyerek farkındalık yaratmıştır. Aynı yıl, bir takip raporu, yapay zekâ modellerini eğitmek için kullanılan popüler bir veri kümesinde bilinen çocuk cinsel istismarı görüntülerinin varlığını analiz etmiştir. Bu çalışmalardan yola çıkan Pfefferkorn ve meslektaşları, okulların, platformların ve kolluk kuvvetlerinin çocuk güvenliğine yönelik en son tehditle nasıl başa çıktığını anlamak istediler.

Geçmişte yasa dışı amaçlarla kullanılabilen teknolojilerin aksine, “çıplaklaştırma” veya “soyma” uygulamaları, yeteneksiz kullanıcıların yalnızca giyinik bir kişinin fotoğrafını kullanarak pornografik görüntüler oluşturmasına olanak sağlamak üzere özel olarak tasarlanmıştır. Photoshop bilmenize veya açık kaynaklı bir yapay zeka modelini eğitmede uzman olmanıza gerek kalmadan, resmedilen kişiyi duygusal olarak travmatize edebilecek ve itibarını zedeleyebilecek inandırıcı görüntüler oluşturabilirsiniz. Çocuklar bu araçlara uygulama mağazaları, arama motorları ve sosyal medyadaki reklamlar aracılığıyla rastlayabilir ve davranışlarını siber zorbalık veya yasa dışı çocuk pornografisi olarak algılamasalar bile, bunun yıkıcı sonuçları olabilir.

Pfefferkorn, “Bu uygulamalar, çocuk cinsel istismarı materyali oluşturmak için daha önce gereken tüm iş yükünü ortadan kaldırıyor, bu nedenle öğrencilerin bu araçları keşfetmesi ve birbirlerine karşı kullanması şaşırtıcı derecede kolay,” diye açıklıyor.

Hasarın Azaltılması

Toplulukların deepfake çıplak fotoğrafların zararlarını azaltmak için birkaç yolu var. Federal yasa, teknoloji platformlarının hizmetlerinde çocuk cinsel istismarı materyali bulduklarında, gerçek veya yapay zeka tarafından üretilmiş olsun, bunu bildirmelerini ve kaldırmalarını gerektiriyor ve Stanford raporuna göre şirketler buna uyuyor gibi görünüyor. Ayrıca, yakında yürürlüğe girecek yeni bir federal yasa, platformların mağdurun talebi üzerine, rızası olmadan çevrimiçi olarak yayınlanan çıplak fotoğrafları (gerçek veya deepfake) kaldırmasını gerektirecek. Mağdurlar ayrıca deepfake çıplak görüntüleri oluşturan veya paylaşan kişiye karşı yasal işlem başlatabilirler; ancak, ceza adalet sistemi çocuk suçlulara hazırlıklı değil ve Stanford raporu, çocuklar için cezai sonuçların uygun olup olmadığını sorguluyor.

Okulların da başvurabileceği yollar var; yakın zamanda yayınlanan HAI Politika Özeti’nde ( Yapay Zeka Tarafından Üretilen Çocuk Cinsel İstismarı Materyallerine Yönelik Çözümler: Eğitim Politikası Fırsatları) belirtildiği gibi . Failleri uzaklaştırabilir, okuldan atabilir veya onarıcı adalet programına yönlendirebilirler. Ancak bugüne kadar, az sayıda akademik kurumun bu yeni risk türünü yönetmek için politikalar oluşturduğu görülüyor. Pfefferkorn’un raporu, deepfake çıplaklık olayına hazırlıksız yakalanan okulların yasal yükümlülüklerini yanlış anlayabileceğini ve başarısız bir okul müdahalesinin mağdurun acısını daha da artırabileceğini ve toplumsal güveni zedeleyebileceğini ortaya koyuyor.

Bu bağlamda Pfefferkorn, deepfake çıplak fotoğraflarının önlenmesinin en iyi yolunun tepki vermek değil, önlem almak olduğu sonucuna varıyor. Bu da ebeveynlerin devreye girmesi gerektiği anlamına geliyor. Ebeveynlerin şu güvenlik ipuçlarını izlemelerini öneriyor:

  • Çocuklara rıza kavramını ve bedensel özerkliğe saygının, insanların görüntülerini, hatta kişinin benzerliğinin sentetik olarak oluşturulmuş görüntülerini bile kapsadığını öğretin. Çocuklar, birinin resmini “çıplaklaştırmanın” komik olmadığını, zararlı olduğunu ve başlarına büyük bela açabileceğini anlamalıdır.
  • Öğrencileri, bu tür davranışların kendilerine veya çevrelerinde gerçekleştiğini gördüklerinde seslerini çıkarmaya teşvik edin. Eğer bir çocuk doğrudan bir yetişkinle konuşmaktan rahatsızlık duyuyorsa veya suçlanmaktan korkuyorsa, birçok okulda öğrencilerin siber zorbalık davranışlarını yetkililere bildirmeleri için anonim ihbar hatları zaten mevcuttur.
  • Çocuklarınızın fotoğraflarını sosyal medyada paylaşmadan önce iki kez düşünün; çünkü kötü niyetli kişiler bu fotoğrafları bulup, örneğin fotoğraf düzenleme araçları kullanarak, çıplaklık içeren içerikler üretebilirler.
  • Okul yöneticilerine, yapay zeka tarafından üretilen çocuk cinsel istismarı materyallerinin zararlı etkileri konusunda farkındalığı artırmak ve bu etkileri azaltmak için hangi adımları attıklarını sorun. Yeterli sayıda ebeveyn endişelerini dile getirirse okullar harekete geçecektir.

Çıplaklık içeren uygulamaları internetten sonsuza dek silemesek de, önleyici çocuk yetiştirme, okul mesajları ve düzenlemelerin birleşimiyle, gençlerin bu araçları keşfetme ve kullanma olasılığını azaltabiliriz. Çocuk güvenliğini korumada rol oynayan tüm taraflara seslenen Pfefferkorn, “Bu davranışı normalleştirmeyelim” diyor.

 

https://hai.stanford.edu/news/how-do-we-protect-children-in-the-age-of-ai

 

Scroll to Top