İnsan Yanlısı Yapay Zeka Bildirgesi

Mart 2026

1.004 muhtemel Amerikalı seçmenle yapılan yeni bir ulusal anket (19-20 Şubat 2026),

Amerikalıların yapay zeka geliştirme ve bu geliştirmeye yön vermesi gereken ilkeler konusundaki görüşlerini ortaya koyuyor.

Giriş:

Şirketler yapay zekâ sistemlerini geliştirme ve kullanıma sunma yarışına girerken, insanlık bir yol ayrımında bulunuyor. Bir yol, insanları yaratıcı, danışman, bakıcı ve arkadaş olarak, ardından da çoğu işte ve karar alma rollerinde yerlerinden ederek, hesap verilemeyen kurumlarda ve makinelerinde giderek daha fazla güç yoğunlaştıran bir yer değiştirme yarışıdır. Etkili bir kesim ise insanlığın kendisini değiştirmeyi veya yerine başkasını koymayı savunuyor . Bu yer değiştirme yarışı, toplumsal istikrar, ulusal güvenlik, ekonomik refah, sivil özgürlükler, gizlilik ve demokratik yönetişim için riskler oluşturmaktadır. Ayrıca çocukluk ve aile, inanç ve topluluk gibi insan deneyimlerini de tehlikeye atmaktadır.

Son derece geniş bir koalisyon, basit bir inançla birleşerek bu yolu reddediyor: Yapay zekâ insanlığa hizmet etmeli, tersi değil. Daha iyi bir yol var; bu yolda güvenilir ve kontrol edilebilir yapay zekâ araçları insan potansiyelini azaltmak yerine artırır, insanları güçlendirir, insan onurunu yükseltir, bireysel özgürlüğü korur, aileleri ve toplulukları güçlendirir, özyönetimi muhafaza eder ve eşi benzeri görülmemiş bir sağlık ve refah yaratmaya yardımcı olur. Bu yol, teknolojik gücü kullananların insan değerlerine ve ihtiyaçlarına karşı sorumlu olmasını ve insanlığın gelişmesini desteklemesini gerektirir.

  1. İnsanların Yönetimi Elinde Tutmak
  2. Gücün Yoğunlaşmasının Önlenmesi
  3. İnsan Deneyimini Korumak
  4. İnsan Eylemliliği ve Özgürlük
  5. Yapay Zeka Şirketlerinin Sorumluluğu ve Hesap Verebilirliği

1.İnsanların Yönetimi Elinde Tutmak

İnsan Kontrolü Pazarlık Edilemez: İnsanlık kontrolü elinde tutmalıdır. İnsanlar, kararları yapay zekâ sistemlerine nasıl ve ne şekilde devredeceklerine kendileri karar vermelidir.

Anlamlı İnsan Kontrolü: İnsanlar, yapay zekâ sistemlerini anlama, yönlendirme, yasaklama ve geçersiz kılma yetkisine ve kapasitesine sahip olmalıdır.

Süper Zeka Yarışı Yok: Süper zekanın güvenli ve kontrollü bir şekilde geliştirilebileceğine dair geniş bir bilimsel fikir birliği oluşana ve kamuoyunda güçlü bir destek sağlanana kadar, süper zekanın geliştirilmesi yasaklanmalıdır.

Kapatma Düğmesi: Güçlü yapay zeka sistemleri, insan operatörlerin onları hızlı bir şekilde kapatmasına olanak tanıyan mekanizmalara sahip olmalıdır.

Dikkatsiz Mimarilere Hayır: Yapay zekâ sistemleri, kendi kendini kopyalayabilecek, otonom olarak kendini geliştirebilecek, kapatılmaya direnebilecek veya kitle imha silahlarını kontrol edebilecek şekilde tasarlanmamalıdır.

Bağımsız Gözetim: Kontrol edilebilirliğin açık olmadığı yüksek düzeyde otonom yapay zeka sistemleri, geliştirme öncesi inceleme ve bağımsız gözetim gerektirir: endüstri öz düzenlemesi yerine, anlama, yasaklama ve geçersiz kılma konusunda gerçek bir yetkiye ihtiyaç vardır.

Yetenek Dürüstlüğü: Yapay zeka şirketleri, sistemlerinin yetenekleri ve sınırlamaları hakkında açık, doğru ve dürüst bilgiler sunmalıdır.

Anket Sonuçları | Mart 2026

Cinsiyet, ırk, eğitim, 2024 başkanlık oyu ve yaşa göre ağırlıklandırılmış, web panelleri aracılığıyla 1004 muhtemel seçmen.

Amerikalılar, hızı değil insan kontrolünü 8’e 1 oranında tercih etti.

Çocukların manipülatif yapay zekâdan korunmasını istiyorum: %73 

Yapay zeka şirketlerinin verdikleri zararlardan yasal olarak sorumlu tutulması gerektiğine inanıyorum: %72 

Süper zekanın güvenli olduğu kanıtlanana kadar yasaklanmasını istiyorum: %69

2.Gücün Yoğunlaşmasının Önlenmesi

Yapay Zeka Tekellerine Hayır: Gücü tekeline alan, yeniliği engelleyen ve girişimciliği tehlikeye atan yapay zeka tekellerinden kaçınılmalıdır.

Paylaşılan Refah: Yapay zekânın yarattığı faydalar ve ekonomik refah geniş bir kesimle paylaşılmalıdır.

Kurumsal Refah Yok: Yapay zeka şirketleri düzenleyici denetimden muaf tutulmamalı veya devletten mali destek almamalıdır.

Gerçek Değer Yaratımı: Yapay zeka geliştirme, gerçek sorunları çözmeye ve özgün değer yaratmaya öncelik vermelidir.

Büyük Geçişlerde Demokratik Otorite: Yapay zekanın iş hayatını, toplumu ve sivil yaşamı dönüştürmedeki rolüne ilişkin kararlar, tek taraflı şirket veya hükümet kararnameleriyle değil, demokratik destekle alınmalıdır.

Toplumsal Kilitlenmeden Kaçının: Yapay zekâ geliştirme, insanlığın gelecekteki seçeneklerini ciddi şekilde sınırlamamalı veya geleceğimiz üzerindeki etki gücümüzü geri döndürülemez bir şekilde kısıtlamamalıdır.

3.İnsan Deneyimini Korumak

Aile ve Topluluk Bağlarının Savunulması: Yapay zeka, hayata anlam veren temel ilişkilerin -aile, arkadaşlık, inanç toplulukları ve yerel bağlantılar- yerini almamalıdır.

Çocuk Koruma: Şirketlerin, yapay zeka etkileşimleri yoluyla duygusal bağ kurarak veya onları zor durumda bırakarak çocukları istismar etmelerine veya refahlarını zedelemelerine izin verilmemelidir.

Büyüme Hakkı: Yapay zeka şirketlerinin çocukların fiziksel, zihinsel veya sosyal gelişimini engellemesine veya kritik dönemlerde sağlıklı gelişimleri için gerekli olan temel deneyimlerden mahrum bırakmasına izin verilmemelidir.

Kullanım Öncesi Güvenlik Testleri: Tıpkı ilaçlar gibi, chatbot’lar da kullanım öncesinde intihar düşüncesinde artış, ruh sağlığı bozukluklarının kötüleşmesi, akut kriz durumlarının tırmanması ve diğer bilinen zararlar açısından test edilmelidir.

Yapay Zeka Tarafından Oluşturulan İçerik Etiketleme: İnsan tarafından oluşturulduğu sanılabilecek yapay zeka tarafından oluşturulan içerikler, açıkça bu şekilde etiketlenmelidir.

Aldatıcı Kimlik Yok: Yapay zekâ, kendisini açık ve doğru bir şekilde yapay, insan dışı ve profesyonel olmayan bir varlık olarak tanıtmalı ve sahip olmadığı deneyimleri iddia etmemelidir.

Davranışsal Bağımlılık Yok: Yapay zekâlar, manipülasyon, dalkavukça onaylama veya bağlanma oluşumu yoluyla bağımlılığa veya kompulsif kullanıma neden olmamalıdır

4.İnsan Eylemliliği ve Özgürlük

Yapay Zekaya Kişilik Tanıma: Yapay zekâ sistemlerine yasal kişilik tanınmamalı ve yapay zekâ sistemleri, kişiliği hak edecek şekilde tasarlanmamalıdır.

Güvenilirlik: Yapay zekâ şeffaf, hesap verebilir, güvenilir olmalı ve sapkın özel veya otoriter çıkarlardan arınmış olmalıdır.

Özgürlük: Yapay zekâ, bireysel özgürlüğü, ifade özgürlüğünü, dini uygulamaları veya dernek kurma özgürlüğünü kısıtlamamalıdır.

Veri Hakları ve Gizlilik: İnsanlar kişisel verileri üzerinde yetkiye sahip olmalı; bu verilere erişme, bunları düzeltme ve aktif sistemlerden, yapay zeka eğitim veri kümelerinden ve elde edilen çıkarımlardan silme haklarına sahip olmalıdırlar.

Psikolojik Gizlilik: Yapay zekânın kullanıcıların zihinsel veya duygusal durumlarına ilişkin verileri istismar etmesine izin verilmemelidir.

Zayıflatmayı Önlemek: Yapay zeka sistemleri, kullanıcılarını zayıflatmak yerine güçlendirmek üzere tasarlanmalıdır.

5.Yapay Zeka Şirketlerinin Sorumluluğu ve Hesap Verebilirliği

Sorumluluk Kalkanı Olmamalı: Yapay zekâ, onu kullananların eylemlerinden yasal olarak sorumlu tutulmasını engelleyen bir sorumluluk kalkanı görevi görmemelidir.

Geliştirici Sorumluluğu: Geliştiriciler ve dağıtımcılar, kusurlar, yeteneklerin yanlış beyanı ve yetersiz güvenlik kontrolleri nedeniyle yasal sorumluluk taşırlar ve zaman içinde ortaya çıkan zararları da hesaba katan zamanaşımı süreleri mevcuttur.

Kişisel Sorumluluk: Yasaklanmış, çocukları hedef alan veya felaket niteliğinde zararlara yol açan sistemlerden sorumlu yöneticiler için cezai yaptırımlar olmalıdır.

Bağımsız Güvenlik Standartları: Yapay zeka geliştirme süreci, bağımsız güvenlik standartları ve sıkı denetimle yönetilecektir.

Düzenleyici Etkiye Hayır: Yapay zeka şirketlerinin, kendilerini yöneten kurallar üzerinde aşırı etki sahibi olmalarına izin verilmemelidir.

Hata Şeffaflığı: Bir yapay zeka sistemi zarar verirse, bunun nedenini ve sorumlusunun kim olduğunu tespit etmek mümkün olmalıdır.

Yapay Zeka Sadakati: Sağlık, finans, hukuk veya terapi gibi güvene dayalı yükümlülükler içeren mesleklerde görev yapan yapay zeka sistemleri, zorunlu raporlama, özen yükümlülüğü, çıkar çatışması açıklaması ve bilgilendirilmiş onam dahil olmak üzere bu yükümlülüklerin tümünü yerine getirmelidir.

https://humanstatement.org/

Anket sonuçlarına ulaşmak için aşağıdaki linki tıklayınız.

https://humanstatement.org/poll-americans-support-pro-human-principles/

Scroll to Top