
Karine Perset / James Gealy / Sara Fialho Esposito / Karine Perset / James Gealy / Sara Fialho Esposito / 11 Haziran 2025
Yapay zeka (YZ) sistemleri ekonomilerimize ve toplumlarımıza giderek daha fazla entegre olurken, güvenilirlikleri, emniyetleri ve toplumsal etkileriyle ilgili sorular hiç bu kadar acil olmamıştı. Bu endişeleri gidermek için, G7 ülkeleri tarafından 2023’te Hiroşima YZ Süreci (YZIP) başlatıldı ve gelişmiş YZ sistemleri geliştiren kuruluşlar için çığır açıcı bir uluslararası davranış kurallarıyla sonuçlandı.
Bu kodun uygulanmasını desteklemek için OECD, gönüllü bir raporlama çerçevesi tasarlamak üzere hükümet, iş dünyası, akademi ve sivil toplumdan uzmanlarla çalıştı. Bu çerçeve, şeffaflığı teşvik etmeyi, akran öğrenimini desteklemeyi ve yapay zeka gelişimini demokratik değerler ve paylaşılan küresel çıkarlarla uyumlu hale getirmeyi amaçlamaktadır. 2024 ortalarında pilot olarak uygulandı ve Şubat 2025’te Fransız Yapay Zeka Eylem Zirvesi’nde resmi olarak başlatıldı.
Bu blog yazısında, HAIP çerçevesi aracılığıyla gönderilen ilk organizasyonel rapor dalgasından ön içgörüleri paylaşıyoruz. Bu bulgular, önde gelen şirketlerin ve kurumların AI ile ilgili riskleri nasıl ele aldıklarına, şeffaflığı nasıl teşvik ettiklerine ve sistemlerini kamu yararına nasıl uyumlu hale getirdiklerine dair bir bakış sunuyor.
Büyük teknoloji şirketlerinden küçük araştırma enstitülerine kadar dünyanın dört bir yanından katılımcılar
Şubat ve Nisan 2025 arasında, 19 kuruluş gönüllü olarak HAIP çerçevesini kullanarak raporlar sundu. Çoğu, Japonya, Amerika Birleşik Devletleri, Almanya, Kanada, Kore, Romanya ve İsrail’den temsilcilerle gelişmiş AI sistemlerinin geliştiricileri veya dağıtımcılarıydı. Katılımcılar arasında hem büyük teknoloji firmaları hem de daha küçük danışmanlık veya araştırma kurumları vardı ve AI’nın sorumlu bir şekilde nasıl geliştirileceği ve dağıtılacağı konusunda çok çeşitli bakış açıları sağladılar.
Çerçeve neleri kapsıyor?
HAIP raporlama çerçevesi, G7 davranış kurallarının eylemlerine karşılık gelen yedi tematik alan etrafında düzenlenmiştir:
- Risk tanımlama ve değerlendirme
- Risk yönetimi ve bilgi güvenliği
- Şeffaflık raporlaması
- Kurumsal yönetişim ve olay yönetimi
- İçerik doğrulama ve menşei
- Yapay zeka güvenliğine yönelik araştırma ve yatırım
- İnsan ve küresel çıkarları ilerletmek
Her bölüm, kuruluşların uygulamalarını yansıtmaları ve iletmeleri için yapılandırılmış bir yaklaşım sunarak, ortaya çıkan uluslararası standartlara göre kıyaslama yapılmasına yardımcı oluyor.
Temel bulgular
-
Yapay zeka risk değerlendirmesine yönelik çeşitli yaklaşımlar
Kuruluşlar riskleri belirlemek ve değerlendirmek için çeşitli yöntemler kullanıyor. Bunlar teknik değerlendirmelerden ve düşmanca testlerden paydaş katılımına ve uzman incelemesine kadar uzanıyor. Daha büyük şirketler genellikle toplumsal önyargı veya büyük ölçekli kötüye kullanım gibi sistemsel risklere odaklanırken, daha küçük kuruluşlar sektöre özgü endişeleri vurguluyor.
Özellikle, diğer AI sistemlerini test etmek için AI araçlarının kullanımı artıyor. Birkaç katılımcı ayrıca, güvenlik açıklarını belirlemek için kırmızı ve mor takım oluşturma gibi yapılandırılmış risk çerçeveleri ve test prosedürleri uyguluyor.
-
Katmanlı risk yönetimi ve güvenlik
Tüm katılımcılar, teknik güvenlik önlemleri (model ince ayarı ve güvenli test ortamları gibi), prosedürel kontroller ve gerçek zamanlı izleme dahil olmak üzere AI risklerini yönetmek için çok katmanlı stratejiler kullandıklarını bildirdi. Güvenli test ortamları ve sağlam siber güvenlik uygulamaları (genellikle ISO veya NIST standartlarıyla uyumludur) standarttır.
Gizlilik ve fikri mülkiyete de dikkat ediliyor: Bazı kuruluşlar web içeriği sağlayıcılarının veri kazıma işlemini devre dışı bırakmasına izin verirken, diğerleri gizlilik filtreleri ve sözleşmesel güvenlik önlemleri kullanıyor.
-
Şeffaflık uygulamaları sektöre göre değişir
Tüketiciye yönelik şirketler sıklıkla model kartları ve şeffaflık açıklamaları gibi kapsamlı raporlar yayınlar. İşletmeden işletmeye (B2B) firmalar genellikle bu tür bilgileri müşterileriyle özel olarak paylaşır. Genel olarak, AI sistemi sınırlamaları, riskleri ve güncellemeleri ile ilgili şeffaflık artmaktadır.
Ancak, eğitim verisi şeffaflığıyla ilgili uygulamalar tutarsız kalmaya devam ediyor. Bazı açık ağırlık modelleri kapsamlı bir şekilde belgelenmiş olsa da, diğerleri daha az açık sözlüdür, özellikle B2B sağlayıcıları arasında.
-
Daha güçlü kurumsal yönetim
Çoğu kuruluş, AI riskini genel risk yönetim sistemlerine dahil ediyor veya özel AI yönetişim çerçeveleri oluşturuyor. Bu girişimler genellikle personel eğitimini, olay müdahale protokollerini ve bazı durumlarda yönetim kurulu düzeyinde denetimi kapsıyor.
Bazı kuruluşlar risk yönetimi uygulamalarını doğrulamak için üçüncü taraf denetimlerine veya uzman panellerine de güvenmektedir. Olay yönetimi giderek daha şeffaf hale geliyor ve birçok şirket güncellemeler yayınlıyor ve tehdit bilgi paylaşımı girişimlerinde bulunuyor.
-
İçerik doğrulamasında ilk adımlar
Birçok kuruluş artık kullanıcıları AI ile etkileşime girdiklerinde feragatnameler veya arayüz tasarımı kullanarak bilgilendiriyor. Ancak, AI tarafından oluşturulan içeriği doğrulamak için kullanılan teknik araçlar (filigranlama veya kriptografik kimlik bilgileri gibi) hala erken aşamalarda. Şu anda, benimseme birkaç büyük teknoloji şirketi tarafından yönetiliyor.
Sınırlı bir ilgi görmesine rağmen, birçok kuruluş bu araçlara yatırım yapıyor ve C2PA ve NIST’in Sentetik İçerik Görev Gücü gibi girişimler de dahil olmak üzere uluslararası standart belirleme çabalarına katkıda bulunuyor.
-
Yapay zeka güvenliği ve araştırmasına yatırım yapmak
Kuruluşlar, yapay zeka güvenliğini, adaletini ve yorumlanabilirliğini artırmak için giderek daha fazla Ar-Ge’ye yatırım yapıyor. Bu çabalar arasında dahili güvenlik laboratuvarları, açık kaynaklı araçlar ve akademi ve sivil toplumla işbirlikleri yer alıyor.
Birçok katılımcı, Frontier Model Forum, Yapay Zeka Güvenlik Konsorsiyumu ve OECD’nin Güvenilir Yapay Zeka için Araçlar ve Ölçütler Kataloğu gibi girişimler aracılığıyla küresel güvenlik normlarının geliştirilmesine katkıda bulunuyor.
-
Kamu yararı ve küresel öncelikler için yapay zeka
Birçok kuruluş, iklim dayanıklılığı ve halk sağlığından eğitim ve erişilebilirliğe kadar uzanan toplumsal zorlukları ele almak için AI’yı uyguladığını bildirdi. Örnekler arasında tüberküloz için AI destekli teşhisler, dijital okuryazarlık programları ve yenilenebilir enerjiyle çalışan sürdürülebilir veri altyapısı yer almaktadır.
Bu girişimler genellikle ESG öncelikleri ve BM Sürdürülebilir Kalkınma Hedefleri ile bağlantılıdır. Önemlisi, bazı kuruluşlar yetersiz hizmet alan bölgeler için araçlar tasarlıyor ve kapsayıcı AI sistemleri tasarlamak için sivil toplum gruplarıyla iş birliği yapıyor.
Gelecekteki raporlama için çerçevenin değerini artırmaya yönelik fikirler
Katılımcılar, HAIP raporlama sürecini dahili koordinasyon, kıyaslama ve AI yönetimi etrafındaki rolleri ve sorumlulukları netleştirme açısından değerli buldular. Çerçevenin halihazırda faydalı olduğu kanıtlanmış olsa da, alaka düzeyini ve kullanılabilirliğini güçlendirmek için alan var:
- Teknolojik değişime ayak uydurun: Yapay zeka yetenekleri geliştikçe, çerçeve de uyum sağlamalıdır. Katılımcılar, yeni riskleri ve uygulamaları yansıtmak için çerçevenin yıllık olarak güncellenmesini önerdiler.
- Raporlamayı kolaylaştırın: Yapılandırılmış yanıt seçenekleri, açılır menüler ve daha net rehberlik sağlamak tutarlılığı artırabilir ve katılıma yönelik engelleri azaltabilir.
- Kişiye özel destek sunun: Geliştiriciler, dağıtımcılar ve politika yapıcılar için role özgü modüller, yapay zeka değer zinciri genelinde katılımın genişletilmesine yardımcı olabilir.
- Akran öğrenimini teşvik edin: Katılımcılar arasında kolaylaştırılmış tartışmalar ve en iyi uygulama paylaşımları, güvenilir yapay zeka etrafındaki uygulama topluluğunu güçlendirebilir.
Küresel AI şeffaflığı için bir temel
HAIP raporlama çerçevesi, gelişmiş AI sistemlerinin geliştirilmesinde daha fazla şeffaflık ve hesap verebilirliğe doğru umut verici bir adımdır. Kuruluşlar uygulamalarını gönüllü olarak ifşa ederek yalnızca kamu güvenini oluşturmakla kalmaz, aynı zamanda sorumlu AI’nın pratikte nasıl göründüğüne dair ortak bir anlayışın şekillenmesine de yardımcı olur.
OECD, çerçeveyi iyileştirmek, katılımcı kuruluşları desteklemek ve erişimini genişletmek için ortaklarla çalışmaya devam edecektir. Bu erken içgörüler, Hiroşima AI Sürecini işlevsel hale getirme ve güvenilir AI’yı küresel ölçekte ilerletme yönünde daha geniş bir yolculuğun başlangıcını işaret ediyor.