Yapay Zeka Güvenliği Zirvesine katılan Ülkelerin “Bletchley Deklerasyonu”

1-2 Kasım 2023

Yapay Zeka (YZ)  muazzam küresel fırsatlar sunuyor: İnsanlığın refahını, barışını ve refahını dönüştürme ve geliştirme potansiyeline sahip. Bunu gerçekleştirmek için yapay zekanın herkesin iyiliği için güvenli, insan odaklı, güvenilir ve sorumlu olacak şekilde tasarlanması, geliştirilmesi, konuşlandırılması ve kullanılması gerektiğini onaylıyoruz . Kapsayıcı ekonomik büyümeyi, sürdürülebilir kalkınmayı ve yeniliği teşvik etmek, insan haklarını ve temel özgürlükleri korumak ve potansiyellerini tam olarak gerçekleştirmek için  yapay zeka sistemlerine halkın güvenini ve inancını geliştirmek amacıyla uluslararası toplumun şimdiye kadar yapay zeka konusunda işbirliği yapma çabalarını memnuniyetle karşılıyoruz.

Yapay zeka sistemleri halihazırda konut, istihdam, ulaşım, eğitim, sağlık, erişilebilirlik ve adalet de dahil olmak üzere günlük yaşamın birçok alanında kullanılıyor ve kullanımlarının artması muhtemel. Bu nedenle bunun, yapay zekanın güvenli bir şekilde geliştirilmesi ve yapay zekanın dönüştürücü fırsatlarının ülkelerimizde ve küresel olarak kapsayıcı bir şekilde iyilik ve herkes için kullanılması ihtiyacını harekete geçirmek ve onaylamak için eşsiz bir an olduğunun farkındayız . Buna sağlık ve eğitim, gıda güvenliği, bilim, temiz enerji, biyolojik çeşitlilik ve iklim gibi kamu hizmetleri, insan haklarından yararlanmanın gerçekleştirilmesi ve Birleşmiş Milletler Sürdürülebilir Kalkınma Hedeflerine ulaşılmasına yönelik çabaların güçlendirilmesi de dahildir.

Bu fırsatların yanı sıra yapay zeka , günlük yaşamın bu alanları da dahil olmak üzere önemli riskler de teşkil ediyor. Bu amaçla, yapay zeka sistemlerinin mevcut forumlarda ve diğer ilgili girişimlerde potansiyel etkisini incelemeye ve ele almaya yönelik ilgili uluslararası çabaları ve insan haklarının korunması, şeffaflık ve açıklanabilirlik, adalet, hesap verebilirlik, düzenleme, güvenlik, uygun koşulların tanınmasını memnuniyetle karşılıyoruz. insan gözetimi, etik, önyargının azaltılması, mahremiyet ve veri koruma konularının ele alınması gerekmektedir. Ayrıca içeriği manipüle etme veya yanıltıcı içerik oluşturma yeteneğinden kaynaklanan öngörülemeyen risk potansiyeline de dikkat çekiyoruz. Bu konuların tümü kritik öneme sahiptir ve bunların ele alınmasının gerekliliğini ve aciliyetini tasdik ederiz.

Yapay zekanın ‘sınırında’ özel güvenlik riskleri ortaya çıkar ; bu riskler, çok çeşitli görevleri yerine getirebilen temel modeller de dahil olmak üzere oldukça yetenekli genel amaçlı yapay zeka modelleri ve ayrıca aşağıdakilere neden olabilecek yetenekler sergileyebilecek ilgili spesifik dar yapay zeka olarak anlaşılır.

Önemli riskler, potansiyel kasıtlı yanlış kullanımdan veya insan amacına uyumla ilgili istenmeyen kontrol sorunlarından kaynaklanabilir. Bu sorunlar kısmen bu yeteneklerin tam olarak anlaşılmamasından ve dolayısıyla tahmin edilmesinin zor olmasından kaynaklanmaktadır. Siber güvenlik ve biyoteknoloji gibi alanlardaki risklerin yanı sıra, yapay zeka sistemlerinin dezenformasyon gibi riskleri artırabileceği alanlardaki bu tür risklerden özellikle endişe duyuyoruz . Bu yapay zeka modellerinin en önemli yeteneklerinden kaynaklanan, kasıtlı veya kasıtsız ciddi, hatta felaket düzeyinde zarar potansiyeli vardır . Yapay zekanın hızlı ve belirsiz değişim hızı göz önüne alındığında ve teknolojiye yatırımın hızlanması bağlamında, bu potansiyel risklere ve bunlara yönelik eylemlere ilişkin anlayışımızı derinleştirmenin özellikle acil olduğunu onaylıyoruz.

Yapay zekadan kaynaklanan birçok risk doğası gereği uluslararası niteliktedir ve bu nedenle en iyi şekilde uluslararası işbirliği yoluyla ele alınabilir. Güvenli ve mevcut uluslararası forumlar ve diğer ilgili girişimler aracılığıyla herkesin iyiliğini destekleyen, insan odaklı, güvenilir ve sorumlu yapay zekayı sağlamak için kapsayıcı bir şekilde birlikte çalışmaya ve yapay zekanın oluşturduğu geniş yelpazedeki riskleri ele almak için işbirliğini teşvik etmeye kararlıyız.

Bunu yaparken, ülkelerin, faydaları en üst düzeye çıkaran ve yapay zeka ile ilişkili riskleri dikkate alan inovasyon yanlısı ve orantılı bir yönetişim ve düzenleyici yaklaşımın önemini dikkate alması gerektiğinin farkındayız . Bu, uygun olduğu durumlarda, ulusal koşullara ve geçerli yasal çerçevelere dayalı olarak risk sınıflandırmalarının ve kategorizasyonlarının yapılmasını içerebilir. Ayrıca, uygun olduğu durumlarda, ortak ilkeler ve davranış kuralları gibi yaklaşımlar konusunda işbirliğinin önemine de dikkat çekiyoruz. Yapay zeka ile ilgili olarak bulunması muhtemel belirli risklerle ilgili olarak , mevcut uluslararası forumlar ve aşağıdakiler de dahil olmak üzere diğer ilgili girişimler aracılığıyla işbirliğimizi yoğunlaştırmaya ve sürdürmeye ve bunu daha fazla ülkeyle genişletmeye, tanımlamaya, anlamaya ve uygun şekilde harekete geçmeye kararlıyız.

Yapay zekanın güvenliğinin sağlanmasında tüm aktörlerin oynayacakları bir rol var : ulusların, uluslararası forumların ve diğer girişimlerin, şirketlerin, sivil toplumun ve akademi dünyasının birlikte çalışması gerekecek. Kapsayıcı yapay zekanın ve dijital uçurumun kapatılmasının önemine dikkat çekerek, uluslararası işbirliğinin geniş bir yelpazedeki ortakları uygun şekilde devreye sokmaya ve dahil etmeye çabalaması gerektiğini yeniden teyit ediyoruz ve gelişmekte olan ülkelerin yapay zeka kapasitesini geliştirmesine ve bunlardan yararlanmasını güçlendirmesine yardımcı olabilecek kalkınma odaklı yaklaşımları ve politikaları memnuniyetle karşılıyoruz. Yapay zekanın sürdürülebilir büyümeyi destekleme ve kalkınma açığını giderme konusundaki kolaylaştırıcı rolü .

Güvenliğin yapay zeka yaşam döngüsü boyunca dikkate alınması gerekse de , ileri düzeyde yapay zeka yetenekleri geliştiren aktörlerin , özellikle de alışılmadık derecede güçlü ve potansiyel olarak zararlı yapay zeka sistemlerinin, sistemler aracılığıyla da dahil olmak üzere bu yapay zeka sistemlerinin güvenliğini sağlama konusunda özellikle güçlü bir sorumluluğa sahip olduğunu onaylıyoruz.

Değerlendirmeler yoluyla ve diğer uygun önlemlerle güvenlik testleri için, ilgili tüm aktörleri, özellikle kötüye kullanımı, kontrol sorunlarını ve diğer risklerin artmasını önlemek amacıyla potansiyel olarak zararlı yetenekleri ve ortaya çıkabilecek ilgili etkileri ölçmeye, izlemeye ve azaltmaya yönelik planlarında bağlama uygun şeffaflık ve hesap verebilirlik sağlamaya teşvik ediyoruz.

İşbirliğimiz bağlamında ve ulusal ve uluslararası düzeydeki eylemleri bilgilendirmek amacıyla, yapay zeka riskini ele alma gündemimiz aşağıdakilere odaklanacaktır:

  • Yapay zekanın toplumlarımız üzerindeki etkisini anlamaya yönelik daha geniş bir küresel yaklaşım bağlamında, ortak endişe yaratan yapay zeka güvenlik risklerinin belirlenmesi , bu risklere ilişkin ortak bilimsel ve kanıta dayalı bir anlayış oluşturulması ve yetenekler artmaya devam ettikçe bu anlayışın sürdürülmesi.
  • Bu tür riskler ışığında güvenliği sağlamak için ülkelerimiz genelinde ilgili risk bazlı politikalar oluşturmak, yaklaşımlarımızı göz önünde bulundurarak uygun şekilde işbirliği yapmak, ulusal koşullara ve geçerli yasal çerçevelere göre farklılık gösterebilir. Bu, öncü yapay zeka yeteneklerini geliştiren özel aktörlerin artan şeffaflığının yanı sıra , uygun değerlendirme ölçütlerini, güvenlik testi araçlarını ve ilgili kamu sektörü kapasitesinin ve bilimsel araştırmaların geliştirilmesini de içerir.

Bu gündemi ilerletmek amacıyla, mevcut uluslararası forumlar ve diğer ilgili girişimler aracılığıyla mevcut ve yeni çok taraflı, çok taraflı ve ikili işbirliklerini kapsayan ve tamamlayan yapay zeka güvenliği konusunda uluslararası kapsayıcı bir bilimsel araştırma ağını desteklemeye kararlıyız.

Yapay zekanın dönüştürücü olumlu potansiyelinin bilincinde olarak ve yapay zeka konusunda daha geniş uluslararası işbirliği sağlamanın bir parçası olarak , mevcut uluslararası forumları ve diğer ilgili girişimleri bir araya getiren ve daha geniş uluslararası tartışmalara açık bir şekilde katkıda bulunan kapsayıcı bir küresel diyaloğu sürdürmeye kararlıyız ve Teknolojinin faydalarından iyilik ve herkes için sorumlu bir şekilde yararlanılabilmesini sağlamak amacıyla  yapay zeka güvenliği konusunda araştırmalara devam etmek hedeflenmiştir. 2024’te tekrar buluşmayı sabırsızlıkla bekliyoruz.

https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023

Scroll to Top