Yapay Zeka Güvenliği Konusunda Uluslararası Diyaloglar

Yapay Zekanın yol açtığı aşırı risklere karşı mücadele etmek için dünyanın dört bir yanından bilim insanlarını bir araya getiriyoruz.

IDAIS-Venedik/5-8 Eylül 2024

Yapay zeka risklerinin küresel doğası, yapay zeka güvenliğinin küresel bir kamu malı olarak tanınmasını gerekli kılıyor

Batılı ve Çinli bilim insanları: Yapay zeka güvenliği “küresel kamu malı”dır, küresel iş birliğine acilen ihtiyaç vardır.

Önde gelen küresel Yapay Zeka (YZ) bilim insanları, hükümetleri ve araştırmacıları YZ risklerini ele almak için iş birliği yapmaya çağıran bir çağrı yayınladıkları Venedik’te Eylül ayında bir araya geldi. Turing Ödülü sahipleri Yoshua Bengio ve Andrew Yao ile UC Berkeley profesörü Stuart Russell, OBE ve Tsinghua Üniversitesi Kürsü Profesörü Zhang Ya-Qin de dahil olmak üzere bilgisayar bilim insanları, Berggruen Enstitüsü ile iş birliği içinde Güvenli YZ Forumu (SAIF) tarafından düzenlenen bir dizi Uluslararası YZ Güvenliği Diyalogları’nın (IDAIS) üçüncüsü için bir araya geldi.

Etkinlik Venedik’teki Casa dei Tre Oci’de üç gün boyunca gerçekleşti ve sözde yapay genel zeka etrafındaki güvenlik çabalarına odaklandı. İlk gün, AI risklerinin doğası ve bunlara karşı koymak için gereken çeşitli stratejiler etrafında dönen bir dizi tartışmayı içeriyordu. Oturum konuları arasında erken uyarı eşikleri, AI Güvenlik Enstitüleri, doğrulama ve uluslararası yönetim mekanizmaları yer aldı.

Bu tartışmalar, bilim insanları tarafından imzalanan ve yapay zeka güvenliğinin “küresel bir kamu malı” olduğu fikri etrafında şekillenen bir fikir birliği bildirisinin temeli haline geldi ve devletlerin yapay zeka güvenliğini akademik ve teknik faaliyetlerin iş birliği alanı olarak belirlemesini önerdi. Bildiri, üç politika ve araştırma alanı çağrısında bulundu. İlk olarak, yapay zeka riski konusunda koordinasyon sağlayabilecek bir dizi küresel otorite ve anlaşma olan “Acil Durum Hazırlık Anlaşmaları ve Kurumları”nı savundular. Ardından, gelişmiş yapay zeka sistemleri için daha kapsamlı bir güvenlik garantisi seti olan “Güvenlik Güvence Çerçeveleri” geliştirmeyi önerdiler. Son olarak, geliştiriciler veya devletler tarafından yapılan güvenlik iddialarının güvenilir olduğundan emin olmak için daha fazla yapay zeka güvenliği fonu ve doğrulama sistemleri araştırması yapılmasını savundular. Tam bildiriyi aşağıdaki linki tıklayarak okuyabilirsiniz.

İkinci gün bilim insanlarına bir grup politikacı, İrlanda eski Başkanı Mary Robinson ve diğer uzmanlar katıldı. Bilim insanları, yapay zeka gelişiminin hızlı temposu göz önüne alındığında bu önerilerin kullanılmasının aciliyetini vurguladı. Açıklama doğrudan politikacılara sunuldu ve grup, uluslararası toplumun bu hedeflere ulaşmak için nasıl birlikte çalışabileceği konusunda stratejiler geliştirdi.

Soğuk Savaş’ın derinliklerinde, uluslararası bilimsel ve hükümet koordinasyonu termonükleer felaketin önlenmesine yardımcı oldu. İnsanlığın, benzeri görülmemiş bir teknolojiden kaynaklanabilecek bir felaketi önlemek için yine koordinasyona ihtiyacı var.

https://idais.ai/

IDAIS-Venice – International Dialogues on AI Safety

 

 

Scroll to Top