Bir grup mevcut ve eski OpenAI çalışanına göre, günümüzün teknoloji şirketlerinin yapay zekanın riskleri hakkındaki bilgileri dünya hükümetleriyle paylaşma konusunda yalnızca ‘zayıf yükümlülükleri’ var.
Michael Kan, 04 Haziran 2024
Bir grup eski ve mevcut OpenAI çalışanı, çalışanların yapay zekanın potansiyel tehlikelerini kamuya açıklayabilmelerini sağlamak istiyor.
13 işçiden oluşan grup bir bildiri yayınladı. Açık mektup AI şirketlerinin, teknolojilerinin toplumsal karışıklığa yol açıp açmayacağı da dahil olmak üzere “etkili gözetimden kaçınmak için güçlü mali teşviklere sahip olduğunu” savunuyor.
Çalışanlar, “Şu anda bu bilgilerin bir kısmını hükümetlerle paylaşma konusunda firmaların zayıf yükümlülükleri var, sivil toplumla ise hiçbirini paylaşmıyorlar” diye yazdı. “Hepsinin bunu gönüllü olarak paylaşacağını düşünmüyoruz.”
işçiler, AI şirketlerini, çalışanlarına bu tür tehlikeler ortaya çıkarsa kamuoyunu bilgilendirmenin bir yolunu bulmak üzere tasarlanmış dört ilkeyi taahhüt etmeye çağırıyor. Daha da önemlisi, ilk prensip, AI şirketlerinin, AI riskleri hakkında konuşan çalışanları cezalandırmak için sözleşmeye dayalı anlaşmaları kullanmaktan kaçınması gerekecektir.
Mektubu yedi eski OpenAI çalışanı ve dört isimsiz mevcut personel imzaladı. Diğer iki imza sahibi arasında eski bir Google DeepMind araştırmacısı ve mevcut bir DeepMind çalışanı yer alıyor. Ek olarak, Yapay zeka öncüsü Geoffrey Hinton belgeyi onayladı.
Açık mektup, OpenAI’nin eleştirilmesinden birkaç hafta sonra geldi. Zorlama, ayrılan çalışanların şirketin ömür boyu kötülemesini engelleyen gizlilik anlaşmaları imzalaması.
Eski çalışanlar, OpenAI liderliğinin Gizlilik politikasından tamamen haberdar olduğunu iddia ediyor. “Bu kadar uzun süredir bu korkutma taktiklerini uygulamış olmaları ve ancak kamuoyu baskısı altında bu taktikleri düzeltmeleri endişe verici. Açık mektubu imzalayan eski bir OpenAI çalışanı olan Daniel Kokotajlo. “Bu politikaları imzalayan liderlerin bu politikalar hakkında bilgi sahibi olmadıklarını iddia etmeleri de endişe verici.”
Açık mektupta, günümüzün yapay zeka şirketlerindeki çalışanların, özellikle de şu anda “bu şirketler üzerinde etkili bir hükümet denetimi bulunmadığı” için halkı potansiyel tehlikeler konusunda uyarabilmelerinin hayati önem taşıdığı belirtiliyor. Sonuç olarak grup, yapay zeka şirketlerini, çalışanların yapay zeka risk endişelerini kurumsal kurullara, düzenleyicilere ve bağımsız kuruluşlara iletmeleri için anonim bir süreç başlatmaya çağırıyor.
Diğer iki ilke ayrıca yapay zeka şirketlerinin “açık eleştiri kültürünü desteklemesini” ve “diğer süreçler başarısız olduktan sonra riskle ilgili gizli bilgileri” kamuya açık olarak paylaşan çalışanları cezalandırmaktan kaçınmasını talep ediyor.
Özetle çalışanların 4 talebi şöyle sıralanabilir:
- Şirketler, riskle ilgili endişelerini dile getiren çalışanlara karşı aşağılayıcı hükümler uygulamayacak veya misilleme yapmayacak.
- Bu şirketler, çalışanların endişelerini kurullara, düzenleyicilere ve bağımsız uzmanlara iletmeleri için doğrulanabilir bir şekilde anonim bir süreci kolaylaştıracak.
- Şirketler açık eleştiri kültürünü destekleyecek ve ticari sırların uygun şekilde korunmasıyla çalışanların riskle ilgili endişelerini kamuya açık bir şekilde paylaşmasına izin verecek.
- Şirketlerin, diğer süreçler başarısız olduktan sonra riskle ilgili gizli bilgileri paylaşan çalışanlara karşı misilleme yapmaması.
OpenAI, yorum talebine hemen yanıt vermedi. Ancak geçen hafta şirket açıklama yaptı. OpenAI’nin uzun vadeli güvenlik ekibi önceki liderlerinin istifasının ardından gelecekteki yapay zeka projelerini denetlemek amacıyla yeni bir “Güvenlik ve Güvenlik Komitesi” oluşturdu. Altman, Google Haritalar’ın ortak yaratıcısı OpenAI Yönetim Kurulu Başkanı Bret Taylor ve Sony’nin genel danışmanı Nicole Seligman ile birlikte yeni komiteye liderlik edecek.
Aynı komite aynı zamanda eski NSA Siber Güvenlik Direktörü gibi üçüncü taraf uzmanlardan da görüş alacak.Rob Joyceve eski ABD Ulusal Güvenlikten Sorumlu Başsavcı Yardımcısı John Carlin.
GÜNCELLEME: OpenAI, PCMag’e şu beyanı gönderdi: “En yetenekli ve en güvenli yapay zeka sistemlerini sağlayan geçmiş performansımızdan gurur duyuyoruz ve riski ele alma konusundaki bilimsel yaklaşımımıza inanıyoruz. Bu teknolojinin önemi göz önüne alındığında, sıkı tartışmaların çok önemli olduğu konusunda hemfikiriz ve Dünyanın her yerindeki hükümetler, sivil toplum ve diğer topluluklarla ilişkiler kurmaya devam edeceğiz.”
https://uk.pcmag.com/ai/152644/openai-staffers-demand-right-to-warn-the-public-about-ai-dangers