Will Knigth
Ulusal Standartlar ve Teknoloji Enstitüsü (NIST), ABD Yapay Zeka Güvenlik Enstitüsü (AISI) ile ortaklık yapan bilim insanlarına, üyelerinden beklediği becerilerde “Yapay Zeka güvenliği”, “sorumlu Yapay Zeka” ve “Yapay Zeka adaleti” ifadelerinin kaldırılması ve “ideolojik önyargıların azaltılması, insanlığın gelişmesi ve ekonomik rekabet gücünün sağlanması” önceliğinin belirlenmesi talebini içeren yeni talimatlar yayınladı.
Bilgiler, Mart ayı başında gönderilen AI Safety Institute konsorsiyum üyeleri için güncellenmiş bir kooperatif araştırma ve geliştirme anlaşmasının parçası olarak geliyor. Daha önce, bu anlaşma araştırmacıları cinsiyet, ırk, yaş veya servet eşitsizliğiyle ilgili ayrımcı model davranışlarını belirlemeye ve düzeltmeye yardımcı olabilecek teknik çalışmalara katkıda bulunmaya teşvik ediyordu. Bu tür önyargılar son derece önemlidir çünkü doğrudan son kullanıcıları etkileyebilir ve azınlıklara ve ekonomik olarak dezavantajlı gruplara orantısız bir şekilde zarar verebilir.
Yeni anlaşma, “içeriği doğrulamak ve kökenini izlemek için” araçlar geliştirme ve “sentetik içerik etiketleme” ifadelerini kaldırarak yanlış bilgi ve derin sahtecilikleri izleme konusunda daha az ilgi olduğunu gösteriyor. Ayrıca, bir çalışma grubundan “Amerika’nın küresel AI konumunu genişletmek için” test araçları geliştirmesini isteyerek Amerika’yı ilk sıraya koymaya vurgu yapıyor.
AI Güvenlik Enstitüsü ile çalışan bir kuruluşta çalışan ve isminin açıklanmasını istemeyen bir araştırmacı, “Trump yönetimi, AI için değer verdiği şeyler arasında güvenliği, adaleti, yanlış bilgiyi ve sorumluluğu ortadan kaldırdı ve bence bu kendi kendini açıklıyor” diyor.
Araştırmacı, bu sorunları görmezden gelmenin, gelir veya diğer demografik özelliklere göre ayrımcılık yapan algoritmaların kontrol edilmeden kalmasına izin vererek normal kullanıcılara zarar verebileceğine inanıyor. “Teknoloji milyarderi değilseniz, bu sizin ve önemsediğiniz insanlar için daha kötü bir geleceğe yol açacaktır. Yapay zekanın adil, ayrımcı, güvenli olmayan ve sorumsuzca kullanılmasını bekleyin,” diyor araştırmacı.
“Bu vahşi,” diyor geçmişte AI Safety Institute ile çalışmış başka bir araştırmacı. “İnsanların gelişmesi için ne anlama geliyor?”
Şu anda Başkan Trump adına hükümet harcamalarını ve bürokrasiyi azaltmak için tartışmalı bir çabaya öncülük eden Elon Musk , OpenAI ve Google tarafından oluşturulan AI modellerini eleştirdi. Geçtiğimiz Şubat ayında, Gemini ve OpenAI’nin “ırkçı” ve “uyanık” olarak etiketlendiği bir meme X’te paylaştı. Sık sık Google’ın modellerinden birinin, nükleer kıyameti önleyecek olsa bile birinin cinsiyetini yanlış belirtmenin yanlış olup olmayacağını tartıştığı bir olayı örnek gösteriyor ; bu oldukça düşük bir ihtimal. Musk, Tesla ve SpaceX’in yanı sıra, OpenAI ve Google ile doğrudan rekabet eden bir AI şirketi olan xAI’yi yönetiyor. WIRED’ın bildirdiğine göre, xAI’ye danışmanlık yapan bir araştırmacı yakın zamanda büyük dil modellerinin siyasi eğilimlerini muhtemelen değiştirmek için yeni bir teknik geliştirdi.
Artan sayıda araştırma, AI modellerindeki siyasi önyargının hem liberalleri hem de muhafazakarları etkileyebileceğini gösteriyor . Örneğin, 2021’de yayınlanan Twitter’ın öneri algoritması üzerine bir çalışma, kullanıcıların platformda sağ eğilimli bakış açılarının gösterilme olasılığının daha yüksek olduğunu gösterdi.
Ocak ayından bu yana Musk’ın sözde Hükümet Verimliliği Bakanlığı (DOGE) ABD hükümetini ele geçirerek memurları fiilen işten çıkarıyor, harcamaları durduruyor ve Trump yönetiminin amaçlarına karşı çıkabilecek kişilere düşmanca olduğu düşünülen bir ortam yaratıyor. Eğitim Bakanlığı gibi bazı hükümet departmanları DEI’den bahseden belgeleri arşivledi ve sildi. DOGE ayrıca son haftalarda AISI’nin ana kuruluşu olan NIST’i hedef aldı. Düzinelerce çalışan işten çıkarıldı.
AI Safety Institute ile çalışan kâr amacı gütmeyen bir kuruluş olan Eleuther’in yönetici direktörü Stella Biderman, “Bu değişiklikler büyük ölçüde doğrudan Beyaz Saray’dan geliyor,” diyor. “Yönetim önceliklerini açıkça belirtti ve [ve] varlığımızı sürdürmek için planın yeniden yazılmasının gerekli olması benim için şaşırtıcı değil.”
Aralık ayında Trump, Musk’ın uzun süreli ortağı David Sacks’ı Beyaz Saray AI ve kripto çarı olarak atadı. Şu anda onun veya Beyaz Saray’dan herhangi birinin yeni araştırma gündemini belirlemede yer alıp almadığı belirsiz. Ayrıca yeni ifadenin çoğu araştırmacının yaptığı iş üzerinde çok fazla etkisi olup olmayacağı da belirsiz.
Yapay Zeka Güvenlik Enstitüsü , Biden yönetimi tarafından Ekim 2023’te, yapay zeka alanındaki hızlı ilerlemeye ilişkin endişelerin arttığı bir dönemde yayınlanan bir yürütme emriyle kuruldu .
Biden yönetiminde enstitü, siber saldırılar başlatmak veya kimyasal veya biyolojik silahlar geliştirmek için kullanılıp kullanılamayacakları gibi en güçlü yapay zeka modelleriyle ilgili bir dizi potansiyel sorunu ele almakla görevlendirildi. Görevinin bir parçası, modellerin ilerledikçe aldatıcı ve tehlikeli hale gelip gelemeyeceğini belirlemekti.
Trump yönetiminin bu Ocak ayında yayınladığı bir yürütme emri, Biden’ın emrini iptal etti ancak AI Güvenlik Enstitüsü’nü yerinde tuttu. Yürütme emrinde, “Bu liderliği sürdürmek için ideolojik önyargılardan veya tasarlanmış toplumsal gündemlerden uzak AI sistemleri geliştirmeliyiz” ifadesi yer alıyor.
Şubat ayında Paris’te düzenlenen AI Action Summit’te konuşan başkan yardımcısı JD Vance, ABD hükümetinin AI’yı geliştirme ve AI’dan faydalanma yarışında Amerikan rekabet gücüne öncelik vereceğini söyledi. Vance, dünyanın dört bir yanından gelen katılımcılara , “AI geleceği güvenlik konusunda endişelenerek kazanılmayacak,” dedi . Etkinliğe katılan ABD heyetinde AI Safety Institute’tan kimse yoktu .
Odaktaki değişimin yapay zekayı daha adaletsiz ve güvensiz hale getirebileceği konusunda uyarıda bulunan araştırmacı, ayrıca birçok yapay zeka araştırmacısının yapay zeka güvenliği konusunda tartışmaya gelince masada yerlerini koruyabilmek için Cumhuriyetçiler ve destekçileriyle yakınlaştığını iddia ediyor. “Umarım bu insanların ve kurumsal destekçilerinin sadece güçle ilgilenen yüz yiyen leoparlar olduğunu fark etmeye başlarlar,” diyor araştırmacı.
Beyaz Saray, WIRED’ın yorum talebine hemen yanıt vermedi.
https://www.wired.com/story/ai-safety-institute-new-directive-america-first/