OpenAI Dosyaları: Eski çalışanlar, kâr hırsının yapay zeka güvenliğini tehlikeye attığını iddia ediyor.

Ryan Daws / 19 Haziran 2025

Endişeli eski çalışanların görüşlerini bir araya getiren ‘OpenAI Files’ raporu, dünyanın en önde gelen yapay zeka laboratuvarının kâr uğruna güvenliği hiçe saydığını iddia ediyor. Yapay zekanın tüm insanlığa hizmet etmesini sağlamak gibi asil bir arayış olarak başlayan bu girişim, şimdi muazzam kârlar peşinde koşarken güvenlik ve etiği göz ardı eden sıradan bir dev şirkete dönüşme tehlikesiyle karşı karşıya.

Her şeyin özünde, orijinal kural kitabını yerle bir etme planı yatıyor. OpenAI başladığında, önemli bir vaatte bulunmuştu: Yatırımcıların kazanabileceği para miktarına bir sınır koymuştu. Bu, dünyayı değiştirecek bir yapay zeka yaratmayı başarırlarsa, elde edilecek muazzam faydaların sadece bir avuç milyardere değil, insanlığa akacağının yasal bir garantisiydi. Şimdi ise, görünüşe göre sınırsız getiri isteyen yatırımcıları memnun etmek için bu vaat ortadan kalkmak üzere.

OpenAI’yi kuranlar için, yapay zeka güvenliğinden bu şekilde uzaklaşmak derin bir ihanet gibi geliyor. Eski çalışan Carroll Wainwright, “Kâr amacı gütmeyen kuruluş misyonu, riskler yükseldiğinde doğru olanı yapma vaadiydi,” diyor. “Artık riskler yükseldiğinde, kâr amacı gütmeyen kuruluş yapısı terk ediliyor, bu da vaadin nihayetinde boş olduğu anlamına geliyor.”

Güven krizi derinleşiyor

Bu derin endişeli seslerin çoğu tek bir kişiye işaret ediyor: CEO Sam Altman. Endişeler yeni değil. Raporlar, önceki şirketlerinde bile üst düzey meslektaşlarının, “aldatıcı ve kaotik” davranışları nedeniyle onu görevden almaya çalıştıklarını gösteriyor.

Aynı güvensizlik hissi onu OpenAI’ye de taşıdı. Şirketin kurucu ortağı, Altman ile yıllarca birlikte çalışmış ve o zamandan beri kendi girişimini kurmuş olan Ilya Sutskever, tüyler ürpertici bir sonuca vardı: “Bence Sam, Yapay Zeka (AGI) konusunda söz sahibi olması gereken kişi değil.” Altman’ın dürüst olmadığını ve potansiyel olarak ortak geleceğimizden sorumlu biri için korkutucu bir kombinasyon olan kaos yarattığını düşünüyordu.

Eski CTO Mira Murati de aynı derecede huzursuzdu. “Sam’in bizi Yapay Zeka’ya yönlendirmesi konusunda kendimi rahat hissetmiyorum,” dedi. Altman’ın insanlara duymak istediklerini söyleyip, yoluna çıktıklarında onları baltaladığı zehirli bir örüntüyü anlattı. Bu durum, eski OpenAI yönetim kurulu üyesi Tasha McCauley’nin, yapay zeka güvenliği riskleri bu kadar yüksekken “kabul edilemez” dediği bir manipülasyonu akla getiriyor.

Bu güven krizinin gerçek dünyada sonuçları oldu. İçeriden gelen bilgiler, OpenAI’daki kültürün değiştiğini ve yapay zeka güvenliği gibi kritik çalışmaların “parlak ürünler” piyasaya sürmenin gerisinde kaldığını söylüyor. Uzun vadeli güvenlikten sorumlu ekibin başındaki Jan Leike, hayati önem taşıyan araştırmalarını yapmak için ihtiyaç duydukları kaynakları elde etmekte zorlanarak “rüzgara karşı yelken açtıklarını” söyledi.

Şirketin eski çalışanlarından William Saunders ise ABD Senatosu’na verdiği ifadede, uzun süreler boyunca güvenliğin o kadar zayıf olduğunu, yüzlerce mühendisin GPT-4 de dahil olmak üzere şirketin en gelişmiş yapay zekasını çalabileceğini söyledi.

OpenAI’da yapay zeka güvenliğinin önceliklendirilmesi için çaresiz çağrı

Ancak ayrılanlar öylece çekip gitmiyor. OpenAI’yi uçurumun kenarından geri çekmek için bir yol haritası çizdiler; orijinal görevi kurtarmak için son bir çaba.

Şirketin kâr amacı gütmeyen kuruluşuna, güvenlik kararları üzerinde kesin bir veto yetkisiyle yeniden gerçek bir güç verilmesini talep ediyorlar. Sam Altman’ın davranışlarına ilişkin yeni ve kapsamlı bir soruşturma da dahil olmak üzere, açık ve dürüst bir liderlik talep ediyorlar.

Gerçek ve bağımsız bir denetim istiyorlar, böylece OpenAI yapay zeka güvenliği konusunda kendi ödevini yapmakla yetinmesin. Ayrıca, insanların işlerini veya birikimlerini kaybetme korkusu yaşamadan endişelerini dile getirebilecekleri, ihbarcılar için gerçek koruma sağlayan bir kültür talep ediyorlar.

Son olarak, OpenAI’nin orijinal finansal vaadine sadık kalması konusunda ısrar ediyorlar: kâr sınırları değişmemeli. Amaç, sınırsız özel servet değil, kamu yararı olmalı.

Bu sadece bir Silikon Vadisi şirketindeki iç dramla ilgili değil. OpenAI, dünyamızı hayal bile edemeyeceğimiz şekillerde yeniden şekillendirebilecek bir teknoloji geliştiriyor. Eski çalışanlarının hepimizi sormaya zorladığı soru basit ama derin bir soru: Geleceğimizi inşa etmek için kime güveneceğiz?

Eski yönetim kurulu üyesi Helen Toner’ın kendi deneyiminden yola çıkarak uyardığı gibi, “para söz konusu olduğunda şirket içi bariyerler kırılgan hale gelir.”

Şu anda OpenAI’ı en iyi bilenler bize bu güvenlik bariyerlerinin neredeyse kırıldığını söylüyor.

https://www.artificialintelligence-news.com/news/the-openai-files-ex-staff-claim-profit-greed-ai-safety/

 

 

Scroll to Top