Sorumlu bir yapay zeka geleceği inşa etmek: G7 Hiroşima Yapay Zeka Süreci dünya çapında sorumlu yapay zekayı nasıl geliştiriyor?

 

Aliki Foinikopoulou /Küresel Kamu Politikası Başkanı , Salesforce / Temmuz 2025

Yapay zeka alanı hızla gelişiyor ve aracı yapay zekanın yükselişiyle birlikte güven hiç bu kadar kritik olmamıştı. İşletmeler yapay zekayı operasyonlarına ve müşteri deneyimlerine entegre etmeye devam ettikçe, liderler bu teknolojilerin sorumlu bir şekilde geliştirilip devreye alınmasını sağlamalıdır. Güven ve sorumlulukla liderlik etmek isteğe bağlı değildir. Kurumsal müşteriler, yapay zeka benimseme yolculuklarının bir parçası olarak buna ihtiyaç duyar ve yapay zekanın herkes için fırsatlar yarattığı bir gelecek için güven olmazsa olmazdır.

Salesforce, OECD tarafından G7 Hiroşima Yapay Zeka Süreci (HAIP) kapsamında geliştirilen raporlama çerçevesine katkıda bulunan ilk şirketlerden biri olmaktan gurur duymaktadır . Bu tür gönüllü çerçeveler, kuruluşların yapay zeka geliştirme ve dağıtımının her aşamasında etik uygulamaları, şeffaflığı ve yönetişimi önceliklendirmesini sağlayarak daha güvenilir yapay zeka ekosistemlerinin oluşmasını ve en iyi uygulamalar konusunda küresel uyumun güçlendirilmesini sağlar.

Risk tanımlaması: Güvenilir yapay zekanın temellerinin atılması

Etkili ve sorumlu bir yapay zeka yaklaşımı, kapsamlı bir risk tanımlama ve değerlendirme stratejisiyle başlar. Kuruluşlar, özellikle ciddi zararlara yol açabilecekler olmak üzere, yapay zeka ile ilgili farklı risk türlerini tanımlamalı ve sınıflandırmalıdır. Bu, yapay zeka sistemlerinin sıklıkla çeşitli bağlamlarda uyarlandığı ve kullanıldığı kurumsal ortamlarda özellikle önemlidir.

Devam eden risk yönetimi: Yapay zeka sistemlerinin gerçek zamanlı olarak korunması

Sorumlu yapay zeka uzmanları, etkili azaltma stratejileri geliştirmek için inovasyon sürecinin tüm aşamalarında ürün ekipleriyle yakın iş birliği içinde çalışmalıdır. Salesforce’un “güven kalıpları” gibi standartlaştırılmış sınırlar , dikkatli karar alma için kontrol noktaları sunan bilinçli sürtünme veya kullanıcıları yapay zeka sistemleriyle etkileşime girdiklerinde bilgilendiren şeffaflık bildirimleri gibi özellikler içerebilir.

Kuruluşlar ayrıca, ürün geliştirme sürecinin her aşamasında veri gizliliğini ve güvenliğini koruyan kapsamlı çerçeveler oluşturmalıdır. Salesforce’un  Güven Katmanı , güvenli veri işleme, sıfır veri saklama, tasarım gereği etik, denetim izi ve gerçek zamanlı toksisite tespiti gibi işlevleri içerir.

Son olarak, Salesforce, kurumsal müşterilerden, ürünleri önyargı, gizlilik ve doğruluk gibi güven ve emniyet ölçütlerine göre test etmenin önemli bir iş stratejisi ve avantajı olduğuna dair net kanıtlar elde etti. Salesforce’ta, kontrollü ortamlarda potansiyel riskleri simüle ederek ürünlerdeki güvenlik açıklarını ve riskleri tespit eden kırmızı takım çalışmaları düzenli olarak sunuyoruz. Bu tür taktikler, otonom ajanların giderek yaygınlaşmasıyla birlikte özellikle önem kazanıyor.

Şeffaflık raporlaması: Dürüst iletişim ve bilgi paylaşımı yoluyla güven oluşturma

Şeffaflık ve dürüstlük, güvenilir yapay zeka ilkelerimizin temel ilkeleridir . Bu ilkeleri, güvenilir üretken yapay zeka yönergelerimizle destekledik ve aracı yapay zeka çağında da geçerliliğini koruduk. Kuruluşlar, kullanıcıların ve paydaşların yapay zekanın nasıl ve ne zaman kullanıldığı konusunda bilgilendirildiğinden emin olmalıdır. Salesforce olarak, haber merkezimiz, bloglarımız ve ücretsiz çevrimiçi öğrenme platformumuz  Trailhead aracılığıyla ürün yeteneklerimiz hakkında düzenli olarak bilgi paylaşıyoruz .

Salesforce ayrıca sorumlu yapay zeka çalışmalarındaki ilerlememizi düzenli olarak raporlamaktadır. Son olarak, Güvenilir Yapay Zeka ve Temsilciler Raporumuz, yapay zeka temsilcilerini tasarlama ve dağıtma yaklaşımımızı açıklamaktadır.

Ayrıca, kişisel verilerin kullanımı konusunda şeffaf olmayı hedefliyoruz. Salesforce, müşterilerin verilerinin yapay zeka için nasıl kullanılacağını kontrol etmelerini sağlar. İster kendi Salesforce barındırdığımız modelleri, ister ortak güven sınırlarımız dahilindeki harici modelleri kullanın, hiçbir bağlam saklanmaz. Büyük dil modeli, hem komut istemini hem de çıktıyı işlendikten hemen sonra unutur.

Kurumsal yönetişim: Şirket genelinde sorumlu yapay zeka uygulamalarının yerleştirilmesi

Gerçekten etkili ve sorumlu bir yapay zeka yaklaşımı sunmak için kuruluşun tüm bölümlerinden destek almak kritik öneme sahiptir. Salesforce, yapay zeka risk yönetimini çeşitli yapılar ve uygulamalar aracılığıyla kurumsal yönetişim çerçevesine entegre etmektedir. Şirketin ilk olarak 2018’de geliştirilen ve 2023’te üretken yapay zeka için geliştirilen güvenilir yapay zeka ilkeleri, bilinçli tasarım ve sistem düzeyinde kontrollere odaklanarak sorumlu geliştirme ve dağıtıma rehberlik etmektedir.

Yönetişim altyapımız şunları içerir:

  • Politika ve ürün inceleme ve onayı için yönetici ekiple düzenli olarak etkileşimde bulunan Etik ve İnsani Kullanım Ofisi (OEHU). OEHU ayrıca, geliştirmenin erken aşamalarında potansiyel riskleri belirlemek, azaltmak ve izlemek için Güvenilir Yapay Zeka İnceleme sürecine de liderlik eder.
  • Farklı departmanlardaki yöneticilerden oluşan Yapay Zeka Güven Konseyi, yapay zeka ürünlerine yönelik karar alma süreçlerini uyumlu hale getiriyor ve hızlandırıyor.
  • 2018 yılında dış uzmanlar ve iç yöneticilerden oluşan Etik Kullanım Danışma Kurulu, ürün ve politika önerileri konusunda stratejik rehberlik sağlıyor.
  • Yönetim Kurulu Siber Güvenlik ve Gizlilik Komitesi, Yapay Zeka önceliklerini gözden geçirmek üzere Etik ve İnsani Kullanım Sorumlusu ile üç ayda bir toplanıyor.
  • Üç ayda bir toplanan İnsan Hakları Yönlendirme Komitesi, insan hakları programını denetler ve önemli riskleri tespit edip azaltır.

Sorumlu yapay zekaya yönelik ortak bir taahhüt: Küresel standartlarla uyum

Sorumlu yapay zekanın geleceği, yenilikçi, güvenilir, etik ve güvenli sistemler geliştirmeye yönelik kolektif bir bağlılığa bağlıdır. Şeffaflık ve güçlü yönetişimin vurgulanması, müşterilerin ve paydaşların güvenliğini sağlarken yapay zekanın tüm potansiyelini ortaya çıkaracaktır.

G7 HAIP raporlama çerçevesi, sorumlu yapay zeka girişimleri için etkili bir küresel ölçüt sunarak, kuruluşların yapay zeka teknolojilerinin risklerini ve faydalarını yönetmeleri için yapılandırılmış bir yaklaşım sunar. Bu çerçeveler yaygın olarak benimsendikçe, sorumlu yapay zeka uygulamalarında tutarlılığı teşvik edecek ve kullanıcılar ve toplum arasında daha fazla güven oluşturacaktır. Salesforce, tüm paydaşlarla çalışmaya ve bu dönüştürücü yapay zeka çağında güven, sorumluluk ve etik ilkeleri rehber alarak ilerlemeye kararlıdır.

https://oecd.ai/en/wonk/building-a-responsible-ai-future-how-the-g7-hiroshima-ai-process-is-enhancing-responsible-ai-around-the-globe

Hiroshima Process International Code of Coduct for organisations Devoloping Advenced System raporuna  için aşağıdaki link kullanılabilir.

https://www.soumu.go.jp/hiroshimaaiprocess/pdf/document05_en.pdf

 

Scroll to Top