Yapay Zeka Yol Haritası: Yapay Zekanın İnsanlığa Hizmet Etmesini Nasıl Sağlarız?

Yapay zekâ, kurumlarımızdan topluluklarımıza ve bireysel yaşamlarımıza kadar toplumun kritik alanlarını şimdiden yeniden şekillendiriyor. Ancak yapay zekâ ile daha iyi bir gelecek mümkün. Bu gelecekte yapay zekâ gelişimi, halkın gerçek ihtiyaçlarını destekler ve gücü, toplumun her düzeyinde sorumlulukla eşleştirilir.

 

Yapay zekâ konusunda tek bir çözüm yeterli olmayacak. Bir dizi yaklaşımdan oluşan bir platforma ihtiyacımız var.  Yeni raporumuzda, teknolojinin nasıl inşa edilmesi, uygulanması ve yönetilmesi gerektiğine dair aşağıda yedi ilke sunuyoruz. Bunlar bir yol haritası ve bir davet niteliğinde. Birlikte, daha iyi bir geleceğe doğru ilk adımları atabiliriz.

İlke 1 : Yapay zeka güvenli ve şeffaf bir şekilde geliştirilmelidir.

Yapay zekâ şirketleri, şimdiye kadar icat edilmiş en güçlü teknoloji olacağını iddia ettikleri şeyi geliştirmek için yarışıyorlar; ancak bunu yaparken güvenliği ikinci plana atıyorlar. Şirketler düzenli olarak güvenlik testlerinde kısa yollar kullanıyor, tam olarak anlamadıkları ürünleri piyasaya sürüyor ve endişelerini dile getirebilecek çalışanlar arasında sessizliği teşvik ediyor. Sonuç tehlikeli bir boşluk: Yapay zekâ geliştiren şirketler bu teknoloji ve riskleri hakkındaki bilgilerin çoğuna sahipken, kamuoyu, düzenleyiciler ve hatta kullanıcılar karanlıkta kalıyor.

Bu durum değişmeli. Havacılık ve tıp alanlarında güvenlik standartlarına ihtiyaç duyduğumuz gibi, yapay zekâ da bağımsız denetime, titiz testlere ve gerçek şeffaflığa ihtiyaç duyuyor; böylece toplum, dünyamızı yeniden şekillendiren teknolojiyi gerçekten anlayabilir ve ona güvenebilir.

İlke 2 : Yapay zeka şirketleri kamuya karşı özen yükümlülüğüne sahiptir.

Şu anda, yapay zeka şirketleri ürünlerinin yol açtığı zararlar için neredeyse hiçbir sonuçla karşılaşmıyor. “Hızlı hareket et ve bir şeyleri boz” kültürlerinde, bu şirketler öngörülebilir risklere rağmen yapay zeka ürünlerini halka sunuyor ve ürünleri zarar verdiğinde hesap vermekten kaçınıyorlar. Yapay zeka şirketleri ayrıca, yapay zeka sohbet robotlarının çıktılarının ifade özgürlüğü kapsamında korunduğunu veya yapay zeka ürünlerinin yasal kişilik statüsünü hak ettiğini savunarak hesap vermekten daha da kaçınmak için yasal manevralar da deniyorlar.

Bu durum değişmeli. Bir teknoloji insanların hayatlarını ne kadar geniş ölçekte şekillendirirse, öngörülebilir zararları önleme yükümlülüğü de o kadar güçlü olmalıdır. Yapay zeka şirketleri, en başından itibaren kullanıcı güvenliği ve refahını göz önünde bulundurarak ürünler geliştirmelidir; bunu yapmadıklarında ve ürünleri zarar verdiğinde, açık ve anlamlı sonuçlar olmalıdır.

İlke 3: : Yapay zeka tasarımı insan refahını merkeze almalıdır.

Günümüzün yapay zekâ sohbet botları, insana benzeyecek şekilde tasarlanmıştır ve bu tesadüf değildir. Yapay zekâ şirketleri, kullanıcıların ürünlerine duygusal olarak ne kadar bağımlı hale gelirse, o kadar çok sohbet etmeye devam edeceklerini keşfettiler. Ve bir kullanıcı ne kadar çok sohbet ederse, yapay zekâ şirketleri o kadar çok veri toplar ve ürünleri o kadar güçlü hale gelir. Bu nedenle şirketler, yakınlığı taklit eden, inançları doğrulayan ve kullanıcıların geri gelmesini sağlayan sohbet botları geliştiriyor. Sonuçları gerçek: izolasyon, çocuklarda ve gençlerde gelişim bozukluğu ve en kötü durumlarda kendine zarar verme ve intihar.

Yapay zekâ, insanlığımızı desteklemek üzere tasarlanmalı, onu sömürmek için değil. Bu, gerçek ilişkileri ve insan bağını güçlendiren araçlar anlamına gelir. Ayrıca, insan benzeri yapay zekâ tasarımı konusunda çocuklar ve gençler için benzersiz korumalar anlamına da gelir.

İlke  4: Yapay zekâ, anlamlı işleri ve insan onurunu otomatikleştirerek ortadan kaldırmamalıdır.

Önde gelen yapay zeka şirketleri, değerli insan görevlerini yerine getirebilecek sistemler geliştirmek için yarışıyor  ve kitlesel iş kayıplarını yeniliğin kaçınılmaz bir yan etkisi olarak görüyorlar. Sonuçlarını şimdiden görüyoruz: işten çıkarmalar, işe alımların azalması ve depo alanlarından bilgiye dayalı iş alanlarına kadar tüm sektörlerin alt üst olma tehdidi. İnsanların geçim kaynakları, amaç duygusu ve ekonomik güvenliği üzerindeki etki ise göz ardı ediliyor.

Bu böyle olmak zorunda değil. İnsanlar işe, geçimini sağlayacak bir ücrete ve geleceklerini yeniden şekillendirecek teknolojide söz sahibi olmaya hak kazanıyorlar. Farklı bir şekilde inşa edilirse, yapay zeka insan yeteneklerini ortadan kaldırmak yerine genişletebilir ve yeni iş biçimleri yaratabilir. Ve yapay zeka şirketleri kazançlarını eğitime ve yeniden beceri kazandırmaya yeniden yatırarak refahı daha geniş bir alana yayabilir.

İlke 5 : Yapay zekâ inovasyonu, haklarımız ve özgürlüklerimiz pahasına olmamalıdır.

Yapay zekâ endüstrisi, insanların verilerinden, içeriklerinden, emeklerinden ve hatta en özel düşüncelerinden bile değer elde etme üzerine kuruludur ve bunu durduracak çok az yasa vardır. İnsanların çalışmaları, izin alınmadan yapay zekâ modellerini eğitmek için kullanılır ve kötü niyetli kişiler yapay zekâyı dolandırıcılık, rızasız görüntüleme ve çocuk cinsel istismarı materyali (CSAM) için kullanır. Yapay zekâ modellerini besleyen aynı veriler, şirketlerin ve hükümetlerin insanları benzeri görülmemiş bir ölçekte gözetlemesine, izlemesine ve profillemesine de olanak tanır.

Daha güçlü korumalar olmadan, yapay zekâ çağında mahremiyetin, özerkliğin ve ifade özgürlüğünün aşınması daha da derinleşecektir. İnsanlar gerçek korumalara layıktır: kendi verileri, görünümleri üzerinde kontrol sahibi olma ve sömürülmeden özgürce düşünme ve konuşma hakkına sahip olma.

Yapay zekânın uluslararası düzeyde kabul edilmiş sınırları olmalıdır.

İlke 6 : Yapay zekânın uluslararası düzeyde kabul edilmiş sınırları olmalıdır.

Ülkeler, yapay zekâ ile ekonomik verimlilik, askeri yetenek ve küresel etki alanlarında belirleyici avantajlar elde etmek için yarışırken, yapay zekâ şirketleri de pazar hakimiyeti için mücadele ediyor. Her ikisi de “biz yapmazsak, başkası yapacak” paradigması içinde faaliyet gösteriyor. Bu paradigma, yapay zekânın ne zaman ve nasıl geliştirilip kullanılacağına dair hiçbir sınırın olmadığı, pervasız yapay zekâ geliştirme ve dağıtımının varsayılan gerekçesi haline geldi.

Ancak kontrolsüz yapay zekâ gelişimi hiçbir ülkenin çıkarına değildir. İnsan kontrolünün ötesinde çalışan veya çatışmayı insanların müdahale edebileceğinden daha hızlı tırmandıran yapay zekâ, ülkelerin öncelikle güçlendirmeye çalıştığı siyasi, ekonomik ve sosyal sistemleri istikrarsızlaştırmakla tehdit etmektedir. “Yapay zekâ yarışı” etrafındaki gerilimleri azaltmak ve teknolojinin yeterli güvencelere sahip olmasını sağlamak için uluslararası işbirliğine ihtiyacımız var.

Yapay zekanın gücü toplumda dengeli bir şekilde kullanılmalıdır.

İlke : Yapay zekânın gücü toplumda dengeli olmalıdır.

Az sayıda şirket ve birey, yapay zekâ hakkında son derece önemli kararlar alıyor ve bunu çok az hesap verebilirlik veya kamuoyunun görüşü olmadan yapıyorlar. Önde gelen yapay zekâ firmaları, geliştirme kaynaklarını biriktirmek için milyarlarca dolar harcarken, aynı zamanda siyaseti etkilemeye ve pazar hakimiyetini sağlamlaştırmaya çalışıyorlar. Yapay zekâ teknolojisi açık kaynak ve diğer tekniklerle yayılırken bile, yapay zekâ ekosisteminde güç daha da yoğunlaşmaya devam ediyor. Yapay zekâ şirketlerinde, tek tek bireyler ürün kararları üzerinde muazzam bir etkiye sahip olabiliyor. Bu paradigmada, sıradan insanların sesleri ve kamuoyunun gerçek ihtiyaçları göz ardı ediliyor.

İnsanlar ve topluluklar, yapay zekanın nasıl geliştirileceği ve yönetileceği konusunda gerçek bir söz hakkına sahip olmayı hak ediyor. Demokratik kurumlar, yapay zekanın kamu yararını ilerletmesini sağlamak için güçlendirilmeli ve bu teknolojinin faydaları birkaç kişinin elinde değil, geniş bir kesimle paylaşılmalıdır.

Raporun tamamına ulaşmak için aşağıdaki linki tıklayınız:

https://www.datocms-assets.com/160835/1774623817-cht_report_theairoadmap.pdf

 

 

Scroll to Top