Yapay Zeka Sorumlu Bir Şekilde Nasıl Kullanılabilir?

2021’de bir grup araştırmacı, yapay zeka etiği konusunun ne kadar sıcak hale geldiğini ölçmek için yola çıktı . Yapay zeka ve etikle ilgili referanslar için Google Akademik’te arama yaptılar. Buldukları şey bu alanda dikkate değer bir artış gösterdi. 1985 ile 2018 yıllarını kapsayan otuz yılı aşkın sürede, yapay zeka etiğine odaklanan 275 bilimsel makale buldular. Bu dergiler yalnızca 2019’da 334 makale yayınladı; bu, önceki 34 yılın toplamından daha fazla. 2020 yılında ilave 342 makale daha yayımlandı.

Yapay zeka etiğine ilişkin araştırmalarda patlama yaşandı ve bunların çoğu yapay zeka modelleri oluşturmaya yönelik yönergelere odaklandı. Artık yapay zeka tabanlı araçlar herkesin kullanımına geniş çapta sunuluyor. Geriye okullar, işletmeler ve bireyler yapay zekanın güvenli, önyargısız ve doğru bir şekilde etik olarak nasıl kullanılacağını bulmak kalıyor.

IEEE Üyesi Sukanya Mandal, “Halkın büyük bir kısmı henüz yapay zeka araçlarını tam sorumlu bir şekilde kullanmak için yeterince bilgili veya hazırlıklı değil” dedi. “Birçok kişi yapay zekayı denemekten heyecan duyuyor ancak mahremiyet, önyargı, şeffaflık ve hesap verebilirlik konusundaki potansiyel tehlikelerin farkında değil.”

HALÜSİNASYONLAR VE YANLIŞLIKLAR: YAPAY ZEKA KULLANICILARI İÇİN EN BÜYÜK TUZAKLAR

Üretilme şekillerinden dolayı çoğu üretken yapay zeka modeli halüsinasyonlara eğilimlidir. Sadece bir şeyler uyduruyorlar ve görünüşte güvenilir sonuçlar güven görüntüsü veriyor. Bu, yanlış bilgi aktarabilecek kullanıcılar için bir risktir. ABD’de üretken yapay zeka kullanan avukatlar, yasal belgeleri hazırlamak için chatbotları kullanmaya çalıştıklarında bu dersi zor yoldan öğrendiler, ancak yapay zekanın argümanlarında emsal olarak gösterdikleri var olmayan davaları oluşturduğunu keşfettiler.

IEEE Başkanı Tom Coughlin, “Yapay zeka her zaman doğru olmayabilir, bu nedenle bilgilerinin kontrol edilmesi gerekiyor” dedi. 

YAPAY ZEKANIN VERDİĞİ KARARLARA GÜVENEBİLİR MİYİZ?

Yapay zeka modelleri çok büyük miktarda veri üzerinde eğitiliyor ve bazen insanların anlaması zor olan son derece karmaşık matematiksel işlevlere dayanarak kararlar veriyorlar . Kullanıcılar genellikle yapay zekanın nasıl bir karar verdiğini bilmiyor.

Mandal, “Birçok yapay zeka algoritması, karar verme mekanizmasının şeffaf olmadığı ‘kara kutulardır'” dedi. Ancak özellikle sağlık hizmetleri, hukuki kararlar, finans ve işe alım gibi yüksek risk taşıyan alanlarda, açıklanamayan yapay zeka kararları kabul edilemez ve hesap verebilirliği aşındırıyor. Eğer bir yapay zeka birisine kredi veya iş teklifini reddederse bunun anlaşılır bir nedeni olmalı.”

YAPAY ZEKAYA ÇOK FAZLA GÜVENİRSEK NE OLUR?

Yapay zeka modelleri bu kadar büyük veri kümeleri üzerinde eğitildiğinden, kullanıcıları yanlış bir güven duygusuna kaptırabilir ve kararları sorgusuz sualsiz kabul etmelerine neden olabilir. 

Küresel teknoloji liderleri arasında yakın zamanda yapılan bir anket olan ” 2024 ve Ötesinde Teknolojinin Etkisi: IEEE Küresel Araştırması “nda, yanıt verenlerin %59’u “yanlışlıklar ve yapay zekaya aşırı güvenmeyi” kuruluşlarının en büyük endişelerinden biri olarak tanımladı.

BİR YAPAY ZEKA MODELİNİ EĞİTMEK İÇİN HANGİ VERİLERİN KULLANILDIĞINI BİLMEK NEDEN ÖNEMLİDİR?

Şunu hayal edin: Kullanılan bir yapay zeka modeli, bir işe başvuran adayları taramak için eğitiliyor. Önceki yıllarda toplanan verilere dayanarak özgeçmişleri işe alım yöneticilerine iletir ve işi alma olasılığı en yüksek kişileri belirlemek üzere eğitilir. Ancak sektör geleneksel olarak erkek egemendir. Bir yapay zeka, kadınların isimlerini tanımlamayı öğrenebilir ve böylece bu başvuru sahiplerini, işi yapma yeteneklerine göre değil cinsiyetlerine göre otomatik olarak hariç tutabilir.

Bu tür algoritmik önyargılar yapay zeka eğitim verilerinde mevcut olabilir ve mevcuttur; bu da kullanıcıların modellerin nasıl eğitildiğini anlamasını çok önemli hale getirir.

Mandal, “Tarafsız verilerin sağlanması, yapay zeka geliştirme yaşam döngüsü ve devam eden bir süreç boyunca ortak bir sorumluluktur” dedi. “Bu, veri sağlayanların önyargı riskinin farkında olması ve çeşitli, temsili veri kümeleri kullanması ile başlıyor. Yapay zeka geliştiricileri veri kümelerini önyargı açısından proaktif olarak analiz etmelidir. Yapay zeka uygulayıcıları gerçek dünya performansını önyargı açısından izlemelidir. Yapay zeka yeni verilerle karşılaştıkça sürekli test ve ayarlama yapılması gerekir. Bağımsız denetimler de değerlidir.

YAPAY ZEKA KULLANILDIĞINDA İNSANLARA SÖYLENMELİ Mİ?

Açıklama yapay zeka kullanımının temel ilkesi olarak ortaya çıkıyor. Örneğin bir yapay zeka sağlık alanında bir karar verdiğinde hastalara bunun söylenmesi gerekir. Ayrıca sosyal medya siteleri, içerik oluşturucuların bir videoyu oluşturmak veya değiştirmek için yapay zekanın ne zaman kullanıldığını açıklamasını da zorunlu kılıyor.

IEEE Kıdemli Üyesi Cristiane Agra Pimentel, “Etik yapay zeka kullanımı, kaynak alıntısı ve mevcut yönergelere bağlılık da dahil olmak üzere bilgilerin doğru şekilde kullanılmasına bağlıdır” dedi.

“Birçok yayın, yazarın kullanılan yapay zekayı ve kullanıldığı tarihi belirtmesi koşuluyla artık yapay zeka kullanımına izin veriyor.”

Daha fazlasını öğrenin: Yapay zeka, araştırmacıların yazma ve yayınlama şeklini nasıl değiştirecek? IEEE Computer Society’nin Computer dergisindeki yeni bir köşe yazısı, araştırmacıların yapay zekanın yazma ve araştırma üzerindeki etkilerini incelemesine olanak tanıyacak yapay zeka meta verilerini içeren akademik makalelerin başlaması gerektiğini savunuyor .

IEEE Kimdir: IEEE ve üyeleri, çokça alıntı yapılan yayınlar, konferanslar, teknoloji standartları ve profesyonel ve eğitimsel faaliyetler aracılığıyla küresel bir topluluğa daha iyi bir yarın için yenilik yapma konusunda ilham verir. IEEE dünya çapında mühendislik, bilgi işlem ve teknoloji bilgilerinin güvenilir “sesi”dir. IEEE.org

https://www.ieee.org/about/at-a-glance.html

https://transmitter.ieee.org/impact-of-technology-2024/

Scroll to Top