Yapay Zeka Destekli İş Yerlerinde Çalışanların Güvenliğini Sağlamaya Yönelik Yaklaşımların Araştırılması

Eylül 2024

Bilmesi gerekenler:

Yapay zekâ teknolojileri, çalışanlar için çok çeşitli tehlikeler ve riskler oluşturabilir. Bu zorlukların bir özeti ve işyeri cihazlarında, makinelerinde ve süreçlerinde güvenilir ve etik yapay zekâ kullanımını teşvik etmek için beş risk yönetimi seçeneği aşağıda vurgulanmıştır.

Hazırlayanlar : John Howard, MD ve Paul A. Schulte, PhD

Özet

Yapay zekâ (YZ) – tipik olarak insan zekâsı gerektiren görevleri yerine getirmek üzere makineler tasarlayan bilgisayar bilimi alanı – dil, görme, akıl yürütme ve insan-makine işbirliği alanlarında sektörler, ekonomiler ve işgücü piyasalarında en ileri yeniliklere yol açan hızlı ilerlemeler kaydetti. [1] [2]

İşyerinde, yapay zeka teknolojilerinin benimsenmesi, son dönemde endüstriyel robotik ve algoritmik yönetimde görülen gelişmelerde de görüldüğü gibi, çalışanlar için geniş bir yelpazede tehlike ve risk oluşturabilir . [ 3-8] Toplumda ve işyerinde yapay zeka teknolojilerinin kullanımından kaynaklanan risk kaynakları, güvenilir ve etik yapay zekanın tasarımını ve kullanımını düzenleyen ilkeler öneren çok sayıda hükümet ve özel sektör kılavuzuna yol açmıştır. Yapay zeka yetenekleri endüstri sektörlerindeki cihazlara, makinelere ve sistemlere entegre edildikçe, işverenler, çalışanlar ve iş sağlığı ve güvenliği uzmanları, çalışanların sağlığı, güvenliği ve refahı için yapay zeka risklerini yönetme konusunda zorluklarla karşılaşacaklardır.

Amerikan Endüstriyel Tıp Dergisi’nde yayımlanan yeni bir yorum yazısı: İşyerinde yapay zeka risklerinin yönetimi ve işin geleceğiBu metin, söz konusu zorlukları ele alıyor ve iş yerlerindeki cihazlarda, makinelerde ve süreçlerde güvenilir ve etik yapay zekanın kullanımını teşvik etmek için beş risk yönetimi seçeneği sunuyor. Yorumdan alıntılar ve özetler burada yer almaktadır.

Güvenilir ve Etik Yapay Zeka

Yapay zekâ sistemlerinin “kara kutu” yapısı, kullanıcıların altta yatan karar alma süreçlerini anlamalarında zorluklar yaratmaktadır. Bu durum, yapay zekânın işleyişine ve sonuçlarına olan güveni azaltarak, kullanıcıların yapay zekâya güvenmek konusunda temkinli olmalarına yol açmaktadır. 1 “Güvenilir” yapay zekâ geliştirme ve uygulama, yapay zekânın topluma faydalarını artırırken tehlikelerini ve risklerini yönetmeyi amaçlayan neredeyse tüm yaklaşımların kavramsal temeli haline gelmiştir. 2 3 Yapay Zekâ Risk Yönetimi ÇerçevesindeUlusal Standartlar ve Teknoloji Enstitüsü, güvenilir yapay zekanın yedi temel bileşenini sıralamaktadır. Tersine, bu güvenilirlik bileşenlerinin yokluğu, bir yapay zeka sisteminin yönetilmesi gereken tehlikeler veya riskler sunabileceğine işaret edebilir.

Etik yapay zekâ yönergeleri, yapay zekâ sistemlerinin özerkliğe saygı duymasını, yapay zekâ sistemlerinin işleyişinde adaleti korumasını, yapay zekânın faydalarını teşvik etmesini ve zararı önlemesini sağlamayı amaçlamaktadır. 4 5 Güvenilir yapay zekâda olduğu gibi, birçok etik yapay zekâ yönergesi yayınlanmıştır. 6 Bu etik yönergeler, güvenilir yapay zekânın ilkelerini yansıtan benzer bir dizi ilkeyi vurgulamakta ve birçoğu iş yeri için etik yapay zekâ sistemlerini ele almaktadır. 7 8 9 10 11 12 Etik yaklaşımlar, genel olarak yapay zekâ sistemlerinin işleyişine odaklanmaktadır. İş yerinde, etik yapay zekâ sistemleri aşağıdaki etik ilkeleri yansıtabilir:

(1) Bir işçinin kendi kararlarını verme ve bir yapay zeka sistemi tarafından kontrol edilmeme hakkına saygı gösterilmesi yoluyla özerklik; 7 13

(2) Bir çalışanın kendi verilerini kontrol etme hakkını ve işvereni tarafından kişisel verilerinin nasıl kullanıldığı konusunda bilgilendirilme hakkını güvence altına alarak gizlilik; 13

(3) İşçiye doğrudan veya dolaylı zarar verebilecek ayrımcı yapay zeka sistemi sonuçlarını önleyerek veri önyargısından arındırılma; 5 ve

(4) Bir çalışanın yapay zeka sisteminin nasıl çalıştığını ve eylemlerinin anlamını anlamasına olanak tanıyarak şeffaflık ve hesap verebilirlik; 5 7 ve yapay zeka sisteminin matematiksel olarak karmaşık karar alma süreci kolayca yorumlanamasa bile istenmeyen sonuçlar için net sorumluluk hatlarının olmasını sağlama. 14

Yapay Zeka Risk Yönetimi

Mevcut yapay zeka risk azaltma kılavuzlarının çoğu genel niteliktedir ve belirli sektör kullanım durumlarına ve işçi korumasına uyarlanmış, uygulanabilir risk yönetimi uygulamalarına yol açabilecek ayrıntılı yöntemlerden yoksundur. 15 Mevcut üst düzey kılavuzların sektörlerle daha iyi uyum sağlayacak şekilde derinleştirilmesi, iş ortamlarında yapay zeka sistemlerinin güvenliğinin sağlanmasına yardımcı olacaktır. 16 17

İşyerinde yapay zeka sistemlerinin kullanımının güvenli olmasını kim sağlamalıdır? Bir iş sağlığı ve güvenliği uzmanı, işyerinde yapay zeka destekli bir sistemin konuşlandırılmasının işçi güvenliği, sağlığı ve refahı için risk oluşturmadığını gerekçelendirmek üzere risk merkezli bir kanıt tabanını nasıl geliştirebilir? Makalede, işyeri cihazları, makineleri veya süreçlerini etkinleştirmek için güvenilir yapay zeka veya etik yapay zeka kullanımına öncelik vermenin önerilen yolları olarak aşağıdaki beş seçenek sunulmaktadır. 18

İlk olarak , bir işyerinde yapay zekâ destekli bir cihaz veya sistemin devreye alınmasından önce risklerinin ortadan kaldırılması, tasarım yoluyla önleme ilkeleriyle tutarlı olsa da, 19 20 21 işverenler, çalışanlar ve iş sağlığı ve güvenliği uzmanları için yapay zekâ sisteminin devreye alınmasının güvenli olacağını bağımsız olarak doğrulamak için gereken teknik beceri setini edinmek teknik olarak zahmetli olacaktır. Etkili yapay zekâ risk yönetimi, işverenler, çalışanlar ve iş sağlığı ve güvenliği uzmanları için zorlayıcı olacak bir dizi bilgisayar bilimi yetkinliği edinmek için yeniden beceri kazanmayı veya becerileri geliştirmeyi gerektirebilir. Bu yeni beceriler, iş sağlığı ve güvenliği uzmanlarına yapay zekâ sistemlerini yönetme konusunda daha büyük bir yetenek kazandıracaktır. Geliştiriciler tarafından kullanıcılara yalnızca açıklanabilir yapay zekâ (XAI) sağlama yönündeki mevcut çabalar başarılı olursa, iş sağlığı ve güvenliği uzmanları işyerindeki yapay zekâ sistemlerini daha iyi yorumlayabilir, güvenebilir ve daha etkili bir şekilde yönetebilirler. 22 Yapay zekâ ile ilgili teknik yeterlilikler önemli olmakla birlikte, çalışanların bir yapay zekâ sistemiyle etkileşiminin insan merkezli değerleri yansıtmasını sağlamak için becerileri artırmak da önemlidir. 23

İkinci olarak , yapay zeka geliştiricileri ve iş sağlığı ve güvenliği uzmanları, yapay zeka sistemlerinin güvenliğini, yeteneklerini ve uyumunu değerlendiren işbirlikçi yapay zeka sistemi değerlendirmeleri yürütebilirler. Uyum değerlendirmesi, bir yapay zeka sisteminin operasyonel sonuçlarının, geliştiricinin tasarım parametreleriyle amaçlananlarla eşleşmesini sağlamaya odaklanır. 24 Güvenilir yapay zeka ilkelerinin her biri için somut eylem maddeleri olarak değerlendirme yöntemlerine örnekler önerilmiştir. 25

Geliştiriciler ve dağıtımcılar arasında yapılan işbirlikçi yapay zeka sistemi değerlendirmeleri, hem operasyonel uyum hem de yapay zeka güvenliği açısından önemlidir. Bir yapay zeka modelindeki sinir ağının iç işleyişini anlayabilmek, dağıtımcılara toplum ve iş yeri için oldukça aranan bir hedef olan “mekanistik yorumlanabilirlik” sağlayacaktır. 26 Örneğin, bir LLM dil modelinden yorumlanabilir özellikler çıkarmaya yönelik araştırma çalışmaları, gelecekte bir yapay zeka sistemini anlaşılmaz bir “kara kutu”dan anlaşılabilir bir güvenlik profiline sahip bir makineye dönüştürmeye yol açabilir. 27 28

Sorumlu uygulama, yalnızca teknik uyumla değil, aynı zamanda ortak optimizasyonun sosyoteknik sistem ilkesiyle tutarlı bir vurguyla en iyi şekilde sağlanır. 29 Teknolojiye odaklanmanın yanı sıra, yapay zeka sistemleriyle etkileşimde bulunan çalışanlara da benzer bir odaklanma gereklidir. 30 31 Sosyoteknik bir yaklaşım, teknik işlemlerin etik olarak çalışan güvenliği, sağlığı ve refahı gibi insan merkezli değerlerle uyumlu olmasını sağlar. 30

Üçüncüsü , bağımsız bir denetim, algoritmik şeffaflık gibi araçlar aracılığıyla yapay zeka sistem yeteneklerinin risklerini değerlendirmek için kullanılabilir. 32 Yapay zeka teknolojilerinin hızla gelişen doğasına yanıt veren yapay zeka denetim yöntemleri ve standartları geliştirilene kadar, 33 yerleşik fikir birliği risk değerlendirme ve yönetim standartlarına göre yapay zeka denetimi yapılabilir. 34 Daha sonra, olası risk değerlendirmeleri ve denetim sonuçları (1) sistem bileşenlerinin şeffaf denetime izin verip vermediğini veya tescilli olup ticari sır olarak korunup korunmadığını belirlemek; (2) denetim izinde keşfedilen riskleri gözden geçirmek; ve (3) devreye almadan önce risk azaltma önlemleri geliştirmek için kullanılabilir. 35

Dördüncüsü , yapay zeka sistem sertifikasyonu, yapay zeka geliştiricilerini tasarım ve geliştirme aşamasında güvenilir yapay zeka prensiplerini benimsemeye teşvik etmenin ve alt kademe kullanıcıların dağıtılmış bir sistemde güvenilir yapay zekanın dahil edilmesini doğrulamalarını sağlamanın bir yoludur. 36 Özel sektör kuruluşları yapay zeka sistem sertifikasyonu sunmaya başlasa da, sistem sertifikasyonunun nihai başarısı müşteri talebinin gücüne veya bir hükümet emrine bağlıdır. 36 Dahası, güvenli iş yeri yapay zeka seçeneklerini haklı çıkarmak için kanıt tabanı geliştirmenin bir yolu olarak denetim ve sertifikasyonun da sınırlamaları vardır. Tasarım riskleri, dağıtıma kadar bir yapay zeka sisteminde gizli kalabilir ve hatta o zaman bile, ortaya çıkan veya beklenmedik bir sorunun algoritmik kaynağına kadar izlenmesi zor olabilir. 37

Beşinci olarak , bir güvenlik uzmanı, bir işyeri sisteminin gerçekten güvenli bir şekilde çalıştırılabileceğine dair ayrıntılı kanıtları nasıl geliştirir ve bu kanıt tabanı neye benzer? Yapay zekâ sistemlerinin işyeri risk değerlendirmesinin “nasıl” yapılacağına ilişkin çok az ayrıntılı kılavuz mevcuttur. Makalede açıklanan “güvenlik sistemi yaklaşımı” ve “güvenlik durumu yaklaşımı” olmak üzere iki yaklaşım, yüksek riskli yapay zekâ sistemi risklerinin belirlenmesi, analizi ve değerlendirilmesi için metodolojiler olarak dikkate alınmalıdır.

Yapay zekâ teknolojileri, çalışma hayatının geleceğinde büyük rol oynayacak. İş sağlığı ve güvenliği uygulama ve araştırma toplulukları, bu yeni yapay zekâ teknolojilerinin vaatlerinin işçi güvenliği, sağlığı ve refahına zarar değil, fayda sağlamasını temin etmelidir.

Yazar Bilgileri

John Howard, MD, Ulusal İş Sağlığı ve Güvenliği Enstitüsü Direktörüdür.

Paul A. Schulte, PhD, Advanced Technologies and Laboratories International, Inc. şirketinde NIOSH sözleşmeli çalışanıdır.

 

Referanslar

  1. Gillespie N, Lockey S, Curtis C, Pool J, Akbari A. Yapay Zekaya Güven: Küresel Bir Çalışma. Queensland Üniversitesi ve KPMG Avustralya; 2023. doi:10.14264/00d3c94
  2. Thiebes S, Lins S, Sunyaev A. Güvenilir yapay zeka. Elektronik Pazarlar. 2021; 31: 447-464. doi:10.1007/s12525-020-00441-4
  3. Gelişmiş Yapay Zeka için Güvenli Altyapının Yeniden Tasarlanması. San Francisco, CA; Open AI. 3 Mayıs 2024. Erişim tarihi: 25 Temmuz 2024. https://openai.com/index/reimagining-secure-infrastructure-for-advanced-ai/
  4. Bernhardt A, Kresge L, Suleiman R. Veri odaklı iş yeri ve işçi teknoloji hakları için durum. ILR Review. 2023; 76(1): 3-29. doi:10.1177/00197939221131558
  5. Siau K, Wang W. Yapay zekâ (YZ) etiği: YZ etiği ve etik YZ. J Database Manag. 2020; 31(2): 74-87. doi:10.4018/JDM.2020040105
  6. Hagendorff T. Yapay zekâ etiğinin etiği: kılavuzların değerlendirilmesi. Minds Mach. 2020; 30: 99-120. doi:10.1007/s11023-030-09517-8
  7. Bankins S, Formosa P. Yapay zekanın (YZ) anlamlı iş için etik sonuçları. J Bus Ethics. 2023; 185: 725-740. doi:10.1007/s10551-023-05339-7
  8. Cebulla A, Szpak Z, Howell C, Knight G, Hussain S. İşyerinde yapay zekaya etik uygulama: Avustralya işyeri sağlığı ve güvenliği için bir puanlama sistemi tasarımı. AI Soc. 2023a; 38: 919-935. doi:10.1007/s00146-022-01460-9
  9. Cebulla A, Szpak Z, Knight G. Yapay zekâ ile çalışmaya hazırlanmak: işyerinde yapay zekâ kullanırken iş sağlığı ve güvenliğinin değerlendirilmesi. Int J Workplace Health Manage. 2023b; 16(4): 294-312. doi:10.1108/IJWHM-09-2022-0141
  10. Birleşmiş Milletler Eğitim, Bilim ve Kültür Örgütü (UNESCO). Yapay Zekanın Etiği Hakkında Tavsiye Kararı. UNESCO Dijital Kütüphanesi; 23 Kasım 2021. Erişim tarihi: 25 Temmuz 2024. https://unesdoc.unesco.org/ark:/48223/pf0000381137
  11. Ramos GAI’nin işler, beceriler ve işin geleceği üzerindeki etkisi: UNESCO’nun temel politika konuları ve etik tartışmaya ilişkin bakış açısı. New Eng J Public Policy. 2022; 34(1):3. https://scholarworks.umb.edu/nejpp/vol34/iss1/3
  12. Cole M, Cant C, Ustek Spilda F, Graham M. Otomatik araçlarla siyaset mi? Yapay zekâ etiğinin iş başında eleştirisi. Front Artif intell. 2022; 5: 869114frai.2022.8069114.
  13. Brey P, Dainow B. Yapay zekâ için tasarımla etik. Yapay Zekâ Etiği (2023).21 Eylül 2023 tarihinde çevrimiçi olarak yayınlandı . doi:10.1007/s43681-023-00330-4
  14. Rodrigues R. Yapay zekanın hukuki ve insan hakları sorunları: boşluklar, zorluklar ve kırılganlıklar. J Resp Tech. 2020; 4:100005. doi:10.1016/j.jrt.2020.100005
  15. Gardner C, Robinson KM, Smith CJ, Steiner A. Son kullanıcı ihtiyaçlarını bağlamsallaştırma: Bir sistemin güvenilirliğini nasıl ölçebiliriz? Yazılım Mühendisliği Enstitüsü Blogu. Carnegie Mellon Üniversitesi. 17 Temmuz 2023. Erişim tarihi: 6 Temmuz 2024. https://insights.sei.cmu.edu/blog/contextualizing-end-user-needs-how-to-measure-the-trustworthiness-of-an-ai-system/
  16. Neto AVS, Camargo JB, Almeida JR, Cugnasca PS. Yapay Zeka Tabanlı Sistemlerin Güvenlik Güvencesi: Mevcut Durum Üzerine Sistematik Bir Literatür İncelemesi ve Gelecekteki Çalışmalar İçin Kılavuzlar. IEEE Access. 2022; 10: 130733-130770. doi:10.1109/ACCESS.2022.3229233
  17. Lu Q, Zhu L, Xu X, Whittle J. Sorumlu Yapay Zeka Tasarımı. Sorumlu yapay zeka sistemleri tasarlamak için bir desen koleksiyonu. IEEE Yazılım. 2023; 40(3): 63-71. doi:10.1109/MS.2022.3233582
  18. Batarseh FA, Freeman L, Huang CH. Yapay zekâ güvencesi üzerine bir araştırma. J Big Data. 2021; 8: 60. doi:10.1186/sho537-021-00445-7
  19. Schulte PA, Rinehart R, Okun A, Geraci CL, Heidel DS. Tasarım yoluyla ulusal önleme (PTD) girişimi. J Saf Res. 2008; 39(2): 115-121. doi:10.1016/j.jsr.2008.02.021
  20. Manuele FA. Tasarım yoluyla önleme (PtD): tarihçe ve gelecek. J Saf Res. 2008; 39: 127-130. doi:10.1016/j.jsr.2008.02.019
  21. Amerikan Ulusal Standartlar Enstitüsü/Amerikan Güvenlik Profesyonelleri Derneği (ANSI/ASSP) Z590.3-2011(R2016). Tasarım Yoluyla Önleme: Tasarım ve Yeniden Tasarım Süreçlerinde Mesleki Tehlikeler ve Risklerin Ele Alınmasına İlişkin Kılavuzlar. Park Ridge, IL: Amerikan Güvenlik Profesyonelleri Derneği; 2016. Erişim tarihi: 25 Temmuz 2024. https://www.assp.org/standards/standards-topics/prevention-through-design-z590-3
  22. Nagahisarchoghaei M, Nur N, Cummins L, vd. Açıklanabilir yapay zeka teknolojileri üzerine ampirik bir araştırma: teknik ve uygulama perspektiflerinden son trendler, kullanım örnekleri ve kategoriler. Elektronik. 2023; 12: 1092-1151. doi:10.3390/electronics12051092
  23. Zirar A, Ali SI, Islam N. İşçi ve iş yeri: yapay zekâ (YZ) birlikteliği: ortaya çıkan temalar ve araştırma gündemi. Technovation. 2023; 124:102747. doi:10.1016/j.technovation.2023.102747
  24. Ji J, Qiu T, Chen B ve diğerleri. Yapay zeka hizalaması: kapsamlı bir inceleme. arXiv ön baskısı. 2024. doi:10.48550/arXiv.2310.19852
  25. Li B, Qi P, Liu B, ve diğerleri. Güvenilir Yapay Zeka: prensiplerden uygulamalara. ACM Comput. Surv.2023; 55(9): 1-46. doi:10.1145/3555803
  26. Bereska L, Gavves E. Mekanistik yorumlanabilirlik—bir inceleme. arXiv ön baskısı. 2024. doi:10.48550/arXiv.2404.14082
  27. Templeton A, Conerly T, Marcus J, vd. Tek anlamlılığın ölçeklendirilmesi: 3. madde sonesinden yorumlanabilirliğin çıkarılması. AI Transformer Circuits Thread. 2024. Erişim tarihi: 25 Temmuz 2024. https://transformer-circuits.pub/2024/scaling-monosemanticity/
  28. Yapay zekânın zihninin iç yüzü. Araştırmacılar, büyük dil modellerinin nasıl çalıştığını anlamaya çalışıyor. The Economist. 13 Temmuz 2024. https://www.economist.com/science-and-technology/2024/07/11/researchers-are-figuring-out-how-large-language-models-work
  29. Parker SK, Grote G. Otomasyon, algoritmalar ve ötesi: dijital dünyada iş tasarımının neden her zamankinden daha önemli olduğu. Uygulamalı Psikoloji. 2022; 71: 1171-1204. doi:10.1111/apps.12241
  30. Bogen M, Winecoff A. Yapay zekâ yönetişimine sosyoteknik yaklaşımların uygulanması. Demokrasi ve Teknoloji Merkezi; 15 Mayıs 2024. Erişim tarihi: 20 Haziran 2024. https://cdt.org/insights/applying-sociotechnical-approaches-to-ai-governance-in-practice/
  31. Schulte PA, Leso V, Iavicoli I. Gelişen teknolojilerin sorumlu geliştirilmesi: işçi koruması için nanoteknolojiden uzantılar ve dersler. J Occup Environ Med. 2024; 66: 528-535. Çevrimiçi olarak basım öncesi yayınlandı doi:10.1097/JOM.0000000000003100
  32. Ulusal Telekomünikasyon ve Bilgi İdaresi. Yapay Zeka Sorumluluk Politikası Raporu. ABD Ticaret Bakanlığı; 27 Mart 2024. Erişim tarihi: 25 Temmuz 2024. https://www.ntia.gov/issues/artificial-intelligence/ai-accountability-policy-report/recommendations
  33. Manheim D, Martin S, Bailey M, Samin M, Greutzmacher R. Yapay Zeka Denetim Standartları Kurulu’nun Gerekliliği. arXiv ön baskısı. 2024. Erişim tarihi: 25 Temmuz 2024. doi:10.48550/arXiv.2404.13060
  34. Uluslararası Elektroteknik Komisyonu. IEC 31010:2019. Risk yönetimi—risk değerlendirme teknikleri. Uluslararası Standardizasyon Örgütü; Haziran 2019. Erişim tarihi: 25 Temmuz 2024. https://www.iso.org/standard/72140.html
  35. Falco G, Shneiderman B, Badger J ve diğerleri. Bağımsız denetimler yoluyla yapay zeka güvenliğinin yönetimi. Nat Mach Intell. 2021; 3: 566-571. doi:10.1038/s42256-021-00370-7
  36. Cihon P, Kleinaltenkamp MJ, Schuett J, Baum SD. Yapay zeka sertifikasyonu: Bilgi asimetrilerini azaltarak etik uygulamayı geliştirme. arXiv ön baskısı. 20 Mayıs 2021. Erişim tarihi: 6 Temmuz 2024. doi:10.48550/arXiv.2105.10356
  37. Raji ID, Smart A, White RN ve diğerleri. Hesap verebilirlik açığını kapatmak: Dahili algoritmik denetim için uçtan uca bir çerçeve tanımlama. arXiv ön baskısı. 3 Ocak 2020. doi:10.48550/arXiv.2001.00973

Kaynaklar

 

 

https://pubmed.ncbi.nlm.nih.gov/39223704/

 

Scroll to Top