2024’ün en büyük Yapay Zeka fiyaskoları.

 

Yasadışı tavsiyelerde bulunan sohbet robotlarından, yapay zeka tarafından oluşturulan şüpheli arama sonuçlarına kadar, yılın en büyük yapay zeka başarısızlıklarına bir göz atın.

 

İlerhiannon William / Aralık 2024

Geçtiğimiz 12 ay, YZ alanında çalışanlar için tartışmasız bir şekilde yoğun geçti. Sayamayacağımız kadar çok başarılı ürün lansmanı ve hatta Nobel Ödülleri oldu.  Ancak işler her zaman yolunda gitmedi.

Yapay zeka öngörülemeyen bir teknolojidir ve üretken modellerin artan kullanılabilirliği insanların sınırlarını yeni, tuhaf ve bazen zararlı yollarla test etmelerine yol açmıştır. Bunlar 2024’ün en büyük yapay zeka hatalarından bazılarıydı.

Yapay zeka saçmalığı internetin hemen her köşesine sızdı

Üretken YZ, yığınla metin, resim, video ve diğer türde materyal oluşturmayı çocuk oyuncağı haline getirir. Bir komut girdiğinizde seçtiğiniz modelin bir sonuç çıkarması yalnızca birkaç saniye sürdüğü için, bu modeller büyük ölçekte içerik üretmenin hızlı ve kolay bir yolu haline geldi. Ve 2024, bu (genellikle düşük kaliteli) medyaya gerçek adını vermeye başladığımız yıldı: YZ çöpü.

Yapay zeka pisliği yaratmanın bu düşük riskli yolu, artık internetin hemen her köşesinde bulunabileceği anlamına geliyor; gelen kutunuzdaki haber bültenlerinden ve Amazon’da satılan kitaplardan web genelindeki reklamlara ve makalelere ve sosyal medya akışlarınızdaki ucuz resimlere kadar. Bu resimler ne kadar duygusal olarak çağrışımlıysa paylaşılma olasılıkları o kadar yüksek oluyor ve bu da bilgili yaratıcıları için daha yüksek etkileşim ve reklam geliri sağlıyor.

Yapay zeka saçmalığı sadece can sıkıcı değil; yükselişi, onu üretmeye yardımcı olan modellerin geleceği için gerçek bir sorun teşkil ediyor. Bu modeller internetten toplanan verilerle eğitildiği için, yapay zeka çöpü içeren giderek artan sayıdaki kalitesiz web sitesi, modellerin çıktılarının ve performansının giderek kötüleşeceği konusunda çok gerçek bir tehlike olduğu anlamına geliyor .

Yapay zeka sanatı gerçek olaylara ilişkin beklentilerimizi çarpıtıyor

Bu aynı zamanda gerçeküstü yapay zeka görüntülerinin etkilerinin gerçek hayatımıza sızmaya başladığı yıldı. Roald Dahl’ın Charlie ve Çikolata Fabrikası’ndan esinlenen, son derece resmi olmayan, sürükleyici bir etkinlik olan Willy’s Chocolate Experience , Şubat ayında, yapay zeka tarafından üretilen fantastik pazarlama materyallerinin ziyaretçilere, üreticilerinin oluşturduğu seyrek dekore edilmiş depodan çok daha görkemli olacağı izlenimini vermesinin ardından dünya çapında manşetlere çıktı. Benzer şekilde, yüzlerce insan var olmayan bir Cadılar Bayramı geçidi için Dublin sokaklarını doldurdu . Pakistan merkezli bir web sitesi, yapay zekayı kullanarak şehirdeki etkinliklerin bir listesini oluşturdu ve bu liste 31 Ekim öncesinde sosyal medyada geniş çapta paylaşıldı. SEO tuzağı sitesi (myspirithalloween.com) o zamandan beri kapatılmış olsa da, her iki etkinlik de yapay zeka tarafından üretilen materyale olan yersiz kamu güveninin çevrimiçi ortamda nasıl geri dönüp bizi rahatsız edebileceğini gösteriyor.

Grok kullanıcıların hemen hemen her senaryonun görüntüsünü oluşturmasına olanak tanır.

Büyük YZ görüntü oluşturucularının büyük çoğunluğu, kullanıcıların şiddet içeren, açık, yasadışı ve başka türlü zararlı içerikler oluşturmasını önlemek için YZ modellerinin ne yapıp ne yapamayacağını dikte eden kurallar olan koruma bariyerlerine sahiptir. Bazen bu koruma bariyerleri yalnızca hiç kimsenin başkalarının fikri mülkiyetini açıkça kullanmamasını sağlamak içindir. Ancak Elon Musk’ın YZ şirketinin yaptığı xAI adlı bir asistan olan Grok, Musk’ın “uyanmış YZ” dediği şeyi reddetmesiyle uyumlu olarak bu ilkelerin neredeyse hepsini görmezden geliyor.

Diğer görüntü modelleri genellikle ünlülerin, telif hakkıyla korunan materyallerin, şiddetin veya terörizmin görüntülerini oluşturmayı reddederken, Grok Donald Trump’ın bir bazuka ateşlediği veya Mickey Mouse’un bir bomba tuttuğu görüntüleri memnuniyetle üretecektir. Çıplak görüntüler üretmede çizgiyi çekerken, kurallara uymayı reddetmesi diğer şirketlerin sorunlu materyaller oluşturmaktan uzak durma çabalarını baltalamaktadır.

Taylor Swift’in cinsel içerikli deepfake’leri internette dolaşıyor.

Ocak ayında, şarkıcı Taylor Swift’in rızası olmadan yapılan deepfake çıplak fotoğrafları X ve Facebook dahil olmak üzere sosyal medyada dolaşmaya başladı. Bir Telegram topluluğu, Microsoft’un YZ görüntü oluşturucusu Designer’ı açık görüntüler üretmesi için kandırdı ve bariyerlerin yerinde olsalar bile nasıl aşılabileceğini gösterdi.

Microsoft sistemin açıklarını hızla kapatırken, olay platformların kötü içerik denetleme politikalarına ışık tuttu, görselleri içeren gönderiler geniş çapta dolaşıp günlerce canlı kaldıktan sonra. Ancak en ürpertici çıkarım, rızaya dayanmayan deepfake pornografisiyle mücadele etmek için hala ne kadar güçsüz olduğumuzdur. Filigranlama ve veri zehirleme araçları yardımcı olabilirken, bir fark yaratmak için çok daha yaygın bir şekilde benimsenmeleri gerekecek.

İş sohbet robotları kontrolden çıktı.

Yapay zeka yaygınlaştıkça, işletmeler zamandan ve paradan tasarruf etmek ve verimliliği en üst düzeye çıkarmak için üretken araçları benimsemek için yarışıyor . Sorun şu ki, sohbet robotları bir şeyler uyduruyor ve size doğru bilgi sağlamak için güvenilemez bir ortam yaratıyor.

Air Canada, sohbet robotunun bir müşteriye var olmayan bir yas iadesi politikasını takip etmesini tavsiye etmesinden sonra bunu zor yoldan öğrendi. Şubat ayında, havayolunun sohbet robotunun “kendi eylemlerinden sorumlu ayrı bir tüzel kişilik” olduğu iddiasına rağmen, bir Kanada küçük davalar mahkemesi müşterinin yasal şikayetini onayladı.

Sohbet robotlarının yarardan çok zarar verebileceğinin diğer dikkat çeken örneklerinden biri de, teslimat firması DPD’nin robotunun neşeyle küfür etmesi ve kendisini işe yaramaz olarak tanımlamasıydı. New Yorklulara şehirlerinin hükümeti hakkında doğru bilgi sağlamak için kurulan farklı bir robot ise sonunda yasaları nasıl çiğneyebilecekleri konusunda rehberlik etmeye başladı .

Yapay zekalı aletler piyasayı tam anlamıyla hareketlendirmiyor.

Donanım asistanları, YZ sektörünün 2024’te kırmaya çalıştığı ve başaramadığı bir şey. Humane, giyilebilir bir yaka bilgisayarı olan Ai Pin vaadiyle müşterilere satış yapmaya çalıştı ancak fiyatını düşürmek bile zayıf satışları artırmada başarısız oldu . ChatGPT tabanlı kişisel asistan cihazı Rabbit R1, bir dizi eleştirel inceleme ve yavaş ve hatalı olduğu yönündeki raporların ardından benzer bir kader yaşadı. Her iki ürün de aslında var olmayan bir sorunu çözmeye çalışıyor gibiydi.

Yapay zeka arama özetleri ters gitti.

Hiç pizzaya tutkal eklediniz mi veya küçük bir kaya parçası yediniz mi ? Bunlar, arama devi Google’ın Yapay Zeka Genel Bakış özelliğinin, arama sonuçlarının en üstüne oluşturulan yanıtları ekledikten sonra Mayıs ayında web kullanıcılarına verdiği tuhaf önerilerden sadece birkaçı. Sorun, yapay zeka sistemlerinin gerçeklere dayanan bir haber hikayesi ile Reddit’teki bir şaka gönderisi arasındaki farkı söyleyememesiydi. Kullanıcılar, Yapay Zeka Genel Bakışlarının üretebileceği en garip yanıtları bulmak için yarıştı.

Bu başarısızlıklar komikti, ancak yapay zeka özetlerinin de ciddi sonuçları olabilir. Uygulama bildirimlerini bir araya getiren ve içeriklerinin özetlerini oluşturan yeni bir iPhone özelliği yakın zamanda yanlış bir BBC News başlığı oluşturdu. Özette, sağlık sigortası CEO’su Brian Thompson’ın cinayetiyle suçlanan Luigi Mangione’nin kendini vurduğu yanlış bir şekilde belirtiliyordu. Aynı özellik daha önce İsrail başbakanı Benjamin Netanyahu’nun tutuklandığını iddia eden bir başlık oluşturmuştu, bu da yanlıştı. Bu tür hatalar istemeden yanlış bilgi yayabilir ve haber kuruluşlarına olan güveni zedeleyebilir.

https://www.technologyreview.com/2024/12/31/1109612/biggest-worst-ai-artificial-intelligence-flops-fails-2024/

 

 

 

Scroll to Top