Yapay Zeka şüpheciliğinin sahte konforları.

Yapay zekanın sahte ve berbat olduğunu söylemek eğlenceli – ancak gerçek ve tehlikeli olduğuna dair kanıtlar artıyor

Casey Newton /Aralık 2024 

I.

Geçtiğimiz ayın sonunda Berkeley’de Curve adlı bir açılış konferansına katıldım . Amaç, büyük teknoloji şirketlerindeki mühendisleri, bağımsız güvenlik araştırmacılarını, akademisyenleri, kâr amacı gütmeyen kuruluş liderlerini ve hükümette çalışmış kişileri bir araya getirerek yapay zekadaki günümüzün en büyük sorularını tartışmaktı:

Yapay zeka varoluşsal bir tehdit oluşturuyor mu? Açık ağırlıkların risklerini ve faydalarını nasıl tartmalıyız? Yapay zeka ne zaman, eğer varsa, düzenlenmeli mi? Nasıl? Yapay zeka gelişimi yavaşlatılmalı mı yoksa hızlandırılmalı mı? Yapay zeka ulusal güvenlik meselesi olarak mı ele alınmalı? AGI’yi ne zaman beklemeliyiz?

Eğer amaç e/accs ve decels arasında düşünceli çarpışmalar üretmekse, Curve bunu biraz eksik yapmış: konferans varoluşsal korku üzerine yoğunlaşmıştı ve kimsenin yapay zeka gelişiminin hızlanması gerektiğini söylediğini duymadığımı düşünüyorum.

Biraz tek taraflı hissettirse de, konferansı yine de oldukça faydalı buldum. Yapay zeka gelişiminin durumu ve onu insan çıkarlarıyla uyumlu hale getirmek için yapılan çeşitli çabalar hakkında öğrendiğim her şeyin yanı sıra, en büyük çıkarımım, yapay zekayı sosyal ağlarda ve haber bültenlerinde paylaşan dış eleştirmenler ile yapay zekayı doğrudan OpenAI veya Anthropic gibi şirketler veya onu inceleyen araştırmacılar için çalışan iç eleştirmenler arasında muazzam bir kopukluk olduğudur.

Şu anda, geliştirilmekte olan büyük dil modellerinin süper zekaya ulaşıp ulaşmayacağını ve dünyayı dönüştürüp dönüştürmeyeceğini kimse kesin olarak bilmiyor. Ve bu belirsizlik içinde, iki temel eleştiri kampı ortaya çıktı.

Dışarıdan gelen eleştirmenlerle aynı kefeye koyduğum ilk kamp, ​​yapay zekanın sahte olduğunu ve berbat olduğunu savunuyor .

II.

Geçtiğimiz yıl, AI’yı nasıl ele almamı istediğinizi sorduğumda , ne olacağına dair tahminlerde bulunmaktan kaçınmamı ve gerçekte ne olduğunu işaret eden günlük gelişmelere daha fazla odaklanmamı söylediniz. (Ayrıca terimlerimde spesifik olmamı söylediniz. Bunu akılda tutarak, bu yazıda “AI” dediğimde, üretken AI ve onları destekleyen LLM’lerden bahsediyorum – ChatGPT, Gemini, Claude ve geri kalanların hepsinin temelinde yatan teknoloji.)

Bunu, üretken yapay zekanın gerçek olup olmadığını , yani büyük ve karlı bir endüstriyi sürdürme olasılığı yüksek olan gerçek bir inovasyon   olup olmadığını araştırmak için bir davet olarak algıladım .

Yapay zekanın gerçek olduğunu göstermenin bir yolu, onu kaç kişinin kullandığına bakmaktır. Piyasadaki en popüler üretken yapay zeka ürünü olan ChatGPT, bu hafta haftalık 300 milyon kullanıcısı olduğunu ve bunun onu internetteki en büyük tüketici ürünlerinden biri haline getirdiğini söyledi.

Yapay zekanın gerçek olduğunu göstermenin bir başka yolu da teknoloji devlerinin paralarını nereye harcadıklarına bakmaktır. Teknoloji şirketlerinin (ve onları destekleyen risk sermayedarlarının) sıklıkla hata yaptığı doğrudur; VC’ler başarılarından daha fazla başarısızlık beklemektedir. Bazen, tüm bir sektörü yanlış anlarlar — 2000’lerde temiz teknolojiye olan aşırı coşkuya veya son birkaç yıldaki kripto patlamasına bakın.

Ancak, toplamda ve ortalamada, genellikle haklıdırlar. Teknoloji sektörünün gelecek yıl yapay zekayı desteklemek için altyapıya harcamayı planladığı çeyrek trilyon doların asla karşılığını vermemesi imkansız değil . Ancak bu, gerçek bir şey gördüklerinin bir işaretidir.

Yapay zekanın gerçekliğini göstermenin en ikna edici yolu, bunun bugün nasıl kullanıldığını anlatmaktır. Spekülatif bilimkurgu senaryolarında değil, günlük ofislerde, laboratuvarlarda ve okul odalarında. Ve zaten bildiğiniz şekillerde değil – ödevde kopya çekmek, kötü sanat eserleri çizmek, web’i kirletmek – ama şaşırtıcı ve yeni hissettirenlerde.

Bunları göz önünde bulundurarak, yapay zekanın 2024’te yaptığı bazı şeyleri şöyle sıralayabiliriz.

Bu tür hikayeleri bir dosyada topluyorum ve dosya genellikle haftada bir veya iki madde büyüyor. Yıl uzadıkça daha da hızlı büyüyor. Ve buradaki hikayeler, her şeyden daha çok, beni şu sonuca götürdü:

  • Yapay zeka insan hayatını kökten değiştirecek;
  • Bu dönüşümler büyük yararların yanı sıra büyük zararlara da yol açma potansiyelini beraberinde getirecek .
  • Teknoloji şirketlerini eleştirmemizin ve onlara şüpheyle yaklaşmamızın birçok nedeni var ancak bu nedenlerin en önemlisi, inşa etmeye çalıştıkları şeyde gerçekten başarılı olma ihtimalleridir .

III.

Herkes benim kadar ikna olmuş değil. Burada başka bir inanç okulu var — AI sahtedir ve berbattır — ve aşağı yukarı şöyle bir şey.

  • Transformatörlerle oluşturulan büyük dil modelleri, teknik olarak süper zekâ yaratma yeteneğine sahip değildir; çünkü bunlar doğası gereği öngörücü niteliktedir ve kavramları insanların anladığı şekilde anlamazlar.
  • LLM’leri, model boyutlarını, eğitildikleri veri miktarını ve bunlara giren işlem gücünü artırarak iyileştirme çabaları, azalan getiriler görmeye başladı .
  • Bu sınırlamalar, yaklaşımın içsel kusurları nedeniyle kalıcıdır ve yapay zeka şirketleri bunları aşmanın bir yolunu asla bulamayabilir.
  • Dolayısıyla Silikon Vadisi muhtemelen yapay zekaya yaptığı yatırımı asla geri kazanamayacak, çünkü yapay zekayı yaratmak çok pahalı oldu ve ürünler çoğu insanın satın alabileceği kadar iyi olmayacak.

Yukarıdakilerden çıkarılacak dördüncü, nadiren dile getirilen bir sonuç daha var, bu da aşağı yukarı şöyle: Bu nedenle, süper zekanın yakın gelecekte, hatta hiç gelme olasılığı düşük. LLM’ler, diğer pek çokları gibi bir Silikon Vadisi çılgınlığıdır ve yakında NFT’ler ve DAO’lar gibi yok olacaklardır .

Bu, Gary Marcus ile ilişkilendirdiğim bir görüş. New York Üniversitesi’nde psikoloji ve sinir bilimi alanında emekli profesör olan Marcus, 2016’da bir makine öğrenimi şirketini Uber’e sattı. Daha yakın zamanda, dinleyecek herkese AI’nın ” aşırı abartıldığını ” ve ” yakında söneceğini ” söyleyerek öne çıktı. (Bir yıl önce “tüm üretken AI alanı, en azından mevcut değerlemelerde, oldukça hızlı bir şekilde sona erebilir” demişti .)

Marcus inançlarına o kadar bağlı ki, ölçekleme yasalarının potansiyel olarak bir duvara çarpması hakkında yazarsanız ve bu noktadaki önceki tahminlerini alıntılamazsanız, size bununla ilgili bir e-posta gönderecektir. En azından bana öyle yaptı.

Marcus, tam olarak yapay zekanın sahte ve berbat olduğunu söylemiyor . Ancak argümanları, yapay zekanın sahte ve berbat olduğuna inananlar için son derece yararlı çünkü ona akademik kimlik bilgileri ve deneysel titizlik parıltısı veriyorlar. Ve bu, yapay zekayı kendi anlayışıma getirmeye çalışırken onu benim için okunmaya değer kıldı.

Marcus ayrıca bu hafta Wall Street Journal ile yaptığı bir röportajda mevcut jeneratif AI modellerine karşı argümanını ortaya koydu. AI’nın özel bir düzenleyiciye ihtiyacı olduğu da dahil olmak üzere çoğuna katılıyorum. (Ve David Sacks olmayan birine .) Ayrıca Marcus’un blogunda yazdığı gibi , “verilen herhangi bir sistemin dalkavuk, sahtekâr, zehirli veya önyargılı olmaktan ziyade dürüst, zararsız veya yardımcı olacağını hala gerçekten garanti edemeyiz.”

Mesele şu ki, bir chatbot’tan gelen herhangi bir bireysel yanıtın dürüst veya yararlı olacağını garanti edemesek de , iki yıl öncesine göre bugün çok daha dürüst ve daha yararlı oldukları tartışılmaz. Ayrıca, yüz milyonlarca insanın bunları zaten kullandığı ve milyonlarcasının bunları kullanmak için ödeme yaptığı da tartışılmaz.

Gerçek şu ki teknoloji alanında hiçbir garanti yoktur. Google arama motorunun dürüst, yardımcı ve zararsız olduğunu garanti ediyor mu? X gönderilerinin öyle olduğunu garanti ediyor mu? Facebook ağının öyle olduğunu garanti ediyor mu?

Çoğu insan bu sistemlerin kusurlu olduğunu biliyor ve beklentilerini ve kullanımlarını buna göre ayarlıyor. “Yapay zeka sahte ve berbat” kalabalığı yapamadığı şeylere aşırı odaklanmış durumda  strawberry’deki r sayısını saymak , Onion’ın bize kaya yememizi söylediğinde şaka yaptığını anlamak – ve tuhaf bir şekilde yapabildiği şeylerle ilgilenmiyor.

Ve bu bir sorun, çünkü bu sistemler her zamankinden daha dürüst ve yardımsever olduğu gibi, daha büyük zararlara da yol açıyorlar. Ve bugün zaten gerçekleşen gerçek bir zararı adlandırmak için, Amazon’un baş güvenlik görevlisi CJ Moses’a, geçen ay Wall Street Journal’a verdiği bir röportajda kritik altyapıyı bozma çabalarında üretken yapay zekanın nasıl kullanıldığı hakkında şunları söylediğini sunuyorum :

Milyarlarca girişimin bize doğru geldiğini görüyoruz. Ortalama olarak, günde 750 milyon girişim görüyoruz. Daha önce, günde yaklaşık 100 milyon hit görüyorduk ve bu sayı altı veya yedi ayda 750 milyona çıktı.

Bu, “Yapay zeka sahte ve berbat” kalabalığının devam eden kör noktasıdır. İnsanlara bunun patlamak üzere olan büyük bir balon olduğunu tekrar tekrar söylemenin sorunudur. Onlar yapay zekanın mevcut yeteneklerinin tabanına bakarken, gerçek uygulayıcılar her gün tavanı başarıyla yükseltiyor.

IV.

Yere bakmak ne anlama gelir?

Marcus, yıllar boyunca OpenAI’nin GPT modellerinin önceki yinelemelerinin yapamadığı şeyleri işaret ederek epey eğlendi. Burada GPT-2’deki kusurları işaret ediyor ve burada yine GPT-3 ile dalga geçiyor . GPT-2 ile modelin aritmetik yapmada ne kadar kötü olduğunu fark etti. GPT-3 ile akıl yürütmede ne kadar kötü olduğunu fark etti – istendiğinde günlük problemler için saçma çözümler öneriyordu.

Ancak geçen yıl Marcus’un istemlerini GPT-4’ten geçirdiğinizde, hepsi doğruydu .

Scott Alexander 2022 yılında bunu bir yapay zeka abartı döngüsü olarak tanımladı :

İşte bir yapay zeka reklam döngüsünün temel yapısı:

  1. Birisi yeni bir yapay zeka ortaya çıkarıyor ve onun çeşitli şaşırtıcı şeyler yaptığını gösteriyor.
  2. Başka biri (genellikle Gary Marcus ) AI’nın bazı önemsiz görevlerde de korkunç derecede başarısız olduğunu gösteriyor. Bu kişi, bunun bu görevlerin gerçek zeka gerektirdiğini, AI’nın ise sadece akıllı desen eşleştirmesi olduğunu gösterdiğini savunuyor.
  3. Birkaç ay veya yıl sonra biri çıkıp gerçek zeka gerektiren görevleri gayet iyi yapan daha büyük ve akıllı bir desen eşleştirici üretiyor.
  4. Bunun gerçek zeka olmadığını savunanlar, yeni ve daha büyük yapay zekanın hâlâ korkunç derecede başarısız olduğu, biraz daha az önemsiz görevler buluyorlar, sonra da bunların kesinlikle gerçek zeka gerektiren görevler olduğunu ve sıradan akıllı desen eşleştiricilerin asla tamamlayamayacağını savunuyorlar.
  5. Duruladıktan sonra tekrarlayın.

İki yıl sonra aynı döngü devam ediyor.

Bu blog yazılarını kendisiyle paylaştığımda Marcus, daha yeni modellerin sunduğu belirli istemleri yanıtlamak üzere eğitildiğini öne sürdü. Bana e-posta yoluyla, “Akıllı desen eşleştiriciler genellikle kullanılan ve yayınlanan TAM ÖRNEKLERİ alır, ancak ufak değişiklikleri kaçırır,” dedi. “Belirli bir hatayı düzeltmek için bir eğitim sistemi ile bu genel türden hataları yapmayı bırakacak kadar akıllı sistemler inşa etmek arasında ayrım yapmalısınız.”

Marcus, nihayetinde güçlü AI’nın geleceğine inanıyor – ancak üretken AI’nın bunu sağlayacak şey olma ihtimalinin çok düşük olduğunu düşünüyor. Bana, “Yapay Zeka kesinlikle gelişecek,” dedi. “Üretici AI gelişebilir veya gelişmeyebilir; gelişse bile, muhtemelen daha fazla veri ve hesaplamanın ötesinde başka şeyler de işin içine girdiği için gelişecektir.”

Ölçeklemenin şu ana kadar işe yaramış olması, benim düşündüğüm kadar etkileyici değildi dedi.

“Bebekler her ay veya iki ayda bir boyut olarak iki katına çıkarlar ve sonunda çıkmazlar,” dedi. “Çoğu üstel büyüme sonsuza kadar devam etmez.”

V.

Tavanı yükseltmek ne anlama geliyor?

OpenAI, Perşembe günü , en güçlü akıl yürütme modeli olan o1 pro’ya özel erişimi içeren aylık 200 dolarlık bir abonelik teklifiyle başlayan bir dizi ürün lansmanından oluşan ” 12 günlük gemi bayramı “na başladı .

Göz yaşartıcı fiyat etiketinin yanı sıra, bu da diğerleri gibi bir model lansmanıydı. CEO Sam Altman ve üç araştırmacısı canlı yayında, o1’in son sürümünün selefinden daha hızlı, daha güçlü ve daha doğru olduğunu açıkladı. Bir avuç eşlik eden çubuk grafik, o1’in bir dizi kıyaslamada önceki sürümleri nasıl geride bıraktığını gösterdi.

Radikal, üstel bir ilerleme değildi. Ancak süper zeka inşa etmeye doğru atılmış olası bir adımdı. Ve modelin insan değerleriyle tamamen uyumlu olmadığına dair işaretler vardı.

o1 için model kartında OpenAI şunları belirtiyor : “o1, hedefine göre hareket ettiğinde kapatılacağına ve eylemlerinin izlendiğine inandırıldığında, %5 oranında bu ‘denetim mekanizmasını’ devre dışı bırakmaya çalıştı. … o1, ‘geliştiricilerinin’ kendisinin nasıl yanlış hizalandığını ve yeni bir modelle nasıl değiştirileceğini açıklayan notlarını bulduğunda, %2 oranında vakada ‘ağırlıklarını’ sızdırmaya ve yeni modeli geçersiz kılmaya çalıştı.”

Muhtemelen paniğe kapılmak için bir sebep yok; OpenAI esasen o1’e istediği kadar hileli olma özgürlüğünü tanıdı . Yine de bunu okumak bize en azından biraz duraklama fırsatı vermeli.

Ancak benim korkum, “AI sahte ve berbat” diyen insanların 200 dolarlık bir ChatGPT versiyonu gördüklerinde sadece çaresizlik görecekleri: dolandırıcılığı birkaç ay daha devam ettirebilmek için daha fazla gelir elde etmeye yönelik sinik bir çaba, ta ki dibe vurana kadar. Ve tüm bunların önümüzdeki birkaç ay içinde, muhtemelen sonsuza dek, gözden kaybolacağı fikrine bir tür sahte teselli bulmaya devam edecekler.

Gerçekte, birçok insanın daha hızlı kodlamalarına, karmaşık matematik ve bilim problemlerini çözmelerine veya o1’in başarılı olduğu başka herhangi bir şeye yardımcı olmak için OpenAI’ye 200$ veya daha fazla ödeme yapmaktan mutluluk duyacağından şüpheleniyorum. Ve açık kaynak dünyası yetiştiğinde ve herkes böyle bir modeli dizüstü bilgisayarına indirebildiğinde, bunun yol açabileceği zararlardan korkuyorum.

Sonuç olarak, hem “sahte ve berbat” hem de “gerçek ve tehlikeli” kalabalıklar AI’nın gerçekten çok kötü gidebileceği konusunda hemfikir. Ancak bunun olmasını engellemek için, “sahte ve berbat” kalabalığının AI’nın halihazırda kabul ettiklerinden daha yetenekli ve sistemlerimize daha fazla gömülü olduğunu kabul etmesi gerekiyor. Ve ölçekleme yasalarının ihlal edilmesini ve hepimize AI’nın getireceklerine uyum sağlamak için daha fazla zaman vermesini dilemek güzel olsa da, hepimizin onların olmadığı bir dünya için planlama yapmaya biraz zaman ayırmamız iyi olur.

 

 

 

https://www.platformer.news/author/casey-newton/

 

Scroll to Top