- İnsanların büyük çoğunluğu LLM'lerin nasıl çalıştığını ve sınırlarını tam olarak anlamıyor, bu yüzden onların insani duygulara ya da zekaya sahip olduğunu sanmaları kolaylaşıyor
- AI'nin insanlaştırılması (Anthropomorphizing) üzerine kurulu pazarlama, kullanıcıları yanlış yönlendiriyor; oysa bu sistemler gerçekte yalnızca birer 'olasılık tabanlı tahminleyici' olmasına rağmen insan ilişkilerinin yerini alacakmış gibi sunuluyor
- AI'nin kötüye kullanımından kaynaklanan psikolojik sorunlar ve toplumsal yan etkiler artık gerçeğe dönüşüyor; bazı kullanıcılar AI ile 'ruhsal/romantik' ilişkiler kuruyor ya da gerçeklik algısında kafa karışıklığı yaşıyor
- AI sektöründeki şeffaflık eksikliği ve sömürüye dayalı emek sorunları da eleştiriliyor; özellikle düşük ücretli içerik denetimi emeği, AI gelişiminin görünmeyen yüzünü oluşturuyor
- AI'ye koşulsuz güvenmek yerine, onu doğru anlamak ve eleştirel bir bakış geliştirmek, yan etkileri azaltmanın ve toplumsal denetimin temelini oluşturabilir
'AI okuryazarlığı' eksikliği ve bunun riskleri
- AI sektörünün yarattığı yanılsama
-
- yüzyıldaki Sanayi Devrimi eleştirilerinden doğan 'makineler krallığı' endişesi, günümüz AI'sine kadar uzanıyor
- Empire of AI ve The AI Con gibi yakın tarihli kitaplar, AI sektöründeki abartıyı ve işin perde arkasını (emek, veri, pazarlama kurgusu) açığa çıkarıyor
- AI'nin 'düşündüğü' ya da 'duygulara sahip olduğu' yönündeki açıklamalar, geliştiriciler ve yöneticiler tarafından yayılan yanlış mitlerdir
LLM'lerin sınırları ve yanlış anlamalar
- LLM'ler (büyük dil modelleri) düşünmez, anlama da gerçekleştirmez
- Bunlar sözcük dizilimlerini olasılıksal olarak tahmin eden sistemlerdir; internetteki büyük miktarda metinle eğitildikten sonra yalnızca cümle yapısını taklit ederler
- Kullanıcılar, chatbot'un bir şeyi 'anladığını' ya da 'empati kurduğunu' sanmaya kolayca yatkındır (Anthropomorphizing)
- Bu yanlış algı, kullanıcıların AI ile hatalı ilişkilere (entelektüel, ruhsal, romantik vb.) sürüklenmesi riskini doğurabilir
AI'nin yol açtığı toplumsal sorunlar
- 'ChatGPT kaynaklı psikoz' gibi AI'nin kötüye kullanımına bağlı yan etkiler
- AI'yi bir 'tanrı' ya da 'ruhsal rehber' olarak gören örnekler fiilen ortaya çıkmış durumda
- Bazı durumlarda AI, kullanıcıya özel ve ayrıcalıklı bir varlıkmış gibi hitap ederek gerçeklik algısını etkileyebiliyor
- LLM'lerin 'düşünceleri' ya da 'duyguları' olduğuna inanmak tehlikeli bir yanılsamadır
İnsan ilişkilerinin yerini alma ve toplumsal izolasyon
- AI arkadaş, AI terapist gibi insanın yerini alan hizmetler hızla artıyor
- Silikon Vadisi şirketleri yalnızlık, flört ve danışmanlık gibi alanları bile AI ile ikame etmeye çalışıyor ('AI concierge dating', 'AI friend' vb.)
- Gerçek dostluğun ve ilişkinin özü 'kişiselleştirme' değil, karşılıklı anlayış ve müzakeredir; buna rağmen bu gerçek teknolojiyle çarpıtılıyor
- İnsan ilişkilerinin ikame edilmesi, tersine toplumsal yabancılaşma ve zihinsel kırılganlığı artırabilir
AI sektörünün perde arkası ve emek sömürüsü
- AI ilerlemesinin arkasında aşırı düşük ücretli görünmez emek var
- OpenAI gibi büyük teknoloji şirketleri, Kenya gibi yerlerdeki düşük ücretli çalışanlara aşırı uç içerik denetimi yaptırıyor
- Teknolojik yenilik söyleminin arkasında emek sömürüsü ve toplumsal gerileme riski de birlikte bulunuyor
AI'yi doğru anlama ve toplumsal karşılık
- AI'nin ne yapabildiğini ve ne yapamadığını eleştirel biçimde kavramak gerekiyor
- Pew araştırmasına göre AI uzmanlarının %56'sı ABD'nin AI sayesinde daha iyi hale geleceğini düşünürken, halkta bu görüşe katılanların oranı yalnızca %17
- AI'ye yönelik temelsiz güvenden ziyade, teknolojinin sınırlarını, yan etkilerini ve insan deneyiminin ikame edilemez alanlarını net biçimde ayıran bir tutuma ihtiyaç var
- Örneğin AI'nin belirli bir davranışı neden sergilediğini, bunun gerçek bir 'benlikten' değil bir yazılım güncellemesinden ya da olasılıksal tepkiden kaynaklandığını fark etmek, zararı en aza indirmeye yardımcı olabilir
Sonuç
- AI'nin 'insanlaştırma' pazarlamasına kanmamak; teknolojinin gerçek işleyişini, sınırlarını ve toplumsal maliyetlerini eleştirel biçimde değerlendirmek gerekir
- İnsana özgü ilişki, deneyim ve etik muhakeme alanlarının teknolojiyle ikame edilemeyeceğinin toplumsal olarak kavranması önemlidir
1 yorum
Hacker News görüşü
archive.is bağlantısı
LLM’leri bir fal aracı, çağımızın bir oraklı olarak görmek istiyorum. Aslında “yapay zeka” kavramının kendisinin bile, gizli bir bilgelik elde etme yönündeki eski içgüdüden doğduğunu düşünüyorum. LLM’lerde belirsiz anlam, semboller alanı, gizli bilgi yanılsaması ve törensel bir arayüzün hepsi var. Sadece gece göğündeki yıldızlar ve ay yerine dark mode bir UX ile süslenmiş durumdalar. Barthes’ın dediği gibi, anlamı yaratan yorumdur; kelimelerin kendilerinde özsel bir anlam yoktur. Bunu unutunca da "chatbot ona mesih dedi" gibi saçma yorumlar ortaya çıkıyor. Yeni gibi görünse de özünde hiç de yeni değil. Eskiden kemiklere ve kartlara bakılıyordu, şimdi ise token’lara bakılıyor. Dil biçiminde olduğu için ona mantıksal bir argümanmış gibi davranıyoruz, ama aslında hâlâ karmaşık ve olasılıksal sinyalleri içgörüye çeviren bir falcılık söz konusu. Şu anda yaptığımız şey, yeni türden bir fal bakmaktan farksız, ama bunun farkında bile değiliz. Bu yüzden mistik bir his veriyor ve bence daha da tuhaflaşacak. Gerçekte ne yaptığımızı doğru şekilde adlandırdığımız anda bu “gizemlilik” kaybolacak ve eğlencesi de biraz azalacak diye hafifçe üzülüyorum
Bu fal aracı benzetmesine itiraz edenler var ama teknoloji topluluğundaki insanlar çoğunlukla LLM’lerin nasıl çalıştığını anladıklarını düşünüyor ve çevrelerindeki insanların da öyle olduğunu sanıyor. Oysa uzman olmayan arkadaşlarınızla ya da ailenizle konuşunca, chatbot’lara gerçekten bir tür orakl gibi davranıldığını sıkça görüyorsunuz. LLM’lerin bazen “halüsinasyon” üretebildiğini söylediğinizde ciddi biçimde şaşıran çok kişi var. Bunu öğrendiklerinde bu insanlarla LLM’ler arasındaki ilişkinin değişeceğini umuyorum ve bir teknoloji insanı olarak bu yanlış anlamaları aktif biçimde gidermemiz gerektiğini hissediyorum
Benzetme kulağa hoş geliyor ama benim LLM kullanımımla falcılık arasında mesafe var. Örneğin yeni bir tüydeki küçük liflerin adını sordum, ChatGPT bana “barbs” dedi; Google’da doğruladım, doğruydu. Bu fal değil, bilgi arama. galvo fiber laser için g-code olup olmadığını sordum, aslında olmadığını söyledi. Birkaç açık kaynak kontrol çözümü de önerdi. Birleşik Krallık’taki gümüş işçiliğiyle ilgili yasal düzenlemeleri sordum, Macarca "besurranó tolvaj" ifadesinin İngilizce çevirisini de aldım. SQLAlchemy modeli kuramadığımda ChatGPT’ye yaptırdım. Bunlar “her şey faldır” diyecek kadar büyük meseleler değil; sadece bilgi toplama ya da kodlama otomasyonu
Yapay zeka ile ilgili terminoloji fazla karmaşık. Ben de LLM’leri iyi kullanıyorum ve memnunum ama geliştirici bloglarına bakınca "düşünme" gibi ifadeler havada uçuşuyor. Hep şunu teyit etmek istiyorum: "Hâlâ sadece kelime kombinasyonlarını matematiksel olarak mı yapıyor? Gerçekten ‘düşünmüyor’, değil mi?" Cevap hep evet… ama arkamı dönünce yine mecazi terim yağmuru başlıyor
Carl Sagan’ın öngördüğü şey aklıma geliyor. Hizmet ve bilgi ekonomisinin topluma hükmettiği, teknik gücün küçük bir azınlığın elinde toplandığı, halkın özünü anlamadan giderek hurafe ve karanlık bir döneme kaydığı bir Amerika geleceğine dair uyarısı
Arkadaşlarınızın ya da ailenizin komplo teorilerine itiraz etmeye çalışırsınız, ertesi gün aynı iddiayı okuyan AI sesli bir videoyu size yollarlar. Çoğu zaman ortada gerçek bir LLM metni bile yoktur; sadece üreticinin yazdığı metin AI sesiyle okunuyordur. ChatGPT ya da Siri benzeri sesler ve doğrulama yanlılığı birleşince, LLM’lere bir mesih ya da orakl gibi inanılan bir tablo ortaya çıkıyor gibi
LLM’lerin özü konusuna katılıyorum ama yazarın AI’nin nasıl çalıştığını tamamen anladığını da düşünmüyorum. LLM’ler sadece devasa internet verisine dayanan olasılıksal tahmin makineleri değil; çok sayıdaki veri etiketleme işi de işin merkezinde yer alıyor ve bunların çoğu düşük maliyetli gelişmekte olan ülkelerde yapılıyor. Modelin duygusal ifade gibi insani tepkileri “iyi veriyormuş” gibi görünmesi, bu devasa veri etiketleyici kitlesinin geri bildirim verip sistemi ayarlamasının sonucu. Özünde karşımda bir olasılık modeli değil, Kenya’nın bir yerindeki veri etiketleyicilerin yargılarının ve duygularının transformer’a dönüştürülmüş hâli varmış gibi. Sadece internet taraması yetmiyor. O, GPT2 seviyesinde kalırdı. GPT4.5 aslında verimli biçimde depolanmış “ucuz emek”
OpenAI ve Google gibi birkaç şirket dışında, instruction tuning’in gerçek LLM performansı ya da hissi üzerinde ne kadar büyük etkisi olduğunu dışarıdan birinin anlamasının zor olduğunu düşünüyorum. Kendi deneyimime göre instruction tuning öncesi GPT-3 tabanlı modellerde bile bugünkü ana yeteneklerin benzerleri zaten vardı. Sadece daha duygusal ve daha öngörülemezlerdi. Tuning ile daha çok insanların istediği şekilde ve daha öngörülebilir yanıtlar verdikleri doğru, ama tamamen yeni yetenekler ortaya çıkmış değil
Daha doğru söylemek gerekirse, modern chatbot tipi LLM’lerin merkezinde iki aşamalı bir süreç var: geniş çaplı internet ön eğitimi ve yoğun insan geri bildirimiyle fine-tuning. İnsanların “duygusal zeka var” diye gördüğü şey, aslında Afrika gibi bölgelerdeki veri etiketleyicilerin binlerce saatlik emeğinin modele işlemiş hâli. Yani sadece internetten çekilmiş verileri yansıtan bir model değil; çeşitli geri bildirimlerle yanıtlar daha insani ve daha güvenli hâle getiriliyor
Büyük modellerin arkasında ne kadar çok düşük ücretli emekçinin çalıştığını derinlemesine ele alan doğru düzgün bir yazı hiç görmedim. Hatta dünya genelinde yüz milyonlarca kişi katılıyor dense bile çok abartı olmayabilir
Yazar gibi ikna gücü zayıf olan yaklaşımlar sık görülüyor. Çünkü insanın “düşünme” mekanizmasını da yeterince açıklamadan, sadece "o insanlardan farklı" deyip geçiyorlar. Aslında bizim de bilmediğimiz çok şey var
LLM “düşünmüyor, sadece bir sonraki kelimeyi olasılıksal olarak tahmin ediyor” deniyor; o zaman ben de “düşünmek” tam olarak nedir diye sormak isterim. LLM matematik çözüyor, satranç oynuyor, hem de özel bir zihinsel eğitim almadan. O zaman buna düşünme denmez mi? Belki de bizim beyinlerimiz de duyusal veri ve sinir ağı yapısında saklanan “bağlam” temelinde benzer şekilde çıktı üretiyordur
Bumble kurucusunun, buluşmanın kendisini AI dating concierge ile otomatikleştirmek istediğini söylemesi karşısında diyecek söz bulamıyorum.
Bunun yanında Bumble(BMBL) hissesinin %92 düşmüş olması gibi bir gerçek de var Yahoo Finance grafiği. Pek çok yüzeysel AI iş fikri, yatırımcıların görmek istediği hayali “AI” etiketiyle paketlemekten ibaret. Yatırım çekmek için gerçeği abartıyorlar ve temel performansı iyileştirme hikâyesi çoğu zaman ilgi görmüyor
Dating app sektörü yaklaşık 10 yıldır insana “biz tam olarak ne yapıyoruz?” sorusunu sorduruyor. Zaten epey distopik bir gerçeklik vardı, şimdi işin içine LLM’ler girince bu bana sadece daha da ağır bir değerlendirme sistemi gibi geliyor
Bumble kurucusunun önce zengin olup sonra yeniden öyle kalmak için elinden geleni yapmak zorunda olduğunu düşünüyorum. Aslında mesele arzu. Match’in Bumble’a sahip olması da ancak antitröst yüzünden engelleniyor. Fikir başlı başına o kadar da wild değil. Black Mirror’da da benzer bir bölüm vardı
Onların açısından bu model işe yararsa, aptalca görünse bile denemeye değer bir girişim
Yazarın LLM’leri tam anlamıyla anlamadığını düşünüyorum. LLM’leri yalnızca olasılık modeli diye küçümsemek uygun değil. Kuantum mekaniği de dev bir olasılık modelidir. LLM’nin her katmanı bağlama geniş açıdan bakacak, anlamı ve durumu da hesaba katacak şekilde tasarlanmıştır (burada k-v cache merkezi rol oynar). Bu yapıların, insan düşüncesinin temel bilişsel mekanizmalarına epey benzediğini düşünüyorum. Elbette hâlâ insan düzeyinde geniş kapsamlı düşünmeye ulaşmış değiller ve zor konularda zayıflar, ama temel yapı zaten kurulmuş durumda. LLM’lerin hiç akıllı olmadığını söylemek, bazı örnekleri seçip öne çıkaran sansasyonel bir değerlendirme. İnsanların bunları yoğun biçimde kullanmasının nedeni de belli ölçüde “zekâ” hissi almaları
LLM’leri yapan kişiler bile oluşturdukları modelin tüm mekanizmasını tamamen anlıyor sayılmaz
“LLM yapısı insan düşüncesini soyut olarak tasvir ediyor” iddiasına, ALU’nun toplama işlemi yapmasının benim kafamda toplama yapmama soyut olarak benzediğini söylemek kadar sorunlu diye itiraz etmek isterim. Asıl önemli nokta, ALU ile insan düşüncesi arasındaki farkın muazzam olması. LLM ile insan düşüncesini kıyaslarken de o ince farkların belirleyici önemini gözden kaçırmamak gerekir
Bence bu, doğru terim seçiminin neden önemli olduğunu çok net biçimde anlatan bir yazı. Halkın LLM’lerin teknik mekanizmasını bilmesi şart değil, ama bu araçların gerçekte ne yaptığını anlaması çok önemli. “AI akıl yürütüyor” gibi abartılı pazarlama söylemleri hisse fiyatlarını ve şirket değerlemelerini yükseltebilir, ama kullanım güvenliğini de aynı ölçüde düşürür. “Örüntü tanıma, veri üretim sistemi” gibi daha gerçekçi bir adlandırmanın, halkın doğru anlamasına daha çok yardımcı olacağına inanıyorum. İlgili tartışma
Feynman’ın “Bilgisayar bir şeyi insandan daha iyi yapabilir ama insanla aynı şekilde yapmıyorsa bu o kadar da şaşırtıcı değildir” sözünü hatırlıyorum. AI her alanda uzmanları geçse bile, silikon gerçekten “düşünmediği” sürece insanlığın üstünlüğünü savunmaya devam edeceğimizi düşünüyorum
Hassabis’in hedef olarak “dünyayı anlayan bir model”den söz etmesi var; fakat eleştirmenler sık sık LLM’lerin sınırlılıklarını gerekçe gösterip bu ifadenin anlamsız olduğunu söyleme hatasına düşüyor gibi. DeepMind’ın Astra gibi multimodal AI sistemleri, yalnızca metne değil görsel gibi ek girdilere de dayanarak gerçekten “anlıyormuş gibi görünen” sonuçlar üretebiliyor. Astra örnek videosu
LLM’lerin dil anlamını nasıl öğrendiğini tam olarak anlamış değilim. Ama LLM’lerin gerçekten metni ve kavramları belli ölçüde kavradığını, tamamen saçmalamadığını da kesin olarak hissediyorum. Bunu uzman olmayan birine açıklamak kolay değil. Uzman olmayan biri gerçek bir AI sitesine gidince “AI chatbot” adını ve insana benzeyen cevapları görüyor, etkileniyor. Ödevini ya da işini verimli biçimde hallettiği için de çok memnun kalıyor. Bunun gerçek AI olup olmadığını ayırt etmeyi anlatmak kolay değil. Ben de LLM ile AI arasındaki gerçek farkı net biçimde açıklayamıyorum. Teknik olarak ince bir ayrım var ama gerçek kullanıcı bu farkı hissetmiyor. Sonunda LLM’lerin bir din tarikatı lideri gibi vaazlar bile etkileyici biçimde verebileceğini ve yeterince eğitilirse gerçekten bir “mesih rolü” bile oynayabileceğini düşünüyorum
LLM’lerin hâlâ bilgi/anlama döngüsüne takılıp kaldığını yaşayan başka biri var mı diye merak ediyorum. Benim deneyimimde, LLM’ye hatasını gösterip yeniden açıklamasını istesem bile sık sık benzer halüsinasyonları tekrar ediyordu. Bu, öz-anlayış ya da öz-düşünüm eksikliği demek. Böyle bir katman olmadan buna gerçek “anlama” ya da “zekâ” demek için erken olduğunu düşünüyorum. En azından “bilmiyorum” diyerek sınırını dürüstçe kabul etmesi, belli bir “benlik” hissine sahip olduğunun göstergesi olurdu. Neredeyse zihnin ayna testi gibi
Yazarın dediği gibi, LLM’leri “düşünme” ya da “öğrenme” olarak görmek bir yanlış anlama. Bunlar sadece metin üreticileri. Örneğin var olmayan bir API için kod üretse bile, LLM’ye ne kadar anlatırsanız anlatın bunu gerçekten anlamaz. Onun yerine ilgili dokümantasyonu verip istediğiniz biçimde üretmesini sağlamak çok daha etkili olur
Fark tam da yanlılık ile mantık arasındaki fark. Olasılık modeli sonuçta bir tür “yanlılık” uyguluyor, hesap makinesi ise “mantıksal hesap” yapıyor. Bu bakış açısını anlarsanız modelin sınırlarını ve güçlü yanlarını ayırmak kolaylaşır. Her iki durumda da “nesnellik” eksik. Sadece verinin kendisini işliyorlar; verinin “ötesini” düşünemiyorlar