24 puan yazan helio 2026-03-22 | 2 yorum | WhatsApp'ta paylaş

Thinking—Fast, Slow, and Artificial

AI'nin bir araç değil, 'üçüncü düşünme sistemi' olduğunu öne süren araştırma

  • Ocak 2026, Pennsylvania Üniversitesi Wharton School
    • Steven D. Shaw (doktora araştırmacısı)
    • Gideon Nave (pazarlama/davranış bilimi profesörü)
  • İnsan düşünme modelini System 1 / 2 → System 1 / 2 / 3 olarak genişletiyor
  • Temel iddia:
    → AI, basit bir araç değil; dışarıda çalışan bir düşünme sistemi (System 3)

Temel kavram

Mevcut model

  • System 1: hızlı sezgi
  • System 2: yavaş analiz

Eklenen kavram

  • System 3: AI (harici bilişsel sistem)
    • beynin dışında çalışır
    • otomatik, veri temelli, hızlıdır
    • insan düşüncesini destekleyebilir veya onun yerini alabilir

Cognitive Surrender (bilişsel teslimiyet)

  • Tanım:
    → AI çıktısını doğrulamadan olduğu gibi kabul etme olgusu

  • Mevcut kavramlardan farkı:

    • Offloading: araç kullanımı (hesap makinesi gibi)
    • Surrender: yargının kendisini devretmek
  • Özellikleri:

    • kullanıcılar bunu “AI cevap verdi” olarak değil
      → “kararı ben verdim” şeklinde algılıyor

Deney özeti

  • Katılımcılar: 1.372 kişi
  • Toplam 9.593 trial
  • AI doğruluğu kasıtlı olarak manipüle edildi

Sonuç 1: İnsanlar AI'yi neredeyse olduğu gibi izliyor

  • AI doğruysa → %92,7 uyum
  • AI yanlışsa → %79,8 uyum

→ yanlış olduğunda bile çoğu kişi kabul ediyor


Sonuç 2: Performans AI'ye bağımlı hale geliyor

  • Brain-only: %45,8
  • AI doğru cevap: %71,0
  • AI yanlış cevap: %31,5

→ AI yanlış yaptığında, kişi tek başına olduğundan daha kötü performans gösteriyor


Sonuç 3: Güven + özgüven sorunu

  • AI kullanıldığında:
    • özgüven +11,7 yüzde puan artıyor
    • bunun hata olup olmaması fark etmiyor

→ yanlış olsa bile daha fazla emin olunuyor


Koşullara göre sonuçlar

Zaman baskısı

  • insan düşünmesi zayıflıyor (System 2 azalıyor)
  • AI bağımlılığı sürüyor
  • Sonuç:
    • AI doğruysa yardımcı oluyor
    • AI yanlışsa durum daha da kötüleşiyor

Ödül + geri bildirim

  • hata düzeltme artıyor
  • AI'nin yanlış cevaplarını reddetme oranı artıyor
  • Ancak:
    • Cognitive Surrender tamamen ortadan kalkmıyor

Bireysel farklılıklar

Cognitive Surrender artıyor:

  • AI'ye güven yüksek
  • analitik düşünme eğilimi düşük
  • bilişsel kapasite düşük

Cognitive Surrender azalıyor:

  • yüksek Fluid IQ
  • yüksek Need for Cognition

Önemli çerçeve değişimi

İnsan düşünmesi artık
“hızlı düşünme vs yavaş düşünme” değil

→ “benim düşüncem vs AI'nin düşüncesi” yapısına dönüşüyor


Temel riskler

  • AI doğruluğuna bağlı olarak performans doğrudan değişiyor
  • hata durumlarında:
    • yargılama azalıyor
    • kesinlik hissi artıyor
  • sorumluluğun kimde olduğu belirsizleşiyor

Çıkarımlar

  • Sorun, AI'nin hata yapması değil
    → kullanıcının doğrulama yapmaması

  • Özellikle
    → yüksek düzeyde muhakeme gerektiren alanlarda risk büyüyor


İlgili: https://news.ycombinator.com/item?id=47467913

2 yorum

 
bini59 2026-03-23

Hımm, evet öyle. Yapay zeka yanlış bir değerlendirme yaptığında ben düşünmektense AI'a biraz düzeltmesini istiyorum; sonunda da yine cevap çıkmayınca yeni bir oturum açtığımı hatırlıyorum..

 
mrtj0329 2026-03-23

Yapay zeka sistemleri neden öğrenmiyor ve bu konuda ne yapılmalı
Bilişsel bilimden otonom öğrenmeye dair dersler
Emmanuel Dupoux, Yann LeCun, Jitendra Malik
https://arxiv.org/pdf/2603.15381