Düşünmek — hızlı, yavaş ve yapay zekayla: AI insan düşünme biçimini nasıl yeniden şekillendiriyor
(papers.ssrn.com)Thinking—Fast, Slow, and Artificial
AI'nin bir araç değil, 'üçüncü düşünme sistemi' olduğunu öne süren araştırma
- Ocak 2026, Pennsylvania Üniversitesi Wharton School
- Steven D. Shaw (doktora araştırmacısı)
- Gideon Nave (pazarlama/davranış bilimi profesörü)
- İnsan düşünme modelini System 1 / 2 → System 1 / 2 / 3 olarak genişletiyor
- Temel iddia:
→ AI, basit bir araç değil; dışarıda çalışan bir düşünme sistemi (System 3)
Temel kavram
Mevcut model
- System 1: hızlı sezgi
- System 2: yavaş analiz
Eklenen kavram
- System 3: AI (harici bilişsel sistem)
- beynin dışında çalışır
- otomatik, veri temelli, hızlıdır
- insan düşüncesini destekleyebilir veya onun yerini alabilir
Cognitive Surrender (bilişsel teslimiyet)
-
Tanım:
→ AI çıktısını doğrulamadan olduğu gibi kabul etme olgusu -
Mevcut kavramlardan farkı:
- Offloading: araç kullanımı (hesap makinesi gibi)
- Surrender: yargının kendisini devretmek
-
Özellikleri:
- kullanıcılar bunu “AI cevap verdi” olarak değil
→ “kararı ben verdim” şeklinde algılıyor
- kullanıcılar bunu “AI cevap verdi” olarak değil
Deney özeti
- Katılımcılar: 1.372 kişi
- Toplam 9.593 trial
- AI doğruluğu kasıtlı olarak manipüle edildi
Sonuç 1: İnsanlar AI'yi neredeyse olduğu gibi izliyor
- AI doğruysa → %92,7 uyum
- AI yanlışsa → %79,8 uyum
→ yanlış olduğunda bile çoğu kişi kabul ediyor
Sonuç 2: Performans AI'ye bağımlı hale geliyor
- Brain-only: %45,8
- AI doğru cevap: %71,0
- AI yanlış cevap: %31,5
→ AI yanlış yaptığında, kişi tek başına olduğundan daha kötü performans gösteriyor
Sonuç 3: Güven + özgüven sorunu
- AI kullanıldığında:
- özgüven +11,7 yüzde puan artıyor
- bunun hata olup olmaması fark etmiyor
→ yanlış olsa bile daha fazla emin olunuyor
Koşullara göre sonuçlar
Zaman baskısı
- insan düşünmesi zayıflıyor (System 2 azalıyor)
- AI bağımlılığı sürüyor
- Sonuç:
- AI doğruysa yardımcı oluyor
- AI yanlışsa durum daha da kötüleşiyor
Ödül + geri bildirim
- hata düzeltme artıyor
- AI'nin yanlış cevaplarını reddetme oranı artıyor
- Ancak:
- Cognitive Surrender tamamen ortadan kalkmıyor
Bireysel farklılıklar
Cognitive Surrender artıyor:
- AI'ye güven yüksek
- analitik düşünme eğilimi düşük
- bilişsel kapasite düşük
Cognitive Surrender azalıyor:
- yüksek Fluid IQ
- yüksek Need for Cognition
Önemli çerçeve değişimi
İnsan düşünmesi artık
“hızlı düşünme vs yavaş düşünme” değil
→ “benim düşüncem vs AI'nin düşüncesi” yapısına dönüşüyor
Temel riskler
- AI doğruluğuna bağlı olarak performans doğrudan değişiyor
- hata durumlarında:
- yargılama azalıyor
- kesinlik hissi artıyor
- sorumluluğun kimde olduğu belirsizleşiyor
Çıkarımlar
-
Sorun, AI'nin hata yapması değil
→ kullanıcının doğrulama yapmaması -
Özellikle
→ yüksek düzeyde muhakeme gerektiren alanlarda risk büyüyor
2 yorum
Hımm, evet öyle. Yapay zeka yanlış bir değerlendirme yaptığında ben düşünmektense AI'a biraz düzeltmesini istiyorum; sonunda da yine cevap çıkmayınca yeni bir oturum açtığımı hatırlıyorum..
Yapay zeka sistemleri neden öğrenmiyor ve bu konuda ne yapılmalı
Bilişsel bilimden otonom öğrenmeye dair dersler
Emmanuel Dupoux, Yann LeCun, Jitendra Malik
https://arxiv.org/pdf/2603.15381