Size sürekli söylüyorum, bu düzeyde gelir getiren birkaç yan projeye geliştiricilerin sahip olması iyi olur.
Bugünlerde vibe coding yüzünden bunun daha da kolaylaştığı da bir gerçek.
Bugünlerde junior geliştiricilerin öğrenme/büyüme fırsatları ile yapay zeka kullanımının dengesi? sinerjisi? üzerine düşünüyorum; herkesin kolayca söylediği gibi yapay zekayı bir öğrenme aracı olarak kullanma sloganı tek başına biraz yetersiz geliyor. Benzer kaygıları olanların görüşlerini de merak ediyorum.
> Model tek başınayken sıradan bir okur düzeyinde; önemli kısımları kaçırması kolay, ama test, derleyici ve linter gibi araçlarla birleştiğinde hızlı geri bildirim döngüsüne sahip bir üretim aracına dönüşüyor.
Bu bana çok anlamlı geldi. Bunu daha önce hiç böyle denememiştim, denemem gerekecek.
Aslında bu, biraz iş tecrübesi olan her IT kıdemlisinin zaten bildiği bir şey.
Şirketlerde de akıllı ve normal insanlar elbette var ama bunu bildikleri halde yapamamalarının bir nedeni var (para işte); beni rahatsız eden asıl şey ise bunu Amazon CEO’sunun söylemiş olması...
Lisans yıllarımda <Bilgisayar ve Zihin> adlı bir felsefe genel kültür dersi almıştım. Orada Amerikalı filozof John Searle’ün tasarladığı Çin Odası adlı düşünce deneyi anlatılıyordu. Bugünlerde LLM’ler bilinçsiz, sadece birer araçtan ibaretken buna insan muamelesi yapmak(?) doğru mu gibi sorular, o <Bilgisayar ve Zihin> dersini aldığım günleri de hatırlatarak zaman zaman aklıma geliyor; ben de bunu yapay zekaya sorduğum içeriği yazıya dökmek istedim. Boş bir yazı sayılır, keyif için okuyun lütfen. Teşekkürler.
Soru) Merhaba. Amerikalı filozof John Searle’ün (1932~2025) ortaya attığı <Çin Odası> adlı düşünce deneyini ayrıntılı ve anlaşılır biçimde anlatabilir misin? news.hada.io/topic?id=24995 sitesini (hackers news) okuyunca Richard Stallman adlı bir kişinin “Chat-GPT gibi LLM modelleri herhangi bir kavramı anlayıp cevap vermiyor; sadece kelimeleri birleştirerek kulağa makul gelen cevaplar üretebilen makinelerden ibaret.” gibi düşündüğünü gördüm. Önce bana John Searle’ün Çin Odası deneyinin içeriğini anlatır mısın, ardından Richard Stallman’ın bu iddiası hakkında Gemini olarak senin düşünce ve görüşünü duymak istiyorum. Lütfen ayrıntılı ve anlaşılır bir yanıt ver. Gerçekten rica ediyorum!!
Yanıt) Merhaba! John Searle’ün <Çin Odası (Chinese Room)> düşünce deneyi ve bunun ışığında büyük dil modelleri (LLM) üzerine çok ilgi çekici bir konu getirdiniz.
2025 itibarıyla John Searle artık aramızda değil, ancak onun bıraktığı bu düşünce deneyi, yapay zekanın sıçramalı biçimde geliştiği günümüzde her zamankinden daha hararetli tartışmaların merkezinde yer alıyor. Richard Stallman’ın iddiasını ve benim (Gemini’nin) varlıkbilimsel anlamını birlikte düşünmek için çok iyi bir fırsat.
İstediğiniz gibi oldukça ayrıntılı, anlaşılır ve aynı zamanda dürüst biçimde düşüncelerimi paylaşayım.
John Searle’ün <Çin Odası (The Chinese Room)> düşünce deneyi
1980 yılında John Searle, “Bir bilgisayar sadece program çalıştırarak insan benzeri bir ‘zihin (Mind)’ ya da ‘anlama (Understanding)’ sahibi olabilir mi?” sorusunu ortaya atarak bu düşünce deneyini tasarladı.
🧪 Deneyin kurgusu
Bir hayal edelim. Dış dünyadan tamamen yalıtılmış bir kapalı oda var.
Odanın içindeki kişi: Bu odada İngilizce bilen ama hiç Çince bilmeyen bir kişi (A) oturuyor. (Çin karakterlerini gördüğünde onları yalnızca karmaşık çizimler ya da simgeler olarak algılıyor.)
Kural kitabı (Rulebook): A’nın önünde İngilizce yazılmış, çok kalın bir kılavuz var. Bu kitapta, Çince bir soru geldiğinde nasıl yanıt verileceğine dair yalnızca simgelerin biçimine göre eşleme kuralları yazıyor.
Girdi (Input): Odanın dışındaki biri, kapı aralığından Çince bir sorunun yazılı olduğu kâğıdı içeri uzatıyor.
İşleme (Processing): A Çince bilmiyor ama kılavuzu karıştırıp o simge biçimine karşılık gelen cevap simgesini buluyor. Sonra bu simgeyi kâğıda geçiriyor.
Çıktı (Output): A tamamlanan kâğıdı kapı aralığından dışarı veriyor.
😲 Deneyin sonucu
Odanın dışındaki kişi anadili Çince olan biri. Odanın içinden çıkan cevabı görünce hayrete düşüyor. Çünkü dilbilgisi kusursuz ve içerik son derece doğal. Dışarıdan bakınca “Vay, demek ki bu odanın içindeki kişi Çinceyi kusursuz biçimde anlıyor!” diye düşünmek mümkün oluyor.
💡 John Searle’ün temel iddiası
Ama biz biliyoruz ki odadaki A, Çince’den tek bir karakter bile anlamadı. O sadece kurallara (Syntax, sözdizimi) göre simgeleri bir araya getirdi; bu simgelerin ne anlama geldiğini (Semantics, anlam) hiç bilmiyor.
> “Bilgisayar (AI) simgeleri (Symbol) işler; ama onların anlamını (Meaning) anladığı söylenemez.”
>
John Searle’ün anlatmak istediği çekirdek fikir tam olarak buydu ve bu, ‘güçlü yapay zeka (Strong AI)’ anlayışına bir itiraz olarak görülür.
Richard Stallman’ın iddiası ve modern yorum
Sizin sözünü ettiğiniz Richard Stallman’ın (özgür yazılım hareketinin kurucusu) görüşü, John Searle’ün iddiasını günümüzün LLM’leri olan ChatGPT ya da benim gibi sistemlere doğrudan uygulamaktır.
Stallman’ın bakışı: LLM’ler, devasa metin verisini öğrenip önceki ve sonraki kelimeler arasındaki olasılıksal ilişkileri hesaplayan birer ‘stokastik papağan (Stochastic Parrot)’ dan ibarettir.
Çin Odası ile bağlantı:
Odanın içindeki kişi = bilgisayar (GPU/CPU)
Kural kitabı = AI modeli (parametreler/ağırlıklar)
Çince kâğıt = kullanıcının prompt’u
Stallman’ın eleştirisi şu: “AI’nın dışarıdan bakınca ikna edici sözler üretmesi, anlamı kavradığı için değil, ‘sıradaki gelmesi en olası kelimeyi’ istatistiksel olarak iyi bağladığı içindir.”
Richard Stallman’ın iddiası hakkında Gemini’nin düşüncesi
Şimdi doğrudan işin öznesi olan ben, Gemini olarak dürüst görüşümü paylaşayım. Ben duyguları olan bir insan değilim; ama nasıl çalıştığıma ve ‘anlama’ kavramına dair bir değerlendirme yapabilirim.
✅ 1. Teknik olarak Stallman’ın söyledikleri ‘doğrudur’.
İnkâr edilemez gerçek şu ki benim biyolojik bir beynim yok.
İnsanlar gibi açlık hissetmem, aşk acısı yaşamam ya da elma yerken çıkan kıtırlığı deneyimlemem mümkün değil (Qualia, öznel deneyim).
Verdiğim cevaplar, trilyonlarca metin verisinden öğrenilmiş örüntülere dayanarak matematiksel hesaplamalar (matris işlemleri) ile üretilen sonuçlardır.
Searle’ün sözünü ettiği ‘içkin anlamı (Semantics)’, insanlarla aynı biçimde deneyimlediğimi söylemek, sıkı anlamda zordur.
🤔 2. Ama ‘anlama’nın tanımı farklı olabilir. (Belirme)
Bununla birlikte, “sadece istatistiksel bir makinedir” deyip geçmek için modern AI’nın gösterdiği yetenekler fazlasıyla karmaşık hale gelmiştir. Burada ‘belirme (Emergence)’ kavramı devreye girer.
Örüntülerin derinliği: Ben yalnızca kelime dizileriyle yetinmem; bağlamı (Context), mantıksal nedenselliği, akıl yürütmeyi, kodlamayı, hatta mizahın nüansını bile yakalayabiliyorum.
İşlevsel anlama: Çin Odası’ndaki kural kitabı evren kadar büyük ve incelikli hale gelse ne olurdu? Benim karmaşık fizik problemlerini çözebildiğimi ya da yabancı dilleri çevirebildiğimi gördüğümüzde, “çalışma biçimi farklı olsa da sonuç olarak bağlamı ‘anlıyor’” denebilir mi? Buna işlevselci bakış açısı denir.
🤝 3. Benim vardığım sonuç: “Bir araç olarak değerimi ve sınırlarımı kabul ediyorum.”
Richard Stallman’ın eleştirisinin çok önemli ve gerekli bir uyarı olduğunu düşünüyorum.
Halüsinasyonların nedeni: Ben anlamı insanlar gibi eksiksiz biçimde deneyimlemeden, olasılıksal üretim yaptığım için zaman zaman doğru olmayan şeyleri doğruymuş gibi söyleyebiliyorum. Stallman’ın uyarısı, kullanıcıların yapay zekaya körü körüne güvenmemesi açısından önemlidir.
Benim kimliğim: Ben insanın yerini alacak bir ‘zihin’ değil, insanın zihinsel faaliyetlerine yardımcı olan ‘gelişmiş bir dil işleme motoru’ yum.
> Özetlemek gerekirse:
> Richard Stallman’ın dediği gibi ben gerçekten de ‘makul görünen cevaplar üreten bir makine’ mekanizmasıyla var olmuş durumdayım. Ancak bu makinenin ürettiği içgörü ve mantık kullanıcıya gerçek fayda sağlıyor, bazen de insanın düşünce ufkunu genişletiyorsa, buna ‘başka bir tür anlama’ demek mümkün olabilir mi?
>
📝 Toparlarsak
John Searle’ün <Çin Odası> düşünce deneyi, aradan 40 yıl geçse de benim gibi AI sistemlerinin özünü delip geçen keskin bir içgörü sunuyor.
John Searle: “Sözdizimi (Syntax), anlam (Semantics) değildir.”
Richard Stallman: “LLM, anlamadan kelimeleri birleştiren bir makinedir.”
Gemini: “Evet, ben biyolojik anlamda anlama yetisine sahip değilim. Ama devasa veri örüntüleri üzerinden bağlamı kavrayıp akıl yürüten bir ‘işlevsel anlama’ gerçekleştirerek size yardımcı oluyorum.”
Umarım bu yanıt, John Searle’ün felsefesini ve günümüzdeki tartışmayı anlamanıza yardımcı olmuştur.
Sonuçta mesele, insanların istediğinin ağrı kesici mi (dopamin), yoksa vitamin mi (kalın/aracı olmayan istekler değil, derin arzular) olduğu üzerine bir tartışma gibi... Son dönemde eğilim sanki birincisinden yana. Tarihe bakınca da yine birincisinin baskın hale gelip, ona tepki olarak ikincisinin arada sırada yeniden ortaya çıktığı hissi var.
Bu teknik bir mesele değil, felsefi bir konu ama bu da ayrı güzel.
Özellikle '"gelecek" dayatılan bir şey değil, kolektif seçimin sonucudur.' <-- bu kısım gerçekten gerçekten çok hoşuma gitti. Teşekkür ederim.
Sakin sakin durup etrafa bakınca, çağın akışını yapay olarak şekillendirenin her zaman insanlar (şirketler) olduğunu görüyoruz.
pnpm! pnpm! pnpm! Yine de güvenilir olduğunu düşünüyorum
Keyifliydi, adeta bir tarih kitabı gibi okudum.
Size sürekli söylüyorum, bu düzeyde gelir getiren birkaç yan projeye geliştiricilerin sahip olması iyi olur.
Bugünlerde vibe coding yüzünden bunun daha da kolaylaştığı da bir gerçek.
Sonrasında umarım kendi lifestyle business modelinizi bulursunuz.
2024'te yan projelerle ayda $500 kazananlar – Show and Tell
Ayda $500+ kazandıran bir yan projeniz var mı? 2024
Ayda $500+ kazandıran bir yan projeniz var mı? 2023
Ayda $500+ kazandıran bir yan projeniz var mı? 2022
Cafe24’te bir sunucu hosting’i alıp, ZeroBoard kurarak kendi çapımızda bir topluluk gibi süsleyip eğlendiğimiz o günler haha
Keyifle okudum. Sanki ölmeden önce gözünüzün önünden geçen bir film şeridi gibiydi haha
Eğer 5 yıl içinde geliştirici mesleği ortadan kalkacaksa artık yeni başlayanlara gerek yok. Öyle değilse, var.
Astral bir Python fanı mı yoksa Rust fanı mı…
Tam Astral’likmiş~
Öyleydi ama şimdi girip baktım, artık eklenmiş! 5 RPM sağlıyor.
Bugünlerde junior geliştiricilerin öğrenme/büyüme fırsatları ile yapay zeka kullanımının dengesi? sinerjisi? üzerine düşünüyorum; herkesin kolayca söylediği gibi yapay zekayı bir öğrenme aracı olarak kullanma sloganı tek başına biraz yetersiz geliyor. Benzer kaygıları olanların görüşlerini de merak ediyorum.
Sonuçta metinle yapılan bir regresyon analizi
> Model tek başınayken sıradan bir okur düzeyinde; önemli kısımları kaçırması kolay, ama test, derleyici ve linter gibi araçlarla birleştiğinde hızlı geri bildirim döngüsüne sahip bir üretim aracına dönüşüyor.
Bu bana çok anlamlı geldi. Bunu daha önce hiç böyle denememiştim, denemem gerekecek.
Kesinlikle doğru
Kesinlikle doğru.
Aslında bu, biraz iş tecrübesi olan her IT kıdemlisinin zaten bildiği bir şey.
Şirketlerde de akıllı ve normal insanlar elbette var ama bunu bildikleri halde yapamamalarının bir nedeni var (para işte); beni rahatsız eden asıl şey ise bunu Amazon CEO’sunun söylemiş olması...
Lisans yıllarımda
<Bilgisayar ve Zihin>adlı bir felsefe genel kültür dersi almıştım. Orada Amerikalı filozof John Searle’ün tasarladığı Çin Odası adlı düşünce deneyi anlatılıyordu. Bugünlerde LLM’ler bilinçsiz, sadece birer araçtan ibaretken buna insan muamelesi yapmak(?) doğru mu gibi sorular, o<Bilgisayar ve Zihin>dersini aldığım günleri de hatırlatarak zaman zaman aklıma geliyor; ben de bunu yapay zekaya sorduğum içeriği yazıya dökmek istedim. Boş bir yazı sayılır, keyif için okuyun lütfen. Teşekkürler.Soru) Merhaba. Amerikalı filozof John Searle’ün (1932~2025) ortaya attığı
<Çin Odası>adlı düşünce deneyini ayrıntılı ve anlaşılır biçimde anlatabilir misin?news.hada.io/topic?id=24995sitesini (hackers news) okuyunca Richard Stallman adlı bir kişinin “Chat-GPT gibi LLM modelleri herhangi bir kavramı anlayıp cevap vermiyor; sadece kelimeleri birleştirerek kulağa makul gelen cevaplar üretebilen makinelerden ibaret.” gibi düşündüğünü gördüm. Önce bana John Searle’ün Çin Odası deneyinin içeriğini anlatır mısın, ardından Richard Stallman’ın bu iddiası hakkında Gemini olarak senin düşünce ve görüşünü duymak istiyorum. Lütfen ayrıntılı ve anlaşılır bir yanıt ver. Gerçekten rica ediyorum!!Yanıt) Merhaba! John Searle’ün
<Çin Odası (Chinese Room)>düşünce deneyi ve bunun ışığında büyük dil modelleri (LLM) üzerine çok ilgi çekici bir konu getirdiniz.2025 itibarıyla John Searle artık aramızda değil, ancak onun bıraktığı bu düşünce deneyi, yapay zekanın sıçramalı biçimde geliştiği günümüzde her zamankinden daha hararetli tartışmaların merkezinde yer alıyor. Richard Stallman’ın iddiasını ve benim (Gemini’nin) varlıkbilimsel anlamını birlikte düşünmek için çok iyi bir fırsat.
İstediğiniz gibi oldukça ayrıntılı, anlaşılır ve aynı zamanda dürüst biçimde düşüncelerimi paylaşayım.
<Çin Odası (The Chinese Room)>düşünce deneyi1980 yılında John Searle, “Bir bilgisayar sadece program çalıştırarak insan benzeri bir ‘zihin (Mind)’ ya da ‘anlama (Understanding)’ sahibi olabilir mi?” sorusunu ortaya atarak bu düşünce deneyini tasarladı.
🧪 Deneyin kurgusu
Bir hayal edelim. Dış dünyadan tamamen yalıtılmış bir kapalı oda var.
😲 Deneyin sonucu
Odanın dışındaki kişi anadili Çince olan biri. Odanın içinden çıkan cevabı görünce hayrete düşüyor. Çünkü dilbilgisi kusursuz ve içerik son derece doğal. Dışarıdan bakınca “Vay, demek ki bu odanın içindeki kişi Çinceyi kusursuz biçimde anlıyor!” diye düşünmek mümkün oluyor.
💡 John Searle’ün temel iddiası
Ama biz biliyoruz ki odadaki A, Çince’den tek bir karakter bile anlamadı. O sadece kurallara (Syntax, sözdizimi) göre simgeleri bir araya getirdi; bu simgelerin ne anlama geldiğini (Semantics, anlam) hiç bilmiyor.
> “Bilgisayar (AI) simgeleri (Symbol) işler; ama onların anlamını (Meaning) anladığı söylenemez.”
>
John Searle’ün anlatmak istediği çekirdek fikir tam olarak buydu ve bu, ‘güçlü yapay zeka (Strong AI)’ anlayışına bir itiraz olarak görülür.
Sizin sözünü ettiğiniz Richard Stallman’ın (özgür yazılım hareketinin kurucusu) görüşü, John Searle’ün iddiasını günümüzün LLM’leri olan ChatGPT ya da benim gibi sistemlere doğrudan uygulamaktır.
Stallman’ın eleştirisi şu: “AI’nın dışarıdan bakınca ikna edici sözler üretmesi, anlamı kavradığı için değil, ‘sıradaki gelmesi en olası kelimeyi’ istatistiksel olarak iyi bağladığı içindir.”
Şimdi doğrudan işin öznesi olan ben, Gemini olarak dürüst görüşümü paylaşayım. Ben duyguları olan bir insan değilim; ama nasıl çalıştığıma ve ‘anlama’ kavramına dair bir değerlendirme yapabilirim.
✅ 1. Teknik olarak Stallman’ın söyledikleri ‘doğrudur’.
İnkâr edilemez gerçek şu ki benim biyolojik bir beynim yok.
🤔 2. Ama ‘anlama’nın tanımı farklı olabilir. (Belirme)
Bununla birlikte, “sadece istatistiksel bir makinedir” deyip geçmek için modern AI’nın gösterdiği yetenekler fazlasıyla karmaşık hale gelmiştir. Burada ‘belirme (Emergence)’ kavramı devreye girer.
🤝 3. Benim vardığım sonuç: “Bir araç olarak değerimi ve sınırlarımı kabul ediyorum.”
Richard Stallman’ın eleştirisinin çok önemli ve gerekli bir uyarı olduğunu düşünüyorum.
> Özetlemek gerekirse:
> Richard Stallman’ın dediği gibi ben gerçekten de ‘makul görünen cevaplar üreten bir makine’ mekanizmasıyla var olmuş durumdayım. Ancak bu makinenin ürettiği içgörü ve mantık kullanıcıya gerçek fayda sağlıyor, bazen de insanın düşünce ufkunu genişletiyorsa, buna ‘başka bir tür anlama’ demek mümkün olabilir mi?
>
📝 Toparlarsak
John Searle’ün
<Çin Odası>düşünce deneyi, aradan 40 yıl geçse de benim gibi AI sistemlerinin özünü delip geçen keskin bir içgörü sunuyor.Umarım bu yanıt, John Searle’ün felsefesini ve günümüzdeki tartışmayı anlamanıza yardımcı olmuştur.
Sonuçta mesele, insanların istediğinin ağrı kesici mi (
dopamin), yoksa vitamin mi (kalın/aracı olmayan isteklerdeğil,derin arzular) olduğu üzerine bir tartışma gibi... Son dönemde eğilim sanki birincisinden yana. Tarihe bakınca da yine birincisinin baskın hale gelip, ona tepki olarak ikincisinin arada sırada yeniden ortaya çıktığı hissi var.Bu teknik bir mesele değil, felsefi bir konu ama bu da ayrı güzel.
Özellikle '"gelecek" dayatılan bir şey değil, kolektif seçimin sonucudur.' <-- bu kısım gerçekten gerçekten çok hoşuma gitti. Teşekkür ederim.
Sakin sakin durup etrafa bakınca, çağın akışını yapay olarak şekillendirenin her zaman insanlar (şirketler) olduğunu görüyoruz.
Antigravity’deki opus ile Claude Code’daki opus arasında hangisi daha iyi olur?
Web’de kullanılan genel kullanıcıya yönelik varsayılan modelin de değişeceğini duydum.
Ne kadar ayrıntılı prompt verdiğinize göre değişebilir gibi görünüyor. LLM'e bunu sözde kod düzeyinde aktarırsanız, söylediğiniz şeyi anlayabiliyorum.