142 puan yazan davespark 2026-02-13 | 13 yorum | WhatsApp'ta paylaş

Andrej Karpathy’nin işaret ettiği LLM kodlama sorunlarını çözmeyi amaçlayan yalnızca 65 satırlık bir Markdown dosyası (CLAUDE.md), GitHub’da patlayıcı bir popülerlik kazanarak Claude Code kullanıcıları arasında “bu tek dosyayı eklersen yapay zeka çok daha akıllı hale geliyor” şeklinde bir sansasyon yarattı.

Dosyanın patlayıcı popülerliği

  • GitHub deposundaki (forrestchang/andrej-karpathy-skills) CLAUDE.md dosyası
  • Sadece bir günde +400 yıldız aldı → toplamda yaklaşık 4.000 yıldıza ulaştı
  • VS Code / Cursor eklentilerine de taşındı ve kolayca uygulanabiliyor

Dosyanın içeriği: 4 temel ilke (Karpathy’nin LLM kodlama eleştirilerinden ilhamla)

  • Think Before Coding (kod yazmadan önce düşün): varsayımları açıkça belirt, belirsizlik varsa soru sor, kafa karışırsa dur
  • Simplicity First (önce sadelik): istenmeyen özellik, soyutlama veya hata işleme ekleme
  • Surgical Changes (cerrahi hassasiyette değişiklikler): sadece istenen kısmı değiştir, geri kalanına dokunma
  • Goal-Driven Execution (hedef odaklı yürütme): “özellik ekle” yerine “testi geç” gibi somut hedeflere dönüştür

→ Kullanıcı deneyimlerine göre bu ilkeler prompt olarak verildiğinde Claude, aşırı yaratıcılık, alakasız varsayımlar ve gereksiz refaktöring yapmaya daha az yöneliyor; bunun yerine daha istikrarlı ve öngörülebilir kod yazıyor.

Michiel Beijen’in (orijinal blog yazısının sahibi) yaptığı şey

  • Claude Code kullanmıyor olmasına rağmen bu dosyayı iyi buldu
  • Kendisi Cursor + VS Code eklentisi olarak hazırlayıp yayımladı
  • Gerçek kullanımda “etkili gibi de görünüyor, değil gibi de…” diye değerlendirdi (deterministik olmadığı için emin olmak zor)
  • Yine de çok sayıda insanın farkı hissettiğini kabul ediyor

İnsanların şaşırdığı nokta

  • Trilyonlarca won yatırım alan dev LLM şirketlerinin yıllarca eğittiği modeller söz konusu
  • Buna rağmen yalnızca 65 satırlık bir metin, kaliteyi gözle görülür biçimde artırabiliyor
  • Bu durum, “prompt modelin kendisini bile geçebilir” şeklinde uç bir örnek olarak yorumlanıyor
  • Karpathy’nin işaret ettiği LLM’lerin kronik sorunlarını (aşırı varsayım, kafa karışıklığını görmezden gelme, ödünleşimleri sunmama vb.) bu basit yönergelerin oldukça iyi yakaladığı düşünülüyor

Sonuç

  • Gerçekten etkili olup olmadığı konusunda %100 kesinlik yok, ancak birçok geliştirici “kesinlikle fark yarattığını” söylüyor
  • LLM çağında prompt hacking / context engineering yaklaşımının ne kadar güçlü olabileceğini gösteren simgesel bir örnek

https://aisparkup.com/posts/9225

13 yorum

 
centell 2026-02-14

Ne denir bilmiyorum... geliştiricilerin zaten çalıştığı yöntem bu işte.

 
orange 2026-02-14

Gerçekten etkili olduğundan %100 emin olmak zor, ama birçok geliştirici “kesinlikle farklılaştı” diye hissediyor

ahahah

 
penekhun 2026-02-19

İnanıyor musunuz...!

 
cshj55 2026-02-14

Gerçekte deneyince insanın aklına şu geliyor: “Sanki etkisi var gibi de yok gibi de…” (deterministik olmadığı için emin olmak zor)
ahahahahahahah

 
roxie 2026-02-25

hahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahahaha

 
jw8880 2026-02-14

İşte bu vibe..! hahaha

 
galadbran 2026-02-14

İnanç kazanır!

 
mammal 2026-02-13

Döne dolaşa yine prompt engineering

 
onestone 2026-02-13

İstem mühendisliği

 
alfenmage 2026-02-14

Prompt yazmak da iyi bir kalem ister. Yazı becerisi zayıf geliştiricilere (vibe coder'lar dahil) yardımcı olabilecek bir keşif. Bu arada ben üniversiteye giriş sınavının Korece bölümünde 1. seviye aldım

 
cshj55 2026-02-15

'Bu arada ben üniversiteye giriş sınavının Korece bölümünde 1. derece aldım' noktasına kadar kusursuz bir yorum

 
cshj55 2026-02-14

Sonunda doğru cevap promptmuş; AGENTS'in her işe yarar sanılması yine sahnede

 
kaydash 2026-02-14

Güzel, güzel