29 puan yazan GN⁺ 2025-05-06 | 2 yorum | WhatsApp'ta paylaş
  • Yazar, 10 yılı aşkın süredir LLM ve metin üretim teknolojileri üzerine çalışmasına rağmen, beklentilerin aksine günlük yaşamında LLM’leri sık kullanmadığını söylüyor
  • LLM kullanırken prompt engineering, sistem prompt’u ayarlama, temperature kontrolü gibi ince ayarlı denetimi önemsiyor; genel amaçlı frontend’ler yerine API tabanlı erişimi tercih ediyor
  • BuzzFeed’de veri etiketleme, haber kümesi özetleme, stil kılavuzu inceleme gibi somut problem çözümünde LLM’lerden yararlandı ve ciddi zaman tasarrufu sağladığını gösterdi
  • Yazı yazarken LLM kullanmıyor; ancak hayali Hacker News yorumlarıyla eleştirel bakış açısını test etme yöntemiyle metinlerinin mantığını sınamak için kullanıyor
  • LLM’ler kodlama yardımında faydalı olsa da karmaşık ya da yüksek güvenilirlik gerektiren işlerde doğrudan kendisi uygulamayı tercih ediyor; agent’lar ve vibe coding konusunda ise kuşkucu kalıyor

LLM ile aramdaki mesafe

  • Yazar, uzun süredir RNN tabanlı metin üretimi, GPT-2 ince ayarı, GPT-3/ChatGPT deneyleri gibi alanlarda üretken yapay zeka araçlarını yoğun biçimde kullanmış deneyimli bir veri bilimci
  • Buna rağmen doğrudan ve sık kullanım nadir; kullanıp kullanmaması işin niteliğine ve ihtiyacına göre belirlenen araçsal bir yaklaşım

LLM’i kontrol etme biçimi

  • Prompt engineering, istenen çıktıyı LLM’den almanın temel unsuru
  • Genel frontend’ler (ChatGPT.com) yerine API’yi doğrudan çağırarak ya da backend UI üzerinden kullanıyor; özellikle Claude Sonnet API’yi tercih ediyor
  • Sistem prompt’u ve temperature ayarıyla yaratıcılık ile deterministiklik arasında denge kuruyor; genelde 0.0 ~ 0.3 aralığını kullanarak çıktıların daha öngörülebilir olmasını sağlıyor
  • Hallucination sorunu (gerçekte olmayan içerik üretme) temperature yükseldikçe artma eğiliminde olduğu için buna dikkat ediyor

İşte kullanım örnekleri

  • BuzzFeed haber sınıflandırma otomasyonu: Claude API, JSON tabanlı sınıflandırma şeması ve temperature 0.0 ayarıyla doğru kategori ataması yapıldı
  • Haber kümesi özetleme: Benzer 5 haber verilerek ortak başlık ve açıklama döndürülmesi sağlandı; küme özetleme verimli biçimde otomatikleştirildi
  • Noktalama ve stil kılavuzu incelemesi: Tüm stil kılavuzu sistem prompt’u olarak eklenip politika temelli dilbilgisi değerlendirmesi yaptırıldı
  • Her bir görev için birkaç saat içinde POC tamamlanabildi ve önceki yöntemlere kıyasla birkaç günden fazla zaman kazancı sağlandığı görüldü

Yazmak kendisine ait, eleştiri LLM’den

  • Blog yazılarını kendisi yazıyor; üslubunda LLM’in yeniden üretmekte zorlanacağı belirgin özellikler var
  • Ancak LLM’den Hacker News kullanıcısı gibi eleştirel yorumlar yazmasını isteyerek, onu mantıksal açıkları bulma aracı olarak kullanıyor
  • Bu yöntem metnin kalitesini artırıyor, fakat LLM’in yazının yerini alması söz konusu değil

Kodlama tarafında LLM kullanımı

  • Regex yazma, Pillow ile görsel birleştirme gibi karmaşık ama tekrarlı işlerde LLM’ler verimliliği ciddi ölçüde artırıyor
  • Buna karşılık Polars gibi yeni kütüphaneler söz konusu olduğunda, LLM’in bunu pandas fonksiyonlarıyla karıştırması gibi sorunlar yaşanabiliyor
  • Copilot benzeri gerçek zamanlı kod önerileri, zihinsel bağlam değişimini artırıp odağı bozduğu gerekçesiyle tercih edilmiyor
  • Yazar, LLM’in sunduğu fikirlerde "fikri alıp kendin düzeltmenin" daha iyi olduğu görüşünü koruyor

Agents, MCP ve Vibe Coding hakkındaki görüşleri

  • MCP ve agent’lar kavramsal olarak gelişmiş olsa da pratikte yeni kullanım senaryoları sunmuyor
  • Vibe Coding hobi projeleri için işe yarayabilir, ancak resmî ürünler için uygun değil ve sorumluluktan kaçma aracı olarak kullanılmamalı
  • Güvenilir kod yazmanın profesyonelliğin temel ölçütü olduğu vurgulanıyor

LLM endüstrisi ve etik üzerine düşünceler

  • “LLM’ler işe yaramaz” iddiası gerçek kullanım açısından sahayı yansıtmıyor; asıl mesele kısa vadeli ROI ve sektör yapısı
  • Açık kaynak modeller ve alternatif altyapılar (Cerebras, Groq vb.), OpenAI ortadan kalksa bile LLM talebini karşılayabilir
  • Sonuç olarak LLM, amaca uygun biçimde kullanılacak bir araç; ne koşulsuz övgü ne de toptan reddiye güvenli bir yaklaşım

Kapanış

  • LLM, yuvarlak deliğe kare çiviyi zorla sokmaya benzeyen bir araç; yani bazen verimsiz, bazen de dönüştürücü olabilir
  • Önemli olan, onu ne zaman, nerede ve nasıl kullanacağını bilen teknik yargı gücü; LLM çağındaki asıl yetkinlik de bu

2 yorum

 
ifmkl 2025-05-07

En son satıra katılıyorum. Ayrıca benim hissettiklerim de benzerdi; sonuçta AI ve LLM, kullanıcının yeteneği kadar kullanılabilen ve değerlendirilebilen araçlar.

 
GN⁺ 2025-05-06
Hacker News görüşü
  • Deneyimli programcıların LLM'lerle çalışırken yaşadığı kafa karıştırıcı noktalarla ilgili görüşler var

    • pandas, Python'da tablo biçimli verileri işlemek için kullanılan standart kütüphane ve 2008'den beri kullanılıyor
    • Son dönemde yeni polars kütüphanesi kullanılıyor ve LLM'ler polars fonksiyonlarını sık sık pandas fonksiyonlarıyla karıştırdığı için dokümantasyonu kontrol etmek gerekiyor
    • Kodlama ajanlarının kullanılmama nedeni "dikkat dağıtıcı" olmaları; bu, otomatik tamamlamadan hoşlanmayan biri olarak empati kurulabilecek bir yaklaşım
    • "Saf" LLM'ler kodlama işlerinde hatalı kod üretiyor, ancak ajan tabanlı LLM yapılandırmaları LLM etkileşimini yapılandıran kodu da içeriyor
    • LLM bir fonksiyon hatası üretirse program derlenmiyor ve ajan bunu tespit edip LLM'nin tekrar tekrar düzeltmesini sağlıyor
  • UI ya da web sitesi maketleri hazırlarken vibe coding kullanılıyor

    • Frontend deneyimi olmasa da %80 tamamlanmış canlı bir demoyu yapıp başkalarına gösterebilmek değerli
    • Gerçek ürün için henüz hazır değil ama kurum içi tartışmalar için maket üretiminde faydalı
  • LLM'lerden en iyi sonucu almak için çeşitli yöntemler kullanılmış

    • LLM'leri "kandıracak" senaryolar düşünmek verimsiz ve etkisi model sürümüne göre büyük ölçüde değişebiliyor
  • Daha az popüler kütüphanelerle ilgili karmaşık kod sorularında LLM çıktısına daha temkinli yaklaşılıyor

    • Son birkaç ayda ChatGPT arayüzü kullanılarak güncel kütüphanelerle ilgili kod sorularını çözmede etkili sonuçlar alınmış
    • Yeni bir JavaScript kütüphanesine kod yükseltme işi başarıyla yapılmış
  • Yeni bir kütüphanenin dokümantasyonunu ya da tüm kod tabanını uzun bağlamlı modele doğrudan yapıştırma yöntemi kullanılıyor

    • 50.000 token'ın altındaki kütüphanelerde etkili ve Gemini 2.5 Pro yüz binlerce token'ı da iyi işliyor
  • Yazarın sohbet kayıtlarını eklemiş olması beğenilmiş

    • Birçok kişi bilgi sızdırma riski nedeniyle paylaşım yapamıyor ama LLM performansı hakkında iddiada bulunurken bunu desteklemek önemli
  • ChatGPT.com ya da genel kullanıcı arayüzleri kullanılmıyor

    • Her LLM hizmetinin backend UI'ı kullanılarak daha iyi sonuç alınıyor
    • OpenAI, ChatGPT arayüzünde modelleri sınırlama eğiliminde
  • Sistem prompt'unun açıkça ayarlanamadığı modern LLM arayüzleri kendi sistem prompt'larını kullanıyor

    • ChatGPT'nin bir sistem prompt'u var ama Claude'un yok
    • Yeni modellerde sistem prompt'unun faydası azalıyor
  • Üretilen metin için belirli kısıtlar koymak, kullanıcı prompt'undan ziyade sistem prompt'unda daha etkili

    • LLM'ler 30 kelimelik bir kavramı anlıyor ama bu tür görevlerde her zaman iyi performans göstermiyor
  • Her LLM hizmetinin backend UI'ı kullanılıyor

    • API ile arayüz kurmak için özel bir wrapper mı kullanıldığı, yoksa zaten yerleşik istemcilerin mi tercih edildiği merak ediliyor
  • JSON yanıtları her zaman beklendiği gibi çalışmıyor

    • Tutarlı JSON döndürmek için JSON schema tanımlanarak her zaman aynı yapının dönmesi sağlanıyor
  • LLM, yeni şeyler öğrenmek ya da kısa script'ler yazmak için kullanılıyor

    • Bir blog yazısının metnini LLM'e verip, LLM'den alaycı bir Hacker News yorumcusu gibi davranarak beş yorum yazmasını isteme tekniği ilgi çekici bulunuyor