- Yapay zekanın baş döndürücü ilerleyişiyle birlikte, uzmanlığının yerini alabileceği düşüncesinden kaynaklanan psikolojik bir bunalım yaşayan geliştiricilerin sayısı arttı
- Bu tür bunalımı yaşayan geliştiriciler çoğaldıkça buna Claude Blue adı verilmeye başlandı
- Ayrıca her gün ortaya çıkan yeni terimler, geliştiricilerin FOMO'sunu ve kaygısını daha da artırıyor
- Korkuyu aşmanın anahtarı anlamakta yatıyor
- Sayısız türdeki "engineering" yaklaşımı aslında yalnızca "API'ye uygun girdiyi gönderip yanıtı işleme sürecinin" bir varyasyonu ve bu, geliştiricilerin zaten uzun zamandır iyi yaptığı bir iş
- FOMO yaratan içeriklerin peşinden sürüklenmek yerine özünü anlarsanız, yeni terimler çıktığında bunları mevcut bilgi çerçevenize yerleştirip soğukkanlı biçimde değerlendirebilirsiniz
Korkunun yapısı ve onu aşma yolları
- İnsan, ne olduğunu bilmediği şeyin karşısında korku hisseder. Yapay zekâ korkusu da çoğu zaman yapay zekânın kendisinden değil, "nasıl çalıştığını bilmiyor olmak" gerçeğinden doğar
- Ne olduğunu anlarsanız büyü, teknoloji gibi görünmeye başlar; teknoloji ise öğrenilebilir ve sınırları olan bir şeydir
- Bir araştırmaya göre çalışanların %24'ünün, yapay zekâ kaynaklı bilgi aşırı yükü nedeniyle ruh sağlığı olumsuz etkilendi
LLM'in ne olduğu
- LLM, "verilen girdiye karşı en uygun çıktıyı üreten" bir sonraki kelime tahmin modelidir
- ChatGPT, Claude ve Gemini'nin hepsi aynı prensiple çalışır; hizmetin asıl yapısı ise istemcinin mesaj gönderdiği ve modelin token'ları stream ederek geri döndürdüğü bir HTTP API çağrısıdır
- Yapay zekâ ajanlarının güçlü kodlama yeteneği de bu API çağrısının etrafına sarılmış yapıdan ibarettir
Yapay zekâ ajanları nasıl daha akıllı hale geldi
- Prompt engineering: Rol verme, Few-Shot, Chain-of-Thought gibi teknikler sonuçta giriş metninin bağlamını daha somut hale getirerek çıktının yönünü belirleme yöntemleridir
- Çıktı biçimi kontrolü: JSON Schema tanımı, Function Calling vb. ile modelin çıktısı programın parse edebileceği bir yapıya dönüştürülür. Function Calling sayesinde modelin araç çağırdığı ve runtime'ın bunu çalıştırdığı bir yapı mümkün olur. MCP ve RAG de araç çağırmanın birer biçimidir
- Context engineering: Mesele soruyu nasıl soracağınız değil, modelin akıl yürütmeden önce ne göreceğini tasarlamaktır. Girdi uzadıkça odak azalır; bu yüzden doğru bilgiyi doğru yere koymak esastır
- Prompt bölme: Tek bir dev prompt yerine, küçük ve odaklı birden fazla prompt'a bölerek işlemek. Sub-Agent (alt ajan), Skill vb. bu kategoriye girer
- Harness engineering: Modeli çevreleyen tüm çalışma ortamını tasarlamaktır. Guide (eylem öncesi yönlendirme) ve sensor (eylem sonrası sonuç doğrulama) bileşenlerinden oluşur
- Ralph loop: Tamamlanma kriteri karşılanmadığında aynı prompt'u tekrar tekrar enjekte etme tekniği. İlerleme durumu dosya sistemi ve git'e kaydedildiği için her seferinde yeni bir context içinde de devam edilebilir. Bu, harness'in alt stratejilerinden yalnızca biridir; harness'in kendisiyle aynı kavram değildir
FOMO'dan kurtulmak
- Bilginiz olsa bile kaygı duymanızın nedeni, FOMO tetikleyicileri yüzünden kendimizi sanki hiçbir şey bilmiyormuşuz gibi hissetmemizdir
- FOMO hissetmemenin iyi yollarından biri, FOMO tetikleyicilerinin gerçekte neyi çözdüğüne bakmaktır
- Çoğu durumda yapılan şey süreci sıkıştırmaktır; sorunu çözmek değil
- Özünü anlıyorsanız, yeni bir bilgiyle karşılaştığınızda bunun yeni bir paradigma mı, mevcut kavramların bir varyasyonu mu, yoksa abartı mı olduğunu kendi başınıza değerlendirebilirsiniz
Bundan sonra ne yapmalı
- Mutlaka bir şey yapmanız gerekmez. Yapay zekâ sizin probleminize yardımcı olmuyorsa, şimdiye kadar yaptığınız gibi yaşamaya devam edebilirsiniz. Nihayetinde sadece bir araçtır; gerekirse kullanır, gerekmiyorsa kullanmazsınız
- Her şeyin tek bir doğru cevabı yoktur. Bu yüzden bir cevap anahtarı bulmaya çalışmanız gerekmez
- Bilginiz varsa, bundan sonra yeni terimler ortaya çıktığında da neyden söz edildiğini anlayabilecek bir bakış kazanırsınız
17 yorum
FOMO hissetmemek için iyi bir yöntem, FOMO yaratanların aslında yapay zekayı kullanarak neyi çözdüklerine bakmaktır.
Bu söz bana gerçekten çok dokunaklı geliyor haha
"Yapay zeka sorunuma yardımcı olmuyorsa şimdiye kadar yaşadığım gibi yaşamaya devam ederim. Sonuçta sadece bir araç; gerekirse kullanırım, gerekmezse kullanmam, o kadar." O kadar kolay değil hüzünlü yüz
Hehe, şimdi ben ne yapacağım?
Uzmanlığın tamamı ikame edilebilir bir şey değil, değil mi? Terimin türetilme süreci baştan garip.
Orijinal metinde yapay zekanın uzmanlığın tamamının yerini alabileceği gibi bir iddia hiç yoktu. Ben de zaten böyle düşünmüyorum...
> LLM, "verilen girdiye en uygun çıktıyı üreten" bir sonraki kelime tahmin modelidir.
GPT-3'ten bahsediyor.
GPT sonrasında piyasaya çıkan büyük dil modellerinin, diffusion model kullanan birkaç istisna dışında, hepsinin bir sonraki token’ı tahmin etme biçiminde olduğunu sanıyordum; farklı şekilde çalışan modeller varsa bildirirseniz sevinirim.
O zaman en yeni model farklı bir şey mi? Eğer yanlış bilgi varsa, beni de dahil olmak üzere diğer kişiler için de faydalı olacağını düşünüyorum; söylerseniz sevinirim haha
Modern LLM’leri “sonraki kelime tahmini” diye küçümseyecekseniz, AlphaGo da sonuçta “bir sonraki hamle tahmini”nden ibaret.
ChatGPT’den itibaren sonraki kelime tahmini de sadece basit bir pre-trained aşamasından ibaret.
Asıl mesele, hedefe ulaşan bir model olması.
AlphaGo da en yüksek kazanma olasılığına sahip bir sonraki hamleyi hesaplayıp tahmin etmiyor mu?????
Kafam karıştı. Şaka mı yapıyorsunuz, yoksa benim bilmediğim yeni bir yöntem ya da teknoloji mi çıktı??
İşin özü "kazanma oranı".
Sadece bir sonraki kelimeyi tahmin etmekle, bırakın işe yarar cümleler kurmayı, kodlama ya da matematiği bile düzgün yapamazsınız.
Bu tür teknikler 60'lar ve 70'lerde ortaya çıktı.
(Aslında tam olarak kelime de değil)
Hmm... Belki de yazı, niyetimden farklı bir şekilde aktarılmış olabilir diye düşünüyorum. Eğer bu yazıda LLM’nin teknik değerini küçümsüyormuşum gibi hissedildiyse özür dilerim.
Ancak bu yazının amacı, abartılı ambalajı ve gizemleştirmeyi kaldırıp meseleye soğukkanlı bakmaktı. Bu yüzden kişisel olarak, buna "hedefe ulaşan model" denildiğinde bunun gizemleştirme olduğunu düşünüyorum. Sonuçta ister sıradan yazılım olsun ister model, ikisi de bir tür "hedefe" ulaşmak için var.
Bu yüzden, kişisel merakımı da ekleyerek sormak isterim: Kullandığınız ifadenin teknik açıdan daha doğru olup olmadığını tekrar açıklayabilir misiniz?
gpt 3: sonraki kelime tahmini -> doğru
gpt 3 sonrası transformer tabanlı modeller: sonraki kelime tahmini -> doğru.
AlphaGo, AlphaZero, MuZero, ... : sonraki hamle tahmini -> doğru.
(belirli) bir hedefe ulaşan model -> doğru.
Söylenenlerde yanlış bir şey yok
Öyle de görünüyor.
Ancak sonuçta modelin kendisi yalnızca bir girdi-çıktı fonksiyonu. Uygun bir harness ve agent loop verildiği varsayımı altında, modelin hedefe ulaştığını söylemek geçerli gibi görünüyor.
“Sonraki token tahmini”, uygulama düzeyindeki bir açıklama olarak doğru olsa da, modeli̇n yeteneklerini ya da amacını açıklama biçimi olarak eksik kalır diye özetlenebilir mi?
O zaman ortada, daha iyi tahmin yapan bir modelde buluşmak iyi olabilir 😄