- Son 3 yılda LLM genişletme yaklaşımının evrimi, eklentiler, kullanıcı talimatları, bellek, protokoller ve beceriler gibi çeşitli biçimlerde gelişti
- İlk ChatGPT Plugins, API çağrıları üzerinden genel amaçlı araç kullanımını denedi, ancak model sınırlamaları ve karmaşık UX nedeniyle başarısız oldu
- Ardından Custom Instructions ve Custom GPTs ortaya çıkarak basit prompt tabanlı kişiselleştirme ve paylaşılabilir özelleştirilmiş model yapısı sundu
- Model Context Protocol(MCP) ve Claude Code, karmaşık ama güçlü araç entegrasyonlarını mümkün kıldı; son dönemde Agent Skills bunu sadeleştirilmiş bir biçimde yeniden canlandırdı
- Sonuçta genel amaçlı araçlar ve doğal dil talimatlarıyla işi yapan ajan yapısı, LLM genişletmenin temel yönü haline gelecek
LLM genişletmenin tarihi ve değişimi
- LLM kullanım biçimi, basit metin girişinden kod tabanı ve tarayıcıyı kontrol eden ajanlara evrildi
- Kullanıcıya özel uyarlamanın (customization) nasıl destekleneceği temel sorun olarak öne çıktı
- Basit sistem prompt'larından karmaşık istemci-sunucu protokollerine kadar farklı yaklaşımlar denendi
ChatGPT Plugins (Mart 2023)
- OpenAI, ChatGPT Plugins'i duyurdu; OpenAPI spesifikasyonu üzerinden LLM'in REST endpoint'lerini çağırması için tasarlandı
- AGI düzeyinde genel amaçlı araç kullanımını hedefliyordu
- Ancak GPT-3.5 ve ilk GPT-4'ün sınırlamaları nedeniyle büyük ölçekli API spesifikasyonlarını keşfederken hatalar ve bağlam kaybı yaşandı
- Eklentilerin elle etkinleştirilmesi gibi zahmetli UX de bir sorundu
- Buna rağmen Code Interpreter (sonradan Advanced Data Analysis) eklentisi, güçlü bir sandbox yürütme ortamının potansiyelini gösterdi
Custom Instructions (Temmuz 2023)
- Eklentilerin karmaşıklığını azaltan basit bir kullanıcı tanımlı prompt özelliği
- Tüm konuşmalara otomatik eklenerek tekrarlayan bağlam kurma sorununu çözdü
- Daha sonra
.cursorrules, CLAUDE.md gibi geliştirme ortamı içindeki kural dosyalarının öncülü işlevini gördü
Custom GPTs (Kasım 2023)
- OpenAI, Custom GPTs ile prompt engineering'i ürünleştirdi
- Persona, dosyalar ve aksiyonları bir araya getirerek paylaşılabilir özelleştirilmiş GPT bağlantıları oluşturdu
- Eklentilerin açık yaklaşımından tek amaçlı uygulama formuna geri çekildi
ChatGPT'de Memory (Şubat 2024)
- Otomatik kişiselleştirme özelliğine dönüşen ilk örnek
- Konuşma sırasında bahsedilen bilgileri hatırlayıp daha sonra bağlama otomatik yansıttı
- Kullanıcının doğrudan ayar yapmasına gerek kalmadan uzun vadeli durumu koruyan kalıcı ajan yapısının başlangıcı oldu
Cursor Rules (Nisan 2024)
- Cursor IDE,
.cursorrules dosyasıyla depo düzeyinde talimat yönetimi getirdi
- Örnek: “tab kullan”, “noktalı virgül yasak”, “TypeScript kullan”
- Daha sonra
.cursor/rules klasör yapısına genişleyerek dosya bazlı ve dizin bazlı kural uygulamasını mümkün kıldı
- LLM'in kuralları ne zaman uygulayacağına kendisinin karar vermesi özelliği de eklendi
Model Context Protocol (MCP, Kasım 2024)
- Anthropic tarafından sunulan MCP, modelin gerçek araçları güvenilir şekilde kullanmasını sağlayan bir yapı sundu
- İstemci-sunucu bağlantısını koruyarak araç tanımları, kaynaklar ve prompt'lar arasında alışveriş yaptı
- Basit bağlam ekleme yerine gerçek işlevler (capabilities) sağladı
- Örnek: depo okuma, DB sorgusu, Vercel dağıtımı
- Karmaşıklığı ve kurulum yükü yüksek olsa da, ChatGPT Apps (Ekim 2025'te duyuruldu) için temel katman olarak kullanıldı
Claude Code ve genişletme mekanizmaları (Şubat 2025)
- Claude Code, çeşitli genişletme yöntemlerini birleştiren bir ajan
CLAUDE.md ile depo talimatlarını yönetiyor
- MCP ile araç entegrasyonu sağlıyor
- Slash Commands, Hooks, Sub-agents, Output Styles (yakında kaldırılacak) gibi özellikleri destekliyor
- Bazı özelliklerin kalıcılığı belirsiz olsa da, ajan genişletmesi için deneysel birleşik model olarak değerlendiriliyor
Agent Skills (Ekim 2025)
- ChatGPT Plugins'in yeniden doğmuş hali olarak, karmaşık protokoller olmadan klasör tabanlı beceri yapısı kullanıyor
skills/ dizini içinde SKILL.md, script'ler ve örnek dosyalardan oluşuyor
- Yalnızca gerektiğinde tüm içeriği okuyarak bağlam penceresi şişmesi (context bloat) sorununu çözüyor
- Örnek: Playwright tabanlı web uygulaması test becerisi
SKILL.md içinde meta veriler ve kullanım talimatları yer alıyor
- Script'ler doğrudan çalıştırılıyor ve LLM, kod içeriğini gereksiz yere bağlama yüklemiyor
- Genel amaçlı bilgisayar erişimini ön koşul kabul ediyor; temel yaklaşım, özel araçlardan çok genel amaçlı araçlara güvenmek
Gelecek öngörüsü
- Agent Skills, ilk eklentilerin idealini gerçeğe dönüştürüyor
- Model yeterince akıllı hale geldiği için yalnızca genel araçlar ve talimatlarla iş yapabiliyor
- Ajanlar, basit bir LLM döngüsü değil; bilgisayarla birleşmiş yürütücü varlıklar olarak yeniden tanımlanıyor
- Örnek: Claude Code, Zo Computer gibi yapılar LLM ile bilgisayarı birleştiriyor
- 2026 sonrasında LLM uygulamalarının bilgisayar gömülü ajan mimarisi olarak yayılması bekleniyor
- Sonuç olarak, karmaşık protokollerden (MCP) çok doğal dil tabanlı genişletmelerin yeniden merkeze dönme ihtimali var
1 yorum
Hacker News görüşleri
Doğal dil çok belirsiz olduğu için onu programlama dili gibi ölçeklendirmenin verimsiz olduğunu düşünüyorum
Matematiğin kendi alan-özgü diline sahip olmasının sebebi de tam olarak netliği güvence altına almak
İngilizcede zahmetli ama alışınca belirsizliği azaltmak mümkün
İlgili kavram bu belgede iyi özetlenmiş
Skills'in, ChatGPT Plugins hayalini gerçeğe dönüştüren bir kavram olduğunu düşünüyorum
Artık modeller yeterince akıllı; gerçekten çalışabilir gibi görünüyor
Simon Willison da bu yazıda Skills'in MCP'den daha büyük bir değişim olduğunu savundu, ama şimdilik MCP ataleti yüzünden daha az ilgi görüyor gibi
Ama MCP'nin gerektirdiği karmaşık scaffolding'i ortadan kaldırması açısından çok daha büyük bir anlam taşıyor
Örneğin Fathom hesabındaki kayıt çözümlerini işlerken bir CLI script'i yazıp sadece SKILL.md hazırlamam yeterli oldu
İstemci API testi de aynı şekilde çözüldü
Ama bu yaklaşım daha az gösterişli ve büyük ölçekli tooling üretmeye daha az alan bıraktığı için daha az dikkat çekiyor gibi
Üstelik Skills, rastgele kod çalıştırabilen ajanları önvarsaydığı için giriş bariyeri de yüksek
Zaten uzun zamandır Claude Code'a “X'i oku ve Y'yi yap” diyordum; bunun Skills'ten farkı ne merak ediyorum
İşi takip etmek için I/O ve print ifadelerine bağımlı olmak sinir bozucu
MCP sistem kurmak için, Skills ise Claude'a özel; dolayısıyla lock-in ciddi
Skill'ler arasında referans veya bileşim kurulamaması da büyük bir kısıt
Sonuçta ölçeklenebilirlik, yeniden kullanılabilirlik, uzaktan kullanım gibi sorunları çözmeye çalışınca yeniden MCP'ye dönülecek gibi duruyor
Yine de Skills, MCP'nin farklı bir görünümü olarak yerleşirse ileride Skill→MCP dönüştürücüsü gibi şeyler çıkabilir
Modelin iyileşmiş olmasının Bitter Lesson ile ne ilgisi olduğunu anlamıyorum
Hâlâ insan uzmanlığını enjekte edip modelin sınırlarını telafi eden bir yapı söz konusu
Gerçek Bitter Lesson, insan müdahalesi olmadan yalnızca hesaplama kaynaklarını artırarak daha iyi sonuçlar elde etmek olurdu
Custom GPTs eski bir kavram ama yakın zamanda pratik bir kullanım alanı buldum
Eşimin toplantı kayıtları ve yapılacak işler yönetimi için Notion API'sine bağlı bir Custom GPT yaptım; birkaç saat içinde oldukça faydalı çalışmaya başladı
Reminders uygulamasıyla entegre etmeye çalıştım ama API kısıtları ve UI izin sorunları yüzünden sonunda MCP sunucusunu kendim kurmam gerekti
Eski bir MacBook Pro'da Amphetamine'ı açıp Tailnet ve Cloudflare tüneliyle bağladım; böylece ChatGPT'den erişilebilir oldu
Karmaşık ama AI ajanını tek bir merkezi hub olarak konumlandırmak oldukça değerliydi
İlgili uygulama bu blogda anlatılmış
ChatGPT 5.1 hâlâ var olmayan API'leri halüsinasyonla uyduruyor, ama yine de giderek daha iyiye gidiyor
İnsanlık bilgi işleme kapasitesini her geliştirdiğinde dünya değişti; LLM'ler sadece doğru cevap verme olasılığını artırsa bile dünya yine değişecek
“MCP'yi shortlamak istiyorum” sözüne katılıyorum
MCP ile uğraşmak zor ama dünyada güvenli arayüz gerektiren çok iş var
İlk tasarımın karmaşık olmasının sebebi, streaming token işlemenin gerçekliğini olduğu gibi açığa vurmasıydı
Karmaşık ama hâlâ çalışabilir basit bir sistemin sınır çizgisi üzerinde olduğunu düşünüyorum
Tamamen ortadan kalkmaz; modellerin ajan ortamlarını düzgün idare edebilmesi için MCP benzeri yapılara bir süre daha ihtiyaç olacak
Günümüz modelleri artık yalnızca basit API açıklamalarıyla da yeterince etkileşebiliyor
Zaten bir API varsa ayrıca MCP sunucusu kurmak için gerekçe azalıyor
Uygulama, basit bir JSON-RPC + API düzeyinde
Python FastMCP'nin hello-world örneği Flask sürümüyle neredeyse aynı
Skills buna bir tepki olarak ortaya çıktı; bundan sonra LLM alanı ile kod alanının kendi kendine monte edildiği yapılara evrilebiliriz gibi görünüyor
Skills.md de sonunda MCP gibi bağlam şişmesi problemi yaşayacak gibi görünüyor
Hatta açıklama bile koymadan sadece script'leri bırakıp, LLM'nin klasör içinde ihtiyaç duyduğunu aramayı öğrenmesi daha iyi olabilir
Örneğin skill'leri okuyup seçen hafif bir alt ajan koyulabilir
Bu ay duyurulan ChatGPT Apps, 3 yıl önceki ChatGPT Plugin ile neredeyse aynı hissettiriyor
Fark sadece eklentiyi çağırma biçiminde — eskiden açılır menüden seçiyorduk, şimdi ise prompt'a adını yazmak yetiyor
Kullanıcı açısından büyük bir fark görünmüyor
Prompt'u olasılıksal program olarak görmek ve bunu çağıran özel bir shell gerektiğini düşünüyorum
Claude Code ya da Codex gibi coding agent'lar bunun örneği
Bu işlevleri IDE'den ayırıp llm-do gibi bağımsız bir shell'e dönüştürmeyi araştırıyorum
LLM genişletmenin asıl özü shell entegrasyonu
Shell'e bağlı bir LLM fiilen her şeyi yapabilir