Ajanik Motor Optimizasyonu (AEO)
(addyosmani.com)- Yapay zeka kodlama ajanlarının doküman tüketme biçimi insanlardan temelden farklı olduğu için, yalnızca insan merkezli optimizasyon artık giderek daha fazla yapay zeka trafiğinin analiz araçlarına yakalanmadan kaybolmasına yol açıyor
- Ajanlar dokümanı tek bir HTTP isteğiyle alıp token sayısını hesaplıyor ve bağlam penceresine sığmıyorsa sessizce eliyor; bu yüzden scroll derinliği, sitede kalma süresi, tıklama gibi geleneksel analiz metrikleri hiç kaydedilmiyor
- Buna karşılık, dokümanı ajanların gerçekten kullanabileceği şekilde yapılandırma, biçimlendirme ve sunmayı hedefleyen Agentic Engine Optimization (AEO) kavramı öneriliyor
- AEO’nun özü keşfedilebilirlik, ayrıştırma kolaylığı, token verimliliği, yetenek sinyalleme ve erişim kontrolü; bunlardan biri bile başarısız olursa ajan içeriği atlayabiliyor veya hatalı çıktı üretebiliyor
- Erken harekete geçen ekipler, kendi API’lerinin ajanlar tarafından önerilip entegre edilmesinde avantaj elde ediyor; ajanlar için yapılan dokümantasyon da sonuçta insan okuyucular için daha iyi belgeler üretiyor
AEO nedir
- Agentic Engine Optimization (AEO), teknik içeriği yapay zeka kodlama ajanlarının gerçekten kullanabileceği şekilde yapılandırma, biçimlendirme ve sunma pratiğidir
- SEO arama tarayıcıları ve insan tıklama kalıpları için optimizasyondu; AEO ise içeriği otonom biçimde getirip ayrıştıran ve üzerinde akıl yürüten yapay zeka ajanlarını yeni tüketici olarak hedefler
- Temel değerlendirme unsurları
- Discoverability – Ajan dokümanı JavaScript render edilmeden bulabiliyor mu
- Parsability – Görsel yerleşimi yorumlamadan makine tarafından okunabiliyor mu
- Token efficiency – Tipik bir ajan bağlam penceresine kesilmeden sığıyor mu
- Capability signaling – API, "nasıl çağrıldığını" değil "ne yaptığını" anlatıyor mu
- Access control –
robots.txtgerçekten yapay zeka trafiğine izin veriyor mu
Ajanlar dokümanları nasıl okuyor
- İnsan kalıbı: Doküman ana sayfasına gelir, bölümler arasında gezinir, başlıklara göz atar, kod örneklerini çalıştırır, 2-3 dahili bağlantıya geçer, oturum başına 4-8 dakika kalır → analiz araçları bunların hepsini kaydeder
- Ajan kalıbı: Claude Code, Cursor, Cline, Aider, VS Code, Junie gibi 9 büyük kodlama ajanının HTTP trafiğini inceleyen makaleye göre, çok sayfalı gezinme 1-2 HTTP isteğine sıkışıyor
- Tek bir
GETisteğiyle tüm sayfa alınır ve ilerlenir; "user journey" kavramı sunucu tarafında tek bir olaya çöker - Scroll derinliği, kalma süresi, buton tıklaması, eğitim tamamlama, bağlantı takibi, form etkileşimi gibi tüm istemci tarafı olaylar görünmez hâle gelir
- Tek bir
Yapay zeka trafiğinin parmak izleri
- Sunucu loglarında ajan trafiğini tanımlamaya yarayan özgün imzalar vardır
- Aider: Headless Chromium (Playwright), on-demand GET, tam Mozilla/Safari user-agent
- Claude Code: Node.js/Axios, on-demand GET,
axios/1.8.4 - Cline: curl, GET + OpenAPI/Swagger sweep,
curl/8.4.0 - Cursor: Node.js/got, HEAD probe → GET,
got (sindresorhus/got) - Junie: curl, sıralı çok sayfalı GET,
curl/8.4.0 - OpenCode: Headless Chromium (Playwright), on-demand GET
- VS Code: Electron/Chromium, Electron işaretçisi içeren Chromium tarzı
- Windsurf: Go/Colly,
colly
- Kodlama ajanlarının yanı sıra ChatGPT, Claude, Google Gemini, Perplexity gibi yapay zeka asistanı web servisleri de kullanıcı bir URL paylaştığında sunucu tarafında fetch yapıyor ve kendilerine özgü parmak izleri üretiyor
Token sorunu: doküman ajan için görünmez olabilir
- Ajanların çoğunda fiilî sınır 100K-200K token ve bağlam yönetimi tüm görevlerde etkin bir kısıt
- Makaledeki örnek: Cisco Secure Firewall Management Center REST API Quick Start Guide (Version 10.0), 193.217 token ve yaklaşık 718.000 karakter ile tek başına çoğu ajanın kullanılabilir bağlam penceresini tüketiyor ya da aşıyor
- Doküman fazla uzunsa ortaya çıkabilecek durumlar
- Sessiz kesilme nedeniyle kritik bilgi kaybı
- Daha kısa dokümanları tercih edip bu dokümanı atlama
- Chunking denemeleriyle gecikme ve hata yüzeyinin artması
- Parametrik bilgiye fallback — yani halüsinasyon üretimi
- Sonuç: Token sayısı artık dokümanın birinci sınıf metriklerinden biri, sayfa bazında token takibi şart
Pratik token hedefleri
- Quick start / getting started sayfaları: 15.000 token altı
- Tekil API referans sayfaları: 25.000 token altı
- Tam API referansı: ürün bazında değil, resource/endpoint bazında chunking
- Kavramsal kılavuzlar: 20.000 token altı; ayrıntılar embed etmek yerine bağlantıyla verilmeli
AEO yığını: gerçekten ne inşa etmek gerekiyor
- AEO tek bir teknik değil, temelden yüzeye katmanlanan sinyal ve standartlar bütünü
Layer 1: erişim kontrolü (robots.txt)
- Birçok ajan içerik almadan önce
robots.txtdosyasını kontrol ettiği için, yanlış yapılandırılırsa hata vermeden doküman erişimini sessizce engeller - Uygulama adımları
- Yapay zeka ajanı user-agent’ları için istenmeden oluşmuş engelleri denetleme
- Anthropic, OpenAI, Google, Perplexity crawler’ları gibi iyi bilinen kalıplara açık izin verilmesini gözden geçirme
- Daha ayrıntılı kontrol gerekiyorsa
agent-permissions.jsonkullanma (otomatik etkileşimlerin kapsamı, rate limit, tercih edilen API endpoint’leri vb. bildiren yeni bir spesifikasyon)
Layer 2: keşif için llms.txt
yourdomain.com/llms.txtaltında barındırılan Markdown formatında düz bir dosya; yapay zeka ajanları için site haritası görevi görür- Yapılandırılmış doküman dizini ve açıklamalar sunarak, ajanların tüm siteyi crawl etmeden ilgili içeriği anlamasını sağlar
- Örnek yapı: Getting Started (Quick Start Guide, Authentication, Core Concepts), API Reference (REST API Overview, Users API 12K token, Events API 8K token), MCP Integration (MCP Server)
- İyi bir
llms.txtiçin özellikler- Sayfa adını değil, orada ne bulunacağını anlatan açıklamalar
- Faydalıysa sayfa başına token sayısı
- Ürün hiyerarşisi yerine görev (task) bazlı düzen
- Kendi boyutunun 5.000 token altında tutulması (indeks bütçeyi aşmamalı)
Layer 3: skill.md ile yetenek sinyalleme
llms.txt"nerede olduğunu" söylüyorsa,skill.mdürünün "ne yapabildiğini" söyler- Ajanın düzyazı içinden yetenek çıkarsaması gerekmeksizin, niyet (intention) endpoint ve resource’lara deklaratif biçimde eşlenir
- Kimlik doğrulama servisi için örnek yapı
- What I can accomplish: OAuth 2.0 kimlik doğrulama (
authorization code,client credentials,PKCE), JWT token üretimi ve doğrulama, oturum ve refresh token rotation yönetimi, SSO entegrasyonu (SAML,OIDC) - Required inputs: Client ID/Secret, önceden kayıtlı Redirect URI, istenen scope (
read:user,write:data,admin) - Constraints: uygulama başına dakikada 1000 token isteği, access token 1 saat / refresh token 30 gün, public client için
PKCEzorunlu - Key documentation: OAuth 2.0 Guide, Token Reference, Postman Collection
- What I can accomplish: OAuth 2.0 kimlik doğrulama (
- Böylece ajan, tüm dokümanı okumak için bağlam bütçesi harcamadan önce API’nin kullanıcı niyetini karşılayıp karşılamadığını değerlendirebilir
Layer 4: ajan ayrıştırması için içerik formatı
- Sadece HTML değil, Markdown da sunun — URL’ye
.mdekleyerek ya da query parametresiyle kaynak Markdown’a erişim verin; etiket, navigasyon ve footer gürültüsü olmadığından token yükü dramatik biçimde azalır - Okumaya değil, taramaya uygun yapılandırın
- Tutarlı başlık hiyerarşisi (H1 → H2 → H3, atlama yok)
- Her bölüm arka planla değil, sonuç (outcome) ile başlasın
- Kod örnekleri açıklamanın hemen ardından gelsin
- Parametre referanslarında düzyazı liste yerine sıkıştırma oranı daha yüksek tablolar kullanın
- Sidebar, breadcrumb, footer linkleri gibi navigasyon gürültüsünü kaldırın
- Her sayfanın ilk 500 token’ı içinde "bu nedir, ne yapabilir, başlamak için ne gerekir" sorularına yanıt verin
Layer 5: token görünürlüğü
llms.txtindeksinde ve sayfanın kendisinde (metadata veya sayfa başlığı) token sayısını görünür kılın- Ajanların kullanabileceği değerlendirme örnekleri
- "Bu sayfa 8K token — bağlama tamamı alınabilir"
- "Bu sayfa 150K token — yalnızca ilgili bölümleri almak gerekir"
- "Bağlam penceresini aşıyor — llms.txt özetini kullan"
- Uygulama, sunucu tarafında karakter sayısını sayıp yaklaşık 4’e bölerek tahmin etmeye ve bunu meta tag ya da HTTP response header ile sunmaya dayanır
Layer 6: "Copy for AI"
- Geliştirici IDE içindeki yapay zeka asistanına bir dokümanı bağlam olarak eklemek istediğinde, render edilmiş HTML’yi kopyalamak navigasyon ve footer gürültüsünü de taşır
- Temiz Markdown’ı panoya kopyalayan bir "Copy for AI" düğmesi, ajanın aldığı bağlamın kalitesini anlamlı biçimde yükseltir
- Anthropic ve Cloudflare gibi şirketler bunun varyasyonlarını şimdiden yayınladı; düşük maliyetli ve yüksek sinyalli
AGENTS.md: yükselen temel standart
README.mdinsan geliştiriciler için bir depo giriş noktasıydı;AGENTS.mdise yapay zeka ajanları için giriş noktası olarak yükseliyor- Kodlama ajanları proje açıldığında kök dizindeki
AGENTS.mddosyasını arıyor ve sonraki tüm işler için bunu yönerge olarak kullanıyor - İyi bir
AGENTS.mdiçinde bulunması gerekenler- Proje yapısı ve önemli dosyaların konumu
- İlgili API/hizmet dokümanlarına doğrudan bağlantılar
- Kullanılabilir geliştirme sandbox’ları ve test ortamları
- Ajanın bilmesi gereken rate limit’ler ve kısıtlar
- Kod tabanındaki tercih edilen kalıplar ve konvansiyonlar
- Varsa MCP server bağlantıları
- Cisco DevNet, bunu açık kaynak proje GitHub şablonlarının varsayılan dosyası olarak benimsedi; yeni proje oluşturulurken OpenAPI dokümanları, DevNet sandbox’ları ve test ortamı bağlantıları içeren projeye özel
AGENTS.mdönceden dolduruluyor
Yapay zeka referral trafiğini izleme
- Hemen şimdi yapılabilecek şey: analiz araçlarında yapay zeka referral trafiğini izlemeye başlamak
- Takip edilmesi gereken referral kaynakları: labs.perplexity.ai/referral, chatgpt.com/(none), chatgpt.com/organic, link.edgepilot.com/referral, platform.openai.com/referral, perplexity/(not set), claude.ai/referral, copilot.microsoft.com/referral, gemini.google.com/referral
- Referrer olmadan gelen doğrudan ajan trafiği, daha önce anılan HTTP parmak izleriyle (
axios/1.8.4,curl/8.4.0,got (sindresorhus/got),colly) yakalanabilir - Uygun yapay zeka trafik segmentleri kurmak, AEO çalışmalarının etkisini değerlendirmek için öncü gösterge sağlar
Geliştirici deneyimi açısından daha geniş etkiler
- Bugüne kadar geliştirici portalları progressive disclosure, görsel hiyerarşi, interaktif örnekler, rehberli eğitimler gibi insan biliş kalıplarına göre tasarlanıyordu
- Ajan merkezli dünyada bozulan varsayımlar
- Görsel hiyerarşi anlamsız — ajan yerleşimi değil, metni okur
- Progressive disclosure bir engeldir — ajan her şeyi tek seferde ister
- İnteraktif örnekler değer kaybeder — statik/API eşdeğeri yoksa işe yaramaz
- User journey çöker — çok sayfalı eğitim, tek bir bağlam yüklemesine dönüşür
- İnsan merkezli tasarım ortadan kalkmıyor; fakat insanlar da giderek dokümanları yapay zeka asistanlarının bağlamı içinde okuyor
- Geleceğin en iyi dokümanları, insan için taranabilir ve iyi yapılandırılmış; ajan için makinece okunabilir ve token açısından verimli olmalı
AEO denetim kontrol listesi
Discovery
- Kökte, yapılandırılmış doküman indeksini içeren bir
llms.txtvar robots.txt, bilinen yapay zeka ajanı user-agent’larını istemeden engellemiyoragent-permissions.json, otomatik istemcilerin erişim kurallarını tanımlıyor- Kod deposunda ilgili dokümanları bağlayan bir
AGENTS.mdvar
Content structure
- Doküman sayfaları render edilmiş HTML yerine temiz Markdown olarak sunuluyor
- Her sayfa ilk 200 kelime içinde net bir sonuç ifadesiyle başlıyor
- Başlıklar tutarlı ve hiyerarşik olarak doğru
- Kod örnekleri düzyazı açıklamanın hemen arkasında yer alıyor
- Parametre referansları iç içe düzyazı yerine tablolarla veriliyor
Token economics
- Doküman sayfası bazında token sayısı izleniyor
- Chunking stratejisi olmadan 30.000 token’ı aşan tekil sayfa yok
- Ana sayfaların token sayısı
llms.txtiçinde gösteriliyor - Sayfa metadata’sında (meta tag veya HTTP header) token sayısı sunuluyor
Capability signaling
skill.mddosyaları, her hizmet/API için çağırma biçimini değil, yetenekleri tanımlıyor- Her skill içinde capabilities, required inputs, constraints, key doc links yer alıyor
- Uygun olan yerlerde doğrudan ajan entegrasyonu için MCP server sağlanıyor
Analytics
- Web analizinde yapay zeka referral kaynakları segmentlere ayrılıyor
- Bilinen yapay zeka ajanı HTTP parmak izleri için sunucu logları izleniyor
- Yapay zeka / insan trafik oranı için bir başlangıç seviyesi belirleniyor
UX bridge
- Doküman sayfalarında bir "Copy for AI" düğmesi var
- URL kuralıyla (ör.
.mdekleme) kaynak Markdown’a erişim mümkün
Tooling
- agentic-seo adlı hafif bir denetim aracı yayımlandı;
llms.txt,robots.txtajan engelleri, token sayısı, Markdown erişilebilirliği vb. öğeleri tarıyor — ajan hazırlığı için bir tür Lighthouse yaklaşımı
Nereden başlanmalı
- Önerilen sıra
robots.txtdenetimi — 10 dakikalık iş, sessiz ajan kilitlenmelerini önlerllms.txtekleme — birkaç saatlik iş, keşfedilebilirliği anında artırır- Token sayısını ölçüp görünür kılma — hafta sonu projesi, yüksek kaldıraç
- En üstteki 3 API için
skill.mdyazma — ajanların en çok erişeceği yerlerden başlayın - "Copy for AI" düğmesi ekleme — düşük maliyetli, yüksek sinyalli
- Yapay zeka trafiği izlemeyi kurma — diğer işleri gerekçelendirecek veriyi toplama
Kapanış
- SEO’nun "harika içeriğin tek başına yetmediğini, dönemin gerçek trafik kalıplarına uygun biçimde keşfedilebilir hâle getirilmesi gerektiğini" öğretmesi gibi, AEO da yeni tüketici için aynı dersi veriyor
- Yapay zeka kodlama ajanları, doküman trafiğinde zaten kayda değer ve büyüyen bir paya sahip; ayrıca insan okuyuculardan temelden farklı davranıyorlar
- Erken davranan ekipler, kendi API’lerinin ajanlar tarafından önerilmesi, başarıyla entegre edilmesi ve yeniden kullanılması açısından avantaj yakalayacak
- Harekete geçmeyen ekipler ise, doküman kalitesi ile gerçek ajan görev başarı oranı arasındaki farkın büyüdüğü, debug etmesi zor sessiz başarısızlık modlarıyla karşı karşıya kalacak
- Ajanlar için bir şeyler inşa etmek sonunda insanlar için de daha iyi dokümanlar ortaya çıkarır; iki alan birbirinden ayrışmaktan çok örtüşür
Henüz yorum yok.