13 puan yazan xguru 12 일 전 | 6 yorum | WhatsApp'ta paylaş
  • Cloudflare tarafından geliştirilen bu araç, web sitenizin ajanlar için ne kadar uygun olduğunu bir puanla gösterir
  • Yapay zeka ajanlarına hazırlık seviyesini teşhis eder; kimlik doğrulama, içerik formatı, erişim kontrolü ve ödeme yöntemi gibi alanlarda nasıl optimize edilebileceğini görmenizi sağlar
  • Her başarısız madde için kodlama ajanına doğrudan verilebilecek istemler sunar ve otomatik iyileştirmeyi destekler
  • Puan, 4 alan temel alınarak hesaplanır
    • Discoverability: robots.txt, sitemap.xml, Link Headers (RFC 8288)
    • Content: Markdown for Agents
    • Bot Access Control: Content Signals, robots.txt içindeki AI bot kuralları, Web Bot Auth
    • Capabilities: Agent Skills, API Catalog, OAuth sunucu keşfi (RFC 8414/9728), MCP Server Card, WebMCP
  • Ajan ticareti standartlarını destekleyip desteklemediği de kontrol edilir (puana yansıtılmaz)

6 yorum

 
xguru 12 일 전

Asıl komik olan, kendi cloudflare.com siteleri 25 puan alıyor. GeekNews news.hada.io ise 42 puan almış.
Önce kendi sitenizi düzgün denetleyip sonra başkalarını değerlendirmeniz gerek...

Tabii değerlendirme sitesi olan kendi isitagentready.comları 83 puan, ama bu yeni yapılmış olduğu için öyle...

Benzer şekilde https://orank.ai gibi araçlar da var.

 
geesecross 11 일 전

Cloudflare'ın bunu, sitelerin yapamadıklarını ahlaki açıdan azarlamak için yaptığı söylenemez; o zaman bununla alay etmek için bir sebep var mı?

İnternet ekosisteminde büyük etki gücüne sahip bir şirket olarak, böyle bir gündemi önce ele geçirirse bu fiilen standart gibi görülür ve internetin gelecekteki gelişim yönünü kendi çıkarlarına uygun tarafa yönlendirmesi de kolaylaşır.

 
xguru 11 일 전

Komik olduğunu söylüyorum, alay etmiyorum. Galiba ifadem biraz öyle anlaşılmış.
Cloudflare da son birkaç gündür bir şeyler peş peşe duyuruyor; bu yüzden ajan çağında bir şeylere hızlıca uyum sağlamalarını anlıyorum.

Ama o sitedeki kontrol listesi biraz tuhaf. Onunla bir siteyi puanlayıp değerlendirme fikrinin kendisi bile insana bir durup düşündürüyor.
Kendilerinin bile tamamen uygulayamayacağı şeyleri sıralayıp sonra da sanki çok önemliymiş gibi konuşmaları garip diyorum.

 
geesecross 11 일 전

Web’in quirk html ile tam bir karmaşa olduğu dönemde, web standartları doğrulayıcılarının siteleri puanladığı zamanları hatırlıyorum. Web standartlarına uymak sitenin iç kalitesini garanti etmiyordu elbette, ama en azından sitelerin standartlara uyum konusunda farkındalık kazanmasını sağlıyordu. Ayrıca Google gibi web’i tarayan ve makine okuması yapan şirketler de, adeta yerinden kalkmadan arama kalitesini bedavaya yükseltme avantajı elde etmiş olmalı diye düşünüyorum.

Böyle yönergeler sunulursa, yalnızca insanlar değil AI ajanlarının da internetin kullanıcı öznesi haline geldiği bu dönemde, biraz olsun takırtıyı azaltarak altyapının hızla istikrara kavuşması mümkün olabilir. Zaman geçince bazıları gereksiz ve aşırı süs gibi görülse bile, düzeni(?) hızlıca oturtmanın kendisinin ilgili sektörlerde avantaj sağlayabileceğini söylemek istemiştim.

 
savvykang 12 일 전

Sonuçta orası da kaçınılmaz olarak büyük bir şirket ve insanların yaşadığı yerler her yerde birbirine benziyor gibi görünüyor.

 
jeeeyul 11 일 전

İnsansı robotların insanlarla benzer boyutta ve benzer eklem yapısına sahip olmasının nedeni, onlar için ayrıca araçlar ya da hatlar kurmak zorunda kalmamaktır.

Biz zaten şirket genelinde RAG kurup işletme ve bakımını yapma gibi boş işlere giriştik; sonra da agent ve MCP ortaya çıkınca aslında buna gerek yokmuş diye dönüp bakmadık mı? Neden aynı hatayı başka bir yöntemle tekrarlayalım?

İnsanlar yerine agent’ların web’de gezinmesi gibi bayat bir fikirde asıl mesele teknoloji değil; bunun, web’in bizzat bir parçası olan Google’ın ana gelir modelini tehdit eden siyasi bir sorun olması çok daha büyük etki yaratacaktır.

Zaten webMCP, RPA agent’ları tam olgunlaşana kadar geçiş dönemine ait bir alternatiften ibaret. Gidiş o gidiş, yakında xul’a geri dönelim diyenler de çıkar herhalde.