- Kişisel blog blog.james-zhan.com, açıldıktan yalnızca bir ay sonra Google arama dizininden tamamen çıkarıldı
- Google Search Console (GSC) içinde RSS beslemesi URL’si yanlışlıkla doğrulandıktan hemen sonra, tüm gönderiler “Crawled – currently not indexed” durumunda görünmeye başladı
- Alan adı ayarları, içerik kalitesi, dahili bağlantı yapısı gibi birden çok olası neden kontrol edildi ancak sorun bulunamadı
- Bear Blog kurucusu Herman’ın yardımıyla DNS, HTML/CSS ve platform kaynaklı sorunlar da elendi; ayrıca diğer arama motorlarında dizinleme normal çalışıyordu
- Sonunda blog yeni bir alt alan adına taşındı ve Google’ın doğal dizinlemesine bırakılmasına karar verildi; neden hâlâ belirsiz
İlk durum
- Blog 4 Ekim’de açıldı ve ilk uzun güncel olaylar köşesi tarzı yazı yayımlandı
- Google Search Console’a (GSC) site haritası gönderilip dizinleme talebi yapıldıktan sonra ertesi gün hemen arama sonuçlarında görünmeye başladı
- Sonrasında her yeni yazı yayımlandığında dizinleme talebi tekrarlandı ve normal şekilde yansıdı
Sorunun ortaya çıkması
- 14 Ekim’de GSC’de bir URL’nin dizine eklenmediğini belirten mesaj görülünce “Validate” düğmesine tıklandı
- Bu URL, gerçek bir sayfa değil RSS beslemesiydi(
feed/?type=rss)
- 20 Ekim’de GSC’den “bazı düzeltmeler başarısız oldu” e-postası geldikten sonra tüm yazılar dizinden çıkarıldı
- Durum mesajı: “Page is not indexed: Crawled – currently not indexed”
- Site haritasını yeniden göndermek ve tekil URL’ler için dizinleme istemek de işe yaramadı
Nedenin izini sürme
- Dizin doğrulamasının başlatıldığı gün ile tüm gönderilerin dizin dışı kalmaya başladığı gün aynıydı
- RSS beslemesini doğrulama girişiminin sorunu tetikleyip tetiklemediği belirsiz
- Sonrasında yeni yayımlanan yazıların tamamı da aynı hata durumunda kaldı
- 3 Kasım’da dizinde kalan son gönderi de kaldırıldı
Olası nedenlerin kontrolü
- Alan adı sorunu: GoDaddy üzerinde kullanılan
james-zhan.com, başka bir alt alan adında normal biçimde dizinleniyordu → neden değil
- İçerik kalitesi: Diğer Bear Blog örnekleriyle karşılaştırıldığında içerik miktarı veya kalitesi açısından sorun yoktu → neden değil
- Yetersiz dahili bağlantı: Bear Blog’un varsayılan yapısı aynıydı ve diğer bloglar normal dizinleniyordu → neden değil
- Diğer etkenler: Bear Blog kurucusu Herman’ın kontrolüne göre
- DNS, HTML/CSS ve platform ayarlarının tümü normaldi
- Özel CSS kodu da dizinlemeyi etkilemiyordu
Diğer arama motorları ve alınan önlemler
- DuckDuckGo, Bing ve Brave gibi arama motorlarında blog normal şekilde dizinleniyordu
- Bu yüzden teknik bir kusurdan çok Google taraflı bir sorun olduğu düşünülüyor
- Blog yeni bir alt alan adına (
journal.james-zhan.com) taşındı
- Alan adı GoDaddy’den Porkbun’a aktarıldı
- URL yönlendirmesi ayarlanarak eski bağlantıların yeni bloga otomatik gitmesi sağlandı
- Yeni blog için GSC’ye site haritası gönderilmedi ve doğal dizinlemeye bırakıldı
- Neden hâlâ ortaya çıkarılamadı; yazar da Google’ın dizinleme sisteminin şeffaf olmamasını sorguluyor
1 yorum
Hacker News yorumları
h1olarak gösteriliyordu ve Google bunu spam içerik olarak algıladı.AI Overview benim kontrol edebileceğim bir şey değil ama arama sayfasına
noindexekleyince trafik bir hafta içinde toparlandıAyrıntıları blog yazımda derledim
/searchsayfası cache’lenip crawler’lara açılmış olabilir.Arama sayfaları cache’lenmemeli ve X-Robots-Tag ile noindex uygulanması iyi olur
Bundan sonra trafiği kendi analitik araçlarımızla takip etmek gerekecek gibi görünüyor
Artık insanlar sadece özetleri ve reklamları görüp çıkıyor
Acaba başka bir siteden o arama URL’sine link verildiği için mi crawl edildi?
Google özet cümlelerine kaynak linkleri koyarsa tıklama oranı biraz toparlanabilir
Bir site yaptırım aldığında nedenini öğrenmek de itiraz etmek de mümkün değil.
Google fiilen bir gatekeeper rolü oynuyor.
Kamusal bir altyapı gibi çalıştığı için buna uygun bir destek sistemi ve sorumluluk gerekli.
Regülasyon her derde deva değil ama bu ölçekte utility benzeri şirketler için en azından asgari bir erişim güvencesi yükümlülüğü olmalı
Şu anda aramada görünmek için reklam vermek gerekiyor
Sonuç olarak indekslenen sayfa sayısı binlerden 100’e düştü
Ekran görüntüsüne bakın.
6 ay geçmesine rağmen düzelmedi. Kişisel bir proje olduğu için sorun değil ama bir iş olsaydı çok öfkelenirdim
Güncellenmiş ekran görüntüsü
Bir süre faaliyet gösterince bazen “mevcut kullanım hakkı” olarak da kabul ediliyor.
Hatta mahkemede Google Maps ekran görüntülerinin delil olarak sunulduğunu gördüm
aslında bu bir dolandırıcı işletmeydi. Kilidi bozup 600 dolar istediler.
Bildirince Google hızlıca kaldırdı ama bence böyle şeylerde kayıt aşamasında gerçek kimlik doğrulaması gerekli
Sorun şu ki bazen gerçeklik haritaya göre değişebiliyor
İdari süreçlerde sık sık “itiraz gelmediyse sorun yoktur” yaklaşımı görülüyor
Sitem yinelenen içerik diye yanlış algılanıyor ve indeks dışına çıkarılıyor.
Bing’de sorun yok ama Google bu hatayı yapıyor
Reddit sayfalarıysa sadece alakasız bir dile çevrilmiş sürümleriyle görünüyor.
Muhtemelen deduplikasyon mantığı hatalı çalışıyor
Başka bir domain üzerinden reverse proxy kullanılırsa Google bunu yinelenen olarak indeksleyebiliyor.
Canonical etiketi ve mutlak yol linkleri kullanmak iyi olur
17 yıldır sorunsuz çalışan bir blogdu
Spam çok arttığı için yanlış pozitifler de artmış gibi görünüyor
Böyle bir yaklaşım ters etki yapıp meşru içerik oranını düşürür
Google’ın kimin hayatta kalacağına karar veren bir yapı olması açısından aynı
RSS hatası sadece ilgisizliği tetikleyen unsur olmuş olabilir
Google Maps buna gerçekten bu kadar hızlı yetişmiş olabilir mi?
Instagram ya da TikTok’un etkisi de göz ardı edilemezken,
bu biraz da Google’a fazla yetki atfeden bir yorum gibi duruyor
Sonunda bu bir tavuk mu yumurtadan, yumurta mı tavuktan sorununa dönüyor.
Küçük siteler görünürlük alamadığı için büyüyemiyor,
büyük sitelerse hiçbir sorun yaşamadan üst sıralarda kalmaya devam ediyor