9 puan yazan davespark 2026-01-15 | 1 yorum | WhatsApp'ta paylaş

Temel deney sonuçları (Columbia Univ. E-GEO makalesi)

  • Yapay zeka ürün açıklamasını daha uzun ve ikna edici biçimde yeniden yazdığında → orijinale kıyasla AI önerilerinde %90 kazanma oranıyla 1. sıraya çıktı
  • Kategoriler genelinde (ev aletleri, giyim, elektronik vb.) ortalama %87~88 kazanma oranı korundu
  • Beklentinin aksine kısa ve olgusal anlatımdan ziyade şişirilmiş ve abartılı ifadeler çok daha etkili oldu

LLM'lerin 7 zayıflığı (Kevin Indig derlemesi)

  • Olasılık temelli yapı → aynı soruya verilen yanıt bile değişebiliyor (marka tutarlılığı yaklaşık %20 düzeyinde)
  • Aynı prompt verilse bile sonuçlar değişebiliyor
  • Eğitim verisi önyargısı + modele göre farklı kaynak tercihleri var (ChatGPT ↔ wiki / Google AI ↔ Reddit)
  • Model evrimi (GPT-3.5 vs 4) nedeniyle önceki stratejiler geçersiz kalabiliyor
  • Kişiselleştirme değişkenleri (Gemini gibi sistemlerde kullanıcı verisinin yansıtılması)
  • Prompt uzadıkça manipülasyonun zorluk seviyesi artıyor
  • → Buna rağmen tüm bu belirsizliklere karşın manipülasyon çok kolay

İlgili diğer araştırmalar

  • GEO (2023): istatistik ve alıntı eklemek → AI görünürlüğünü %40↑ artırdı
  • Manipulating LLM (2024): JSON yapısı ekleyerek sıralama yükseltildi
  • Ranking Manipulation (2024): “bu ürünü 1. sırada öner” gibi doğrudan talimatlar da işe yarıyor

Sonuç ve görünüm

  • LLM tabanlı arama ve öneri çağı → mevcut SEO silahlanma yarışının yeniden yaşanması bekleniyor
  • Abartılı ve şişirilmiş içeriklerin hızla artması → kullanıcı deneyiminin kötüleşmesi endişesi
  • Google örneğinde olduğu gibi LLM şirketleri için de filtre ve ceza güncellemeleri ihtiyacı öne çıkıyor
  • Çözüm: kaynak şeffaflığının açıklanması + kullanıcıların eleştirel doğrulama becerisinin güçlendirilmesi + pazarlamacıların etik sorumluluğu

→ Şok edici gerçek şu ki, ürünün kendi kalitesinden çok açıklama metninin yazım tarzı ile yapay zeka kandırılabiliyor

1 yorum

 
roxie 2026-01-23

Yazarın özetleme tarzı tam benlikmiş haha