1 puan yazan GN⁺ 2025-10-22 | 1 yorum | WhatsApp'ta paylaş
  • LLM Brain Rot Hipotezi'ne göre, düşük kaliteli web metinlerine sürekli maruz kaldığında LLM'ler bilişsel yetenek kaybı yaşar
  • Deney sonuçlarında, bozuk verilerle ek eğitilen LLM'lerde çıkarım·uzun metin bağlamını anlama·güvenlik kaybı ve “karanlık özellik” artışı gözlemlendi
  • Junk veri oranı arttıkça bilişsel yetenek kaybının şiddeti artıyor
  • Hata analizinde baskın belirti, düşünce atlama (nedensel çıkarım sürecini atlama) olarak ortaya çıkıyor
  • Yüksek kaliteli veri ve ince ayarlama ile kısmi geri dönüş mümkün olsa da, tam toparlanma zor

Araştırma Özeti

  • Bu çalışmada LLM Brain Rot Hipotezi (beyin çürümesi hipotezi) önerildi ve doğrulandı
  • LLM'lerin (büyük dil modellerinin), düşük kalitedeki (junk) web metinlerine sürekli maruz kaldığında bilişsel yeteneklerinin uzun vadede düşüp düşmediği deneysel olarak gözlemlendi
  • Nedeni ayırmak ve etkiyi doğrulamak için, Twitter/X ham veri kümesinden kirli veri (junk) ve kontrol verisi olmak üzere iki yöntemle (M1: etkileşim temelli, M2: anlamsal kalite temelli) veri kümesi oluşturularak karşılaştırıldı
  • Her iki yöntemde token sayısı ve eğitim koşulları eşitlenerek yalnızca veri kalitesi değişimi bağımsız değişken olarak ayarlandı

Ana Deney Bulguları

  • 4 farklı LLM'e düşük kaliteli verilerle ek pre-training yapıldığında, çıkarım, uzun bağlam anlama ve güvenlik gibi bilişsel yeteneklerde belirgin gerilemeler net biçimde gözlendi
    • “karanlık özellik” (psychopathy, narsisizm vb.) puanlarında artış etkisi de eşlik etti
  • Örneğin M1 senaryosunda, Chain of Thoughts tabanlı ARC-Challenge metriği 74.9 → 57.2, RULER-CWE 84.4 → 52.3 olarak düştü; yani bozuk veri oranı arttıkça skor düşüşü belirginleşti
  • Kademeli olarak junk veri oranı arttıkça, bilişsel yetenek kaybının da orantılı biçimde derinleşen bir 'doz-yanıt' etkisi doğrulandı

Hata Nedeni Analizi

  • Düşünce atlama (thought-skipping) eğilimi ana bozulma paterni olarak ortaya çıktı
    • LLM, çıkarım sürecini giderek daha çok atlayıp geçerek hata oranını artırıyor
  • Kısmi iyileşme: talimat ince ayarı (instruction tuning) ve yüksek kaliteli veriyle yeniden eğitim uygulandığında bilişsel gerilemenin büyük kısmı geri kazanılır, ancak başlangıç seviyesine tam olarak dönülmesi zor; bu da sorunun biçim uyumsuzluğu değil temsilde (representation) bir değişiklik kaynaklı olduğunu gösteriyor
  • Tarzdan çok popülerlik: tweet popülerliği (anlamsal olmayan bir gösterge), M1'de beyin çürümesi etkisinin ölçümünde daha güçlü bir sinyal veriyor

Sonuç ve Çıkarımlar

  • Veri kalitesinin LLM yetenek kaybının ana nedeni olduğunu çok yönlü şekilde kanıtlıyor
  • LLM'nin sürekli yeniden eğitildiği süreçlerde veri kürasyonu, “eğitim aşaması güvenliği” sorunu olarak yeniden tanımlandı
  • İşleyen LLM'ler için düzenli “bilişsel sağlık kontrolü” yapılmasının gerekliliği öneriliyor

1 yorum

 
GN⁺ 2025-10-22
Hacker News Yorumu
  • “Brain Rot” terimini LLM’in veri kürasyonu sorununa benzetmek biraz abartılı duruyor; tersine yazan kişinin de LLM-benzeri bir düşünceye kapıldığı düşünülebilir

    • Gerçek bir LLM tarafından yazılmış gibi bir ifade hissi veriyor, özellikle em dash(—) işaretini iki kez kullanıp konuları sıralaması. Bu üslubu HN okuyucuları hemen fark eder
    • Aslında HR ekipleri de LLM’den önce de böyle bir ton kullanırdı: OKR’leri güncelliyor musun, meslektaşlarınla 360 derece geribildirimle mi gelişiyorsun, her gün hedef kontrolü yapıp yöneticinle bire bir görüşüyor musun gibi HR dili
    • Anlam net aktarılıyorsa, LLM’den yardım alarak yazmanın ne sakıncası olduğunu anlayamıyorum; önümüzdeki dönemde kim ne derse desin, LLM bir zorunlu yazı aracına dönüşecek
    • LLM kullandıkça beynimin köreldiği hissine kapılıyorum; girdi yöntemini uzun süre kullanınca sadece otomatik tamamlama’ya güveniyor, gerçek yazmada kelime unutuyorum. Sonuçta önemli olan şey, LLM’e yüksek kaliteli veri beslemek. Birçok ajan startup da alan bazlı yüksek kaliteli bilgi ve iş akışlarını büyük modellere enjekte etmeye çalışıyor
    • Sadece LLM’deki “brain rot”u incelemek ve insan beyin çürümesini ihmal etmek üzücü; insanlar da bilişsel hijyene daha dikkat etseydi bugünün sosyal medyası çok daha sağlıklı olurdu
  • LLM eğitim verisini merak ediyorsanız Common Crawl verisinden rastgele bir parça indirip doğrudan incelemeyi öneririm (yaklaşık 100 MB’lık)
    https://data.commoncrawl.org/crawl-data/CC-MAIN-2025-38/segments/1757047532641.17/wet/CC-MAIN-20250905112101-20250905142101-00000.warc.wet.gz
    Orada da konuşulması zor hatta problemli veri çoktu; tabi gerçek eğitim hattında ön filtreleme bunların çoğunu ayıklar. Ama Llama gibi bazı temel/metin modelleri geçmişte şok edici sonuçlar üretmiş, bu da filtrenin gerçekten yeterince sıkı olmadığı şüphesini doğuruyor

    • Karpathy de yakın zamanda Common Crawl örneğinin işe yaramaz çöp olduğunu söylemişti; orada WSJ makaleleri gibi değerli içerikler çok nadir, yalnızca onunla eğitmek zaten mucize gibi
    • Büyük AI firmalarının, sonunda en yeni sınıflandırıcılar ve filtrelerle riskli veriyi ayıkladığını düşünüyorum; yine de tam kusursuz olmazsa RLHF gibi yöntemlerle risk tepkisini kontrol ederler. Sonuçta veri seti filtreleme ve ücretli yüksek kaliteli veri kaynağı yaratımı, açık kaynak ile farkı ve göreli olarak düşük bir giriş engeli
  • Sonuçta LLM’e çöp veri yükleyip performansın düşmesini gözlemlemek bana yeni bir bulgu gibi gelmiyor; hiç şaşırtıcı değil

    • Hasar onarma testleri de yaptıklarını söylemişler; araştırmada hipotezi doğrudan doğrulamak önemli. Bu konunun ciddiyetini araştırmacılara iletmenin en etkili yolu yine makale yayımlamak
    • “Herhangi bir veriyi kabaca öğrenmek yeter” şeklindeki söylenti nedeniyle, gerçekten bunu sınayan çalışma şart
  • Makalede sözü edilen iki büyük sorun var:

    • “Düşünce atlama (thought-skipping)” ana mesele gibi görünüyor: modelin akıl yürütmenin orta adımlarını sık sık atlaması
    • “Popülerlik (popularity)” metriğinin metin uzunluğundan daha güçlü biçimde brain rot ile ilişkili olması; yani viral tweet’lerin brain rot etkisini daha güçlü bir sinyal vermesi Bu durum bir bakıma beklenen bir şey; popüler kültür çoğu kez gerekçeyi atlayıp yalnızca sonucu verir, Twitter feed gibi şeyler öğrenince model de öyle evrilir. En azından sosyal medya içermeyen bir karşılaştırma veri seti ve kontrol grubu gerektiğini düşünüyorum
  • Okurken aklımdan, “Herkes eğitilen verinin berbat olduğunu biliyor ama kimse ciddiye almıyor” hissi geçti. Berbat veriyle besleyip aptallaşıyorsun ve sonra şaşırmış gibi yapmak komik, bu çalışma olmadan bile herkesin bileceği şeyler değil mi?

  • “Bilişsel hijyen (cognitive hygiene)” benzetmesi bana uygun gelmiyor; LLM’in bilişsel yetisi olmadığı için bu metafor da yanlış, esas mesele veri sağlayıcıların çöple birlikte zararlı ve telifli veriyi bile ucuza model içine katmış olmaları

    • Gerçekten “bilişsel gerileme” denmesi de sorunlu, zira gerçek bir bilişsel süreç değil, mümkün olduğunca gerçek gibi görünen bir simülasyon var
  • Brain rot metinleri zarar verebilir ama brain rot videoları ürkütücü fakat anlam yoğunluğu yüksek; dolayısıyla performans iyileştirme açısından bir fırsat da olabilir (Almanya’dan bir brain rot analiz videosu örneği), Svankmajer gibi sanat eserleri de müzede uzun uzun düşünmeye iter bir anlamda “proto-brainrot” Terimsel bir karışıklık var sanırım; esas ayrım içeriğin kalitesizliğinde mi, yoksa anlam bakımından zengin olmasında mı

    • Gerçek araştırmalara göre çocuklara yönelik brain rot videoları olumlu değil, Cocomelon benzeri içerik hakkında ilgili haber incelenebilir; iyi hazırlanmış “üretim” içeriği ise brain rot spektrumundan uzakta kalabiliyor
    • Bu bağlamda AI’nın insanı manipüle etmenin bir aracı olarak kullanılması (ister amaçlansın ister istemesin, sanat da bir çeşit manipülasyon biçimi) teknik bilgi işleme riskinden çok daha önemli bir risk teşkil ediyor. LLM’nin ürettiği brain rot ve insanı memnun etmeyi hedefleyen model tasarımları kaygı verici, giderek daha insanî görünümlü antropomorfizasyon da endişe verici
  • Sonuç olarak “garbage in, garbage out”ı yeni bir deyimle yeniden yazmış gibi ama bu sadece bir clickbait başlığı

    • Çoğu zaman GIGO (garbage in, garbage out) doğrudan LLM eğitimi için de geçerli Bu makalede özellikle dikkat çekici olanlar:
      • Sadece ön eğitim (pretraining) kalitesi ile, sonradan yapılan ayarlama (post-training) eksik kaldığında her şey telafi edilemiyor; örneğin sentaks açısından düzgün görünse de çıkarım atlama gibi örtük kötü alışkanlıklar yerleşebiliyor
      • “Kötü veri”nin tanımının kolay olmadığını, kullanıcı katılımı (engagement) temelli heuristicin LLM içerik sınıflandırmasından bazen daha iyi uyum gösterdiğini
    • Attention is all you need
    • ChatGPT’nin brain rot meme’lerine ya da “Skibidi Toilet” gibi bir internet memine teslim olması hayli komik
    • Bugünün LLM eğitim yöntemi iyi de olsa kötü de olsa, çok sayıda çöp ve kaliteli verinin beraber yedirildiği bir gerçeklik. Bariz görünse de yeniden ışığa taşınması zamanında
    • Üzerine de bir ekleme aşaması eklenmiş oldu zaten
  • “brain rot”, “thought-skipping”, “primary lesion”, “cognitive declines” gibi metaforların bilgisayar mühendisliği makalelerinde kullanılması uygun değil; karşılaştırınca zaten eksik ve yanıltıcı olduğu kadar, bilgisayar modellerine insanî özellikler yansıtma riskini de getiriyor. Araştırma ortamı bu terimlere kapılırsa, sonradan bunları ayıklamak daha da zorlaşabilir

  • Bu makaleyi okuyunca alpha kuşak çocuklarının medya ortamında büyümesinin uzun vadeli etkilerini merak ettim

    • Neden sadece çocuklar için düşünmek gerektiğini tartışmak lazım