- LLM Brain Rot Hipotezi'ne göre, düşük kaliteli web metinlerine sürekli maruz kaldığında LLM'ler bilişsel yetenek kaybı yaşar
- Deney sonuçlarında, bozuk verilerle ek eğitilen LLM'lerde çıkarım·uzun metin bağlamını anlama·güvenlik kaybı ve “karanlık özellik” artışı gözlemlendi
- Junk veri oranı arttıkça bilişsel yetenek kaybının şiddeti artıyor
- Hata analizinde baskın belirti, düşünce atlama (nedensel çıkarım sürecini atlama) olarak ortaya çıkıyor
- Yüksek kaliteli veri ve ince ayarlama ile kısmi geri dönüş mümkün olsa da, tam toparlanma zor
Araştırma Özeti
- Bu çalışmada LLM Brain Rot Hipotezi (beyin çürümesi hipotezi) önerildi ve doğrulandı
- LLM'lerin (büyük dil modellerinin), düşük kalitedeki (junk) web metinlerine sürekli maruz kaldığında bilişsel yeteneklerinin uzun vadede düşüp düşmediği deneysel olarak gözlemlendi
- Nedeni ayırmak ve etkiyi doğrulamak için, Twitter/X ham veri kümesinden kirli veri (junk) ve kontrol verisi olmak üzere iki yöntemle (M1: etkileşim temelli, M2: anlamsal kalite temelli) veri kümesi oluşturularak karşılaştırıldı
- Her iki yöntemde token sayısı ve eğitim koşulları eşitlenerek yalnızca veri kalitesi değişimi bağımsız değişken olarak ayarlandı
Ana Deney Bulguları
- 4 farklı LLM'e düşük kaliteli verilerle ek pre-training yapıldığında, çıkarım, uzun bağlam anlama ve güvenlik gibi bilişsel yeteneklerde belirgin gerilemeler net biçimde gözlendi
- “karanlık özellik” (psychopathy, narsisizm vb.) puanlarında artış etkisi de eşlik etti
- Örneğin M1 senaryosunda, Chain of Thoughts tabanlı ARC-Challenge metriği 74.9 → 57.2, RULER-CWE 84.4 → 52.3 olarak düştü; yani bozuk veri oranı arttıkça skor düşüşü belirginleşti
- Kademeli olarak junk veri oranı arttıkça, bilişsel yetenek kaybının da orantılı biçimde derinleşen bir 'doz-yanıt' etkisi doğrulandı
Hata Nedeni Analizi
- Düşünce atlama (thought-skipping) eğilimi ana bozulma paterni olarak ortaya çıktı
- LLM, çıkarım sürecini giderek daha çok atlayıp geçerek hata oranını artırıyor
- Kısmi iyileşme: talimat ince ayarı (instruction tuning) ve yüksek kaliteli veriyle yeniden eğitim uygulandığında bilişsel gerilemenin büyük kısmı geri kazanılır, ancak başlangıç seviyesine tam olarak dönülmesi zor; bu da sorunun biçim uyumsuzluğu değil temsilde (representation) bir değişiklik kaynaklı olduğunu gösteriyor
- Tarzdan çok popülerlik: tweet popülerliği (anlamsal olmayan bir gösterge), M1'de beyin çürümesi etkisinin ölçümünde daha güçlü bir sinyal veriyor
Sonuç ve Çıkarımlar
- Veri kalitesinin LLM yetenek kaybının ana nedeni olduğunu çok yönlü şekilde kanıtlıyor
- LLM'nin sürekli yeniden eğitildiği süreçlerde veri kürasyonu, “eğitim aşaması güvenliği” sorunu olarak yeniden tanımlandı
- İşleyen LLM'ler için düzenli “bilişsel sağlık kontrolü” yapılmasının gerekliliği öneriliyor
1 yorum
Hacker News Yorumu
“Brain Rot” terimini LLM’in veri kürasyonu sorununa benzetmek biraz abartılı duruyor; tersine yazan kişinin de LLM-benzeri bir düşünceye kapıldığı düşünülebilir
LLM eğitim verisini merak ediyorsanız Common Crawl verisinden rastgele bir parça indirip doğrudan incelemeyi öneririm (yaklaşık 100 MB’lık)
https://data.commoncrawl.org/crawl-data/CC-MAIN-2025-38/segments/1757047532641.17/wet/CC-MAIN-20250905112101-20250905142101-00000.warc.wet.gz
Orada da konuşulması zor hatta problemli veri çoktu; tabi gerçek eğitim hattında ön filtreleme bunların çoğunu ayıklar. Ama Llama gibi bazı temel/metin modelleri geçmişte şok edici sonuçlar üretmiş, bu da filtrenin gerçekten yeterince sıkı olmadığı şüphesini doğuruyor
Sonuçta LLM’e çöp veri yükleyip performansın düşmesini gözlemlemek bana yeni bir bulgu gibi gelmiyor; hiç şaşırtıcı değil
Makalede sözü edilen iki büyük sorun var:
Okurken aklımdan, “Herkes eğitilen verinin berbat olduğunu biliyor ama kimse ciddiye almıyor” hissi geçti. Berbat veriyle besleyip aptallaşıyorsun ve sonra şaşırmış gibi yapmak komik, bu çalışma olmadan bile herkesin bileceği şeyler değil mi?
“Bilişsel hijyen (cognitive hygiene)” benzetmesi bana uygun gelmiyor; LLM’in bilişsel yetisi olmadığı için bu metafor da yanlış, esas mesele veri sağlayıcıların çöple birlikte zararlı ve telifli veriyi bile ucuza model içine katmış olmaları
Brain rot metinleri zarar verebilir ama brain rot videoları ürkütücü fakat anlam yoğunluğu yüksek; dolayısıyla performans iyileştirme açısından bir fırsat da olabilir (Almanya’dan bir brain rot analiz videosu örneği), Svankmajer gibi sanat eserleri de müzede uzun uzun düşünmeye iter bir anlamda “proto-brainrot” Terimsel bir karışıklık var sanırım; esas ayrım içeriğin kalitesizliğinde mi, yoksa anlam bakımından zengin olmasında mı
Sonuç olarak “garbage in, garbage out”ı yeni bir deyimle yeniden yazmış gibi ama bu sadece bir clickbait başlığı
“brain rot”, “thought-skipping”, “primary lesion”, “cognitive declines” gibi metaforların bilgisayar mühendisliği makalelerinde kullanılması uygun değil; karşılaştırınca zaten eksik ve yanıltıcı olduğu kadar, bilgisayar modellerine insanî özellikler yansıtma riskini de getiriyor. Araştırma ortamı bu terimlere kapılırsa, sonradan bunları ayıklamak daha da zorlaşabilir
Bu makaleyi okuyunca alpha kuşak çocuklarının medya ortamında büyümesinin uzun vadeli etkilerini merak ettim