- Yapay zeka tarafından üretilen metinlerde tekrar tekrar görülen yazım kalıplarını (trope) kategorilere ayıran tek bir Markdown dosyası
- Bu dosya yapay zeka sistem istemine eklenirse, yaygın yapay zeka üslubundan kaçınmaya yardımcı olabilir
- Kelime seçimi, cümle yapısı, paragraf yapısı, ton, biçimlendirme, kompozisyon gibi 6 ana kategori altında 30'dan fazla somut kalıp, her biri örneklerle birlikte derlenmiş
- "delve", "tapestry", "landscape" gibi yapay zekaya özgü aşırı süslü kelimelerden, "It's not X -- it's Y" gibi sahte derinlik üreten cümle yapılarına kadar geniş bir yelpazeyi kapsıyor
- Her kalıp tek tük kullanıldığında sorun olmayabilir; ancak birden çok kalıp aynı anda ya da tekrar tekrar ortaya çıktığında, bunun yapay zeka üretimi bir metnin güçlü işareti haline geldiği belirtiliyor
- Bu dosyanın kendisi de yapay zeka desteğiyle yazılmış ve "AI for AI, humans for humans" şeklinde bir feragat notu içeriyor
Kelime Seçimi (Word Choice)
- "Quietly" ve büyülü zarflar: "quietly", "deeply", "fundamentally", "remarkably", "arguably" gibi zarfların aşırı kullanımıyla sıradan betimlemelere ince bir önem duygusu yükleyen kalıp
- Örnek: "quietly orchestrating workflows", "a quiet intelligence behind it"
- "Delve" ve benzerleri: Bir dönem yapay zekanın en meşhur işaretlerinden biri olan bu kelime, yapay zeka üretimi metinlerde alışılmadık derecede sık geçiyor
- "certainly", "utilize", "leverage" (fiil), "robust", "streamline", "harness" da aynı ailede
- "Tapestry" ve "Landscape": Basit kelimelerin yeterli olduğu yerlerde gösterişli isimler kullanma kalıbı
- "tapestry" birbiriyle bağlantılı her şey için, "landscape" ise her alan ya da etki alanı için aşırı kullanılıyor
- "paradigm", "synergy", "ecosystem", "framework" de aynı türden
- "Serves As" kaçınması: Basit "is/are" yerine "serves as", "stands as", "marks", "represents" gibi abartılı bağlayıcı ifadeler kullanılması
- Bunun nedeni, yapay zekanın tekrar cezasının temel ek-fiil yapıları yerine daha süslü kalıplara yöneltmesi
Cümle Yapısı (Sentence Structure)
- Olumsuz paralel kurgu (Negative Parallelism): "It's not X -- it's Y" kalıbı, yapay zeka yazımında en sık ayırt edilen işaretlerden biri
- Her şeyi şaşırtıcı bir yeniden çerçeveleme gibi sunarak sahte bir derinlik üretir
- LLM'lerden önce bu tarz kitlesel yazım yoktu
- "not because X, but because Y" biçimindeki nedensel varyant da buna dahil
- "Not X. Not Y. Just Z.": İki ya da daha fazla şeyi reddedip ardından asıl noktayı açıklayan dramatik geri sayım kalıbı
- Gerçeği adım adım daraltıyormuş hissi veren sahte bir etki yaratır
- "The X? A Y.": Kimsenin sormadığı soruyu kendi sorup hemen cevaplayan retorik soru-anında cevap kalıbı
- Dramatik etki için kullanılır ve yapay zeka bunu iyi yazının özü sanır
- Tekrarlanan girişlerin (anaphora) aşırı kullanımı: Aynı cümle başlangıcını art arda hızla tekrar etmek
- Örnek: "They assume that... They assume that... They assume that..."
- Üçlü yapıların (tricolon) aşırı kullanımı: Üçler kuralını gereğinden fazla kullanmak; hatta bunu dörde ya da beşe uzatmak
- Tek bir üçlü yapı zarif olabilir ama art arda üç tane gelmesi, kalıp tanımanın bozulduğunu gösterir
- "It's Worth Noting": Aslında hiçbir sinyal taşımayan bir dolgu geçiş ifadesi
- "It bears mentioning", "Importantly", "Interestingly", "Notably" de aynı türden
- Yeni bir noktayı, önceki argümana gerçek bir bağ kurmadan tanıtır
- Yüzeysel analizler (Superficial Analyses): Cümlenin sonuna "-ing" yapısı ekleyerek sığ bir analiz enjekte etme
- "highlighting its importance", "reflecting broader trends", "contributing to the development of..." gibi ifadeler
- Sıradan bir olguya önem, miras ya da geniş kapsamlı anlam yükler
- Sahte aralıklar (False Ranges): "from X to Y" yapısında X ile Y'nin gerçekte aynı ölçek üzerinde olmaması
- Meşru kullanımda anlamlı ara noktaları olan bir spektrumu ima ederken, yapay zeka bunu gevşek biçimde ilişkili iki şeyi sıralamak için kullanır
- Gerund parçacıklar litanisi (Gerund Fragment Litany): Bir iddiadan sonra öznesiz gerund parçalarını art arda sıralamak
- "Fixing small bugs. Writing straightforward features. Implementing well-defined tickets."
- İlk cümle zaten her şeyi söylemiştir; parçacıklar ise sadece kelime sayısı ve yapay zekaya özgü ritim ekler
- İnsanlar taslaklarını böyle yazmaz; bu tamamen yapısal bir tiktir
Paragraf Yapısı (Paragraph Structure)
- Kısa, vurucu parçalar (Short Punchy Fragments): Çok kısa cümleleri ya da cümle parçalarını bağımsız paragraf yaparak yapay vurgu üretmek
- RLHF eğitiminin modelleri en düşük seviye okura göre "okunabilirlik için yazma" yönüne itmesinin sonucu
- Her cümlede tek fikir, zihinsel durum takibi gerektirmeyen insan dışı bir tarz
- Kılık değiştirmiş listicle (Listicle in a Trench Coat): Numaralı ya da etiketli maddeleri kesintisiz düzyazı gibi gizlemek
- "The first... The second... The third..." diye başlayan paragraflarla liste biçimini saklama kalıbı
- Genellikle liste üretmeyi bırakması söylenen modelin alternatif çözümü olarak ortaya çıkar
Ton (Tone)
- "Here's the Kicker": Bir ifşa vaat edip aslında o hazırlığı gerektirmeyen bir noktayı veren sahte gerilim geçişi
- "Here's the thing", "Here's where it gets interesting", "Here's what most people miss" de aynı türden
- "Think of It As...": Okurun her şeyi anlamak için mutlaka benzetmeye ihtiyaç duyduğunu varsayan varsayılan öğretmen modu
- Yapay zeka, asıl kavramdan daha az açık benzetmeler üretmeye sıkça meyillidir
- "Imagine a World Where...": Yapay zekanın tipik gelecekçi daveti; "Imagine" sonrasında, öncüle katılırsanız olacak güzel şeylerin listesi gelir
- Sahte kırılganlık (False Vulnerability): Dördüncü duvarı yıkıyor ya da önyargısını kabul ediyor gibi yapan performans amaçlı öz-farkındalık
- Gerçek kırılganlık somut ve rahatsız edicidir; yapay zekanın kırılganlığı ise cilalıdır ve risksizdir
- "The Truth Is Simple": Bir şeyi gerçekten kanıtlamak yerine açık ya da basit olduğunu iddia eden kalıp
- Abartılı önem şişirmesi (Grandiose Stakes Inflation): Her tartışmanın ölçeğini dünya tarihini ilgilendiriyormuş gibi büyütmek
- API fiyatlandırması hakkında bir blog yazısının medeniyetin kaderi üzerine bir düşünceye dönüşmesi gibi
- "Let's Break This Down": Uzman okurda bile öğretmen-öğrenci ilişkisini varsayılan hale getiren didaktik ses
- "Let's unpack this", "Let's explore", "Let's dive in" de aynı türden
- Belirsiz atıflar (Vague Attributions): Somut kaynak olmadan iddiaları "experts", "observers", "industry reports" gibi isimsiz otoritelere bağlamak
- Tek bir kişinin sözünü yaygın kanaat gibi, iki kaynağı da "several publications" diye büyütmek de buna dahil
- Uydurulmuş kavram etiketleri (Invented Concept Labels): Soyut sorun isimlerini (paradox, trap, creep, divide, vacuum, inversion) alan terimleriyle birleştirip analitik gibi duran ama temelsiz bileşik etiketler üretmek
- "supervision paradox", "acceleration trap", "workload creep" gibi
- Ad verip argümanı atlayan retorik bir kısaltma işlevi görür; aynı yazıda birkaç tane birden geçmesi AI slop için güçlü bir işarettir
Biçimlendirme (Formatting)
- Em dash bağımlılığı (Em-Dash Addiction): Dramatik duraklama, ara cümle ya da dönüm noktalarında em dash'i takıntılı biçimde aşırı kullanmak
- İnsan yazarlar bir metinde doğal olarak 2-3 tane kullanırken, yapay zeka 20'den fazlasını kullanabilir
- Kalın-başlayan maddeler (Bold-First Bullets): Her madde işaretinin kalın bir ifadeyle başlaması
- Claude ve ChatGPT'nin Markdown çıktılarında çok yaygındır; elle yazımda ise neredeyse kimse böyle biçimlendirmez
- Yapay zeka üretimi dokümanlar, blog yazıları ve README dosyaları için (özellikle emoji de varsa) güçlü bir işarettir
- Unicode süslemesi (Unicode Decoration): Unicode okları (→), akıllı/kıvrımlı tırnak işaretleri gibi standart klavyede kolayca yazılamayan özel karakterler kullanmak
- Gerçek yazarlar metin düzenleyicide düz tırnak ve ->, => kullanır
- Özellikle Claude, → okunu seviyor
Kompozisyon (Composition)
- Fraktal özetler (Fractal Summaries): "az sonra söyleyeceğin şey, şu anda söylediğin şey, az önce söylediğin şey" düzenini belgenin her seviyesinde uygulamak
- Her alt bölümün, bölümün ve belgenin kendisinin ayrı ayrı özeti olur
- Ölü metafor (The Dead Metaphor): Tek bir metafora takılıp onu yazının tamamında tekrar tekrar kullanmak
- İnsan yazar metaforu tanıtır, kullanır ve sonra ilerler; yapay zeka ise bunu 5-10 kez tekrar eder
- Tarihsel analoji yığılması (Historical Analogy Stacking): Özellikle teknik yazılarda görülen; tarihsel şirketleri ya da teknoloji devrimlerini hızla arka arkaya dizerek sahte otorite kurma çabası
- "Apple didn't build Uber. Facebook didn't build Spotify..." türü kalıplar
- Tek noktanın sulandırılması (One-Point Dilution): Tek bir fikri binlerce kelime boyunca 10 farklı biçimde yeniden ifade etmek
- Aynı fikri farklı benzetmeler, örnekler ve çerçevelerle tekrar ederek "kapsamlı" görünmek için metni şişirmek
- İçerik kopyalama (Content Duplication): Aynı yazı içinde tüm bölümleri ya da paragrafları aynen tekrar etmek
- Model, zaten yazdığı şeyi takip edemediğinde; özellikle uzun metinlerde ortaya çıkar
- Düzenlenmemiş yapay zeka çıktısının kesin bir işaretidir ama son dönemde daha az görülür
- İşaretlenmiş sonuç (The Signposted Conclusion): "In conclusion", "To sum up", "In summary" gibi ifadelerle sonucu açıkça ilan etmek
- İyi yazı, sonucu okura hissettirir; ayrıca söylemeye gerek duymaz
- Yapay zeka şablon izlediği için yapısal hareketleri sinyalleme eğilimindedir
- "Despite Its Challenges...": Sorunları kabul eder gibi yapıp hemen ardından etkisizleştiren katı bir formül
- "Despite its [olumlu kelime], [özne] faces challenges..." ardından her zaman "Despite these challenges, [iyimser sonuç]" vuruşuyla devam eder
Temel ilkeler
- Yukarıdaki kalıplar tek başına bir kez kullanıldığında sorun olmayabilir; sorun, birkaçının birlikte görünmesi ya da aynı kalıbın tekrar etmesidir
- İnsan gibi yazın: çeşitli, kusurlu ve somut
7 yorum
"Bu yazıda yazar, yapay zekanın ürettiği metni inceleyerek 'AI slop'un 6 temel işaretini ve bunların ardında gizlenen yapıyı açığa çıkarıyor. Bu, basit bir kelime listesi değil. "delve" ya da "tapestry" gibi aşırı kullanılan sözcüklerden, sahte bir derinlik yaratan cümle kalıplarına kadar, neden insan gibi yazmadığını ele alıyor. Odak noktası ise daha çeşitli ve kusurlu bir yazma biçimini yeniden kazanmak."
NamuWiki'de de bununla ilgili bir madde varmış haha
https://namu.wiki/w/…tam can alıcı noktaya değindin.
LaTeX ile yüksek lisans tezi yazdığım dönemde em dash(
---) ile en dash(--) arasındaki farkı ilk öğrendiğimden beri, neredeyse tüm İngilizce yazılarımda bunları sık sık kullandım. (Espanso ile kısayol atayıp kullanıyorum)Şimdiye kadar hiç "Yazıyı yapay zekayla mı yazdın?" gibi bir yorum almadım ama yine de benim çok sevdiğim bu noktalama işaretinin bir yapay zeka göstergesi olarak kullanılması tuhaf hissettiriyor.
Bununla ilgili okunabilecek bir yazı: https://marcusolang.substack.com/p/im-kenyan-i-dont-write-like-chatgpt
Bakınca bunun GeekNews'te gördüğüm yazı olduğunu fark ettim: 나는 케냐인이다. 나는 ChatGPT처럼 쓰지 않는다. ChatGPT가 나처럼 쓴다
Vay... gerçekten, **tam yerine vurdun.**Oh, Türkçe versiyonu da çıkarsa harika olur.
Hacker News görüşleri
Bir yazıyı ciddi ciddi paylaşmak istiyorsanız, bu tür prompt kullanımlarından kaçınmalısınız
LLM ile blog yazıları yazmayı denedim; ilk başta fena görünmüyor ama birkaç kez tekrarlayınca bütün yazılar aynı ses tonuyla yazılmış gibi geliyor
Aynı üslup başka bloglarda, haberlerde ve whitepaper'larda da tekrar ediyor
Okurlar sadece metnin içeriğini değil, yazarın kendine özgü sesini de duymak istiyor
İlgili yazı: Why We Hate LLM Articles
Yapay zeka yazılarının zayıf kalmasının nedeni bir ‘sese’ sahip olmamaları
İnsan yazar kendi deneyiminden çıkan bir bakış açısı sunar, ama AI’nın herhangi bir şeyi ‘söyleme’ niyeti yoktur
Ayrıca derin bir tutarlılığı da koruyamıyor. Muhtemelen insana özgü hedefler, hafıza ve benlik duygusu olmamasından kaynaklanıyor
Bu tür girişimler rahatsız edici geliyor
AI tarafından yazılmış cümleleri kurnazca gizlemeye çalışmak yerine, keşke insanların zamanını boşa harcamasa
Eğer AI ile yazmak utanç verici değilse bunu saklamaya gerek yok; utanç vericiyse de bırakmak gerekir
Zehirli bir kuyuya itiraz edildi diye daha sinsi bir zehir kullanmak doğru değil
LLM’lerin yazı stilini inceliyorum; bu başlıktaki ifadeler arasında “tapestry” ilgimi çekti
GPT-4o’nun “camaraderie”den sonra en sık kullandığı kelimeydi
Temel modelde bu tuhaf stil daha az görülüyor, ama instruction tuning sonrasında ortaya çıkıyor
İnsan değerlendiricilere üslup değerlendirmesi yaptırılıp yaptırılmadığını ya da bir rubrik kullanılıp kullanılmadığını merak ediyorum
İlgili makale: PNAS makalesi, arXiv ön baskısı
Kenya ve Nijerya’dan araştırmalara bakıldığında, optimizasyon hedefi perplexity olduğu için ön-eğitimli model en ‘öngörülebilir’ çıktıyı yansıtıyor
Buna “Hydrogen Jukeboxes” adlı yazı da dahil
Stil değişimi Gwern Branwen’in mode collapse analizi içinde de ele alınıyor
DeepSeek R1 Zero gibi insan tercihi etkisinin neredeyse hiç olmadığı modeller bile sonunda kararlı kalıplara yakınsıyor
Bu olgu nesilden nesile tekrarlanıyor ve web önceki nesil modellerin çıktılarıyla kirlenince bir kısır döngü oluşuyor
Örneğin “camaraderie” kelimesinin tokenization biçimi ya da İngilizcede emojilerin tek gerçek ideogram türü olması nedeniyle ağırlık kazanması ilginç
Bu tür listelerin zaman geçtikçe uzama riski var
Çünkü AI durmadan yeni klişeler üretiyor
Bu dosya bana LLM’den çok ben kullanıcı için hazırlanmış bir belge gibi geldi
“AI’ye bu dosyayı system prompt olarak ekleyin” demek, sonuçta AI’nın AI’ya talimat vermesi gibi oluyor
Açıklamalarla talimatlar birbirine karıştığı için kafa karıştırıcı. “Yapma” demek, o kelimeleri daha sık kullanmasına yol açan bir ters etki yaratıyor
Kullanıcıya yönelik açıklamalarla AI’ya yönelik talimatlar ayrılmalı
Ben de Claude’dan bunu yeniden yazmasını istedim ve bu gist içinde düzenledim
LLM’e bu adlardan kaçınmasını söylemek yerine, iyi cümlelerin olumlu biçimini anlatmak daha etkili
Claude’un yeniden yazdığı sürüm burada
“Yapma” dendiğinde tam tersine onu daha çok yapmaya yönelten bir Streisand etkisi var
Belirli bir yazarın üslubunda yazdırmak daha doğal ve daha az genel duruyor
Sonrasında bir ‘editör ajan’ kullanıp klişeleri temizletmek çok daha iyi sonuç veriyor
Gemini ile tarih üzerine araştırma yapmayı denedim ama teknoloji metaforlarını bırakmadı
Derebeylerini CEO’ya, papayı influencer’a, feodal isyanları da iş görüşmesine benzetmesi neredeyse komikti
Ayarlarda ek talimat girebiliyorsunuz ama ben teknoloji stack’imi yazınca her cevabın sonuna “JVM ve v8 bunu halleder” cümlesini eklemeye başladı
Sonra bunu görmezden gelmesini söyledim; bu kez de alaycı bir tonla “Sizin yüksek lisans beyninizle…” diye başlayan bir paragraf ekledi
Claude ve ChatGPT son zamanlarda “genuine”, “real”, “honest” gibi kelimeleri çok kullanıyor
“no <thing you told me not to do>” gibi ifadeler de sık çıkıyor. Sanki prompt’a uyduğunu kontrol ediyor gibi
Wikipedia’da da ilgili bir sayfa var: Signs of AI Writing
Ama okuyunca insan kendi yazı alışkanlıklarını da fark edip utanabiliyor
Özellikle “from X to Y” gibi sahte aralık ifadelerini sık kullanıyorum
Ayrıca LLM’ler başlık ve alt başlıkları iki nokta üst üste ile ayırma alışkanlığından asla vazgeçemiyor
İnsan eliyle yazılmış faydalı bir kaynak olarak Wikipedia: Signs of AI Writing öneriliyor