- ‘Sloppypasta’, gözden geçirilmemiş LLM (büyük dil modeli) çıktısının doğrudan kopyalanıp başkasına gönderilmesini ifade eder; alıcıya gereksiz doğrulama yükü yüklediği için nezaketsiz bir davranış olarak eleştiriliyor
- Bu tür mesajlar okuma ve doğrulama asimetrisi yaratır; gönderen birkaç saniyede mesajı yollarken alıcı uzun metni incelemek zorunda kalır ve emeğin karşı tarafa yüklenmesi durumu ortaya çıkar
- Güven sorunu da ciddidir; LLM’lerin halüsinasyonları (hallucination) ve aşırı özgüvenli tonu nedeniyle alıcı, tüm bilgileri varsayılan olarak güvensiz kabul etmek zorunda kalır
- Yazı, AI kullanımında temel nezaket kuralları olarak ‘Oku (Read) · Doğrula (Verify) · Damıt (Distill) · Açıkla (Disclose)’ ilkelerini sunuyor ve talep edilmemiş AI çıktılarının paylaşılmaması gerektiğini vurguluyor
- AI üretkenliği artırabilir, ancak bunun başkalarının zamanını ve güvenini ihlal etmeyen bir kullanım biçimiyle yapılması gerektiği özellikle belirtiliyor
Sloppypasta’nın tanımı ve sorunun çerçevesi
- Sloppypasta, ‘slop’ (düşük kaliteli AI içeriği) ile ‘copypasta’ (kopyala-yapıştır memi) sözcüklerinin birleşimidir ve okunmadan ve doğrulanmadan LLM çıktısının aynen iletilmesi anlamına gelir
- Bu, gönderenin yapması gereken inceleme ve özetleme çabasını alıcıya yükleyen asimetrik bir davranış olarak görülür
- Slack, Teams, e-posta gibi ortamlarda sık görülür ve AI’a özgü resmî üslup ile aşırı biçimlendirme sayesinde kolayca fark edilir
- Gönderen mesajı sadece birkaç saniyede yollar, ama alıcı içeriği doğrulama ve değerlendirme yükünü üstlenmek zorunda kalır
Sloppypasta türleri ve örnekleri
- The Eager Beaver: Sohbete katkı sağlama niyetiyle chatbot yanıtını olduğu gibi yapıştırmak
- İyi niyetli bir davranış olsa da, genel ve bağlamsız AI metni konuşmayı sekteye uğratır ve akışı keser
- The OrAIcle: Belirli bir soruya “ChatGPT says” diye başlayan bir yanıtı olduğu gibi iletmek
- Bu, geçmişteki LMGTFY (“Let Me Google That For You”) örneğinde olduğu gibi nezaketsiz bir yanıt olarak görülebilir
- Alıcı, içeriğin doğruluğunu, ilgililiğini ve kaynağını kendi başına değerlendirmek zorunda kalır
- The Ghostwriter: AI tarafından yazılan içeriği kendi yazısıymış gibi göstererek paylaşmak
- Alıcının buna güvenmesi için bir gerekçe yoktur; içerik yanlışsa bu durum gönderenin güvenilirliğini zedeler
Neden sorunlu?
- Emek dengesizliği: LLM’ler yazma maliyetini neredeyse sıfıra indirir, ancak alıcıdan okumak ve doğrulamak için hâlâ önemli ölçüde bilişsel çaba talep edilir
- Bunun sonucunda bilişsel borç (cognitive debt) birikir ve gönderen öğrenme ile anlama fırsatını kaçırır
- Güvenin çöküşü: LLM’lerin halüsinasyon üretmesi ve yanlış bilgi oluşturması, “güven ama doğrula” ilkesini geçersiz kılar
- Alıcı her mesajı varsayılan olarak güvensiz saymak zorunda kalır ve gönderenin güven sermayesi aşınır
- Uzmanlık sinyalinin kaybı: AI’ın kendinden emin tonu, gerçek uzmanlık ile sahte kesinliği ayırt etmeyi zorlaştırır ve güveni daha da zayıflatır
- Sorumluluğun belirsizliği: Hata olduğunda sorumluluğun AI’da mı yoksa kullanıcıda mı olduğu belirsizleşir
- Sonuç olarak Sloppypasta, öğrenme kaybına, güven erozyonuna ve iletişim yorgunluğuna yol açar
Aktarılan görüşler
- “Yazmak düşünme sürecidir; bunu LLM’e devretmek anlama ve hatırlamayı azaltır” — Anthropic araştırması
- “AI çıktısını okumadan paylaşmak kabalıktır” — Simon Willison
- “AI’ın yazdığı akıcı yanıtlar, içerik doğru olsa bile görmezden geliniyormuş hissi verebilir” — Blake Stockton
- “Eskiden yazı, insan düşüncesinin kanıtıydı; artık öyle değil” — Alex Martsinovich
Sloppypasta’dan kaçınmak için 6 ilke
- Read: Paylaşmadan önce mutlaka bizzat okuyup anlamak gerekir
- Okunmamış bir çıktı için doğruluk, ilgililik ve güncellik garanti edilemez
- Verify: Olgu doğrulaması yapılmalıdır
- Paylaşılan içerik, gönderenin örtük güven garantisi anlamına gelir; yanlış bilgi ise itibar kaybına yol açar
- Distill: Yalnızca özü özetleyerek iletmek gerekir
- LLM’ler token maliyet yapısı nedeniyle uzun ve geveze yanıtlar üretme eğilimindedir; bu yüzden özetleme sorumluluğu gönderene aittir
- Disclose: AI kullanıldığını açıkça belirtmek gerekir
- Hangi bölümlerin gözden geçirildiğini ve hangi prompt’un kullanıldığını paylaşmak, güven sinyalini yeniden kurmaya yardımcı olabilir
- Share only when requested: Talep edilmemiş AI çıktıları paylaşılmamalıdır
- Sloppypasta, alıcıya okuma · doğrulama · özetleme yükünü zorla yükler
- Share as a link: Uzun AI çıktıları bağlantı veya ek dosya olarak paylaşılmalıdır
- Böylece sohbet penceresini doldurup akışı bozmaz
Sonuç
- AI, üretkenliği artıran bir araç olarak faydalıdır; ancak başkalarının zamanını ve güvenini ihlal etmeyen bir kullanım biçimi şarttır
- Yeni teknolojiler yeni görgü kuralları (New manners) gerektirir ve
AI, düşünmenin yerine geçen bir şey değil, düşünmeyi hızlandıran bir araç olarak kullanılmalıdır
1 yorum
Hacker News görüşleri
“Klinik deney veri toplama pipeline'ı için ayrıntılı ürün spesifikasyonu yaz” isteminin çıktısı olduğu gibi Jira ticket'ına yapıştırılmıştı
İç tasarımla hiç uyuşmuyordu ve üstüne bir sürü gereksiz özellik eklenmişti
PM'e bunu söylediğimde, “sprint review sırasında konuşalım” diyerek işi geçiştirdi ve mühendislik ekibiyle ‘partnering’ yapmamız gerektiğini ima etti
Yakında AI görgü kuralları öğrenmemiz gereken bir döneme girecek gibiyiz
AI sayesinde üretkenlik arttı lafı kulağa gerçekten ironik geliyor
Sadece şirket işlerine sıçraması biraz zaman aldı
AI faydalı, ama karşındaki kişinin 10 saniyede ürettiği çıktıyı senin ciddiyetle ele almak zorunda kalman sinir bozucu
Şu an tam bir Vahşi Batı gibi, ama bir gün doğru kullanım kuralları mutlaka oturacaktır
Gerçekten komik
Bugün işi oraya vardırdım ki doğrudan yeni bir POC projesi oluşturmaya karar verdim
2 hafta boyunca code review, log kaydı ve örnek yazımı yaparak büyük kısmının çalışmadığını kanıtladım
Komik olan şu ki, yönetici Claude ile bir hafta içinde “çalışıyor” diye rapor vermişti
Ben ise 4 Jira task'ı, sayısız commit ve üç ayrı rapor yazmak zorunda kaldım
İnternet zaten hiçbir zaman yüksek kaliteli tartışmanın mekanı olmadı
İçerik tüketicileri olarak daha iyi filtreleme araçlarına ihtiyacımız var ve ironik şekilde bunu mümkün kılacak şey AI olabilir
İnsanların “kendi AI'larının” ürettiği içeriği sorun etmeyip, “başkasının AI'ını” görünce kandırılmış hissetmesi ilginç
Sonunda Dead Internet Theory'deki gibi AI'nin içerik üretip AI'nin onu tükettiği bir dünyaya gidebiliriz
Verimsiz gelse de internet zaten hiçbir zaman verimli bir alan olmadı
AI cevabı isteseydim gidip kendim sorardım
Bir insana sormamın nedeni insani bir tepki istememdir
Arada fast food yerim ama lüks bir restoranda önüme Big Mac gelirse sinirlenirim
Basit bir fikri uzun ve resmi cümlelere yayarak kulağa makul göstermeye çalışıyor
İnsanlar kendi düşüncelerini LLM'e verip çıkan sonuç kendileriyle uyuşunca bundan hoşlanıyor ama
başkası açısından bu sadece gereksiz bir uzun metin okuyarak vakit kaybetmek demek
Sadece bullet point halinde özetleseler yeter
O yüzden biri AI'nin yazdığı bir cevabı gönderince bu, LMGTFY linki yollamak kadar kaba hissettiriyor
Ben de AI'ye soru sormayı biliyorum; onun yerine bunu yollamanın hiçbir değeri yok
Sonunda üretici tüketiciye para ödemezse bu ekosistem çökecek
“Bizim AI”dan da hoşlanmayan çok kişi var; sadece bunu başkasının üstüne yıkmıyorlar
Bir ekibi yöneten biri olarak, bunu durmadan kullanan kişilerin elenmesi gerekenler olduğu netleşiyor
Sonuç olarak şirket AI çamuru fırlatan droneların pazarına dönüştü
Ben bir web tasarımcısı değilim, bu yüzden görsel olarak iyi görünen bir site yapmak için yardım aldım
Ama deneme yazısı ve yönergelerin tamamı insan tarafından yazıldı
Yine de AI kullanımının açıkça belirtilmiş olması iyiydi
AI Disclosure bağlantısı
Artık gündelik konuşmanın parçası gibi geliyor
Yalana kıyasla bullshit gerçeği çarpıtmaz ama konuşanın niyetini çarpıtır
Ayrıca Gish-gallop diye benzer bir kavram da var — çok sayıda yanlış iddia ve çürütmesi zahmetli noktayı peş peşe sıralayarak karşı tarafın zamanını boşa harcayan bir tartışma tekniği
Bir iş arkadaşına “doğrulanmamış AI çıktıları kullanmayı bırak” dersem gerilim olur mu diye endişeleniyorum
Ya gerçekten o kişinin kendi yazdığı bir şeyse, o zaman daha da kötü
Yeniden uzun uzun yazacaklar mı sanki?
Herkese açık kanal yerine yan konuşma şeklinde yaklaşmak etkili oldu
Ayrıca ekip düzeyinde bir AI kullanım politikası önermenin ve konuşmayı bunun üzerinden yapmanın da faydası var
Teknik liderlik bunu dayatmıyorsa, ekip değerlendirmesi şeklinde yaklaşmak daha doğru
Eskiden özenle yazılmış belgeleri zaten kimse okumazdı
Şimdi ise AI'nin yazdığı 3000 sayfalık belgeyi gönderince kimse okumadan onay veriyor
Kusursuz değil ama en azından eskiden toplantıda belgeyi benim yüksek sesle okumam gereken dönemden daha iyi
AI çağında bu rol işe yaramaz hale mi gelecek, yoksa sonunda hepimiz sadece reviewer olarak mı kalacağız, emin değilim