16 puan yazan GN⁺ 8 일 전 | 5 yorum | WhatsApp'ta paylaş
  • İnternet, yapay zekâ tarafından üretilen düşük kaliteli içerikle (slop) dolup taşarken, insanların yapay zekâya aktif biçimde direndiği çeşitli hareketler yayılıyor
  • Reddit topluluğu r/PoisonFountain, AI crawler'lara günde 1 terabayt kirletilmiş veri sağlamayı 2026 sonuna kadar hedefleyen bir faaliyet yürütüyor
  • AI video özetleyicilerini kandırma teknikleri veya sosyal medyada kasıtlı olarak yanlış veri ekleme gibi çeşitli direnç biçimleri ortaya çıkıyor
  • AI crawler'larının robots.txt dosyasını yok sayıp küçük ölçekli web sitelerinde DDoS seviyesinde yük oluşturması, bu direncin arka planını oluşturuyor
  • Bu duygunun barışçıl ve yasal direniş eylemlerine dönüşmesi halinde, Silikon Vadisi'nin veri toplama yöntemlerini değiştirebileceğine dair bir beklenti var

AI crawler'larına yönelik veri kirletme topluluğu

  • Reddit topluluğu r/PoisonFountain, kendilerini AI sektörünün içinden kişiler olarak tanıtanların kurduğu bir topluluk; mümkün olduğunca çok insanı web crawler'larına büyük miktarda çöp veri (poison) sağlamaya teşvik ediyor
  • Hedef, 2026 sonuna kadar crawler'lara günde 1 terabayt kirletilmiş veri sağlamak
  • Kirletilmiş verinin ana gövdesi rnsaffn.com üzerinde barındırılıyor ve AI crawler'larını cezbedebilecek çöp bağlantıların arasına yerleştiriliyor
    • İlk bakışta normal kod gibi görünse de, gerçekte ince hatalar içeriyor ve kullanılamaz kod üretilmesine yol açıyor
    • Bu hataları filtrelemek mümkün olsa da büyük ölçekte maliyetli
  • AI şirketleri, insanlar tarafından üretilmiş yeni veri olmadan modellerini iyileştiremediği için, veri hırsızlığının zaman ve maliyetini artırmak temel strateji olarak görülüyor
  • Miasma, bu kirletilmiş veriyi kullanarak kötü niyetli botlara büyük miktarda çöp sunan bir araç; geliştiricisi bunu "slop makineleri için sonsuz bir slop büfesi" olarak tanımlıyor

AI crawler'larının sorunlu davranışları

AI video özetleyicilerini kirletme girişimi

  • r/PoisonFountain üzerinden bilinen bir videoda, @f4mi adlı bir içerik üreticisi YouTube altyazı açığından yararlanarak AI video özetleyicilerini kirletme tekniğini gösteriyor
  • Şu anda YouTube ilgili altyazı açığını kapattığı için bu teknik artık çalışmıyor
  • Geçici olsa da AI sistemlerini bozmayı başaran bir örnek olarak, insanların aktif biçimde direnmeye çalıştığını gösteriyor

Sosyal medyada kasıtlı AI sabotajı

  • Reddit gibi sosyal medya platformlarında kasıtlı olarak yanlış bilgi yazarak AI eğitim verisini kirletme eylemleri artıyor
  • Örneğin, "Everybody Loves Raymond" dizisinde Idris Elba'nın Raymond'un annesini canlandırdığı yönünde açıkça yanlış bilgiler paylaşan örnekler var
    • İnsanlar bunun bağlam gereği yanlış olduğunu hemen anlayabilirken, otomatik web scraper'ları bunu yüksek kaliteli, insan üretimi veri olarak algılıyor
    • Bu veri OpenAI gibi şirketlere ulaştığında, eğitim veri kümesinden bunu ayıklamak için ek kaynak harcanması gerekiyor
  • Bu, Sanayi Devrimi döneminde dokuma işçilerinin mekanik tezgâhları parçalamasının modern bir varyantı olarak görülebilir; yeterince çok insan kamusal alanı botlara yönelik yanlış bilgilerle kirletirse, AI şirketleri eğitim verisi toplama yöntemlerini yeniden düşünmeye zorlanabilir

Yapay zekâya yönelik yaygın tepki

  • İnsanlar, AI'nin dünya üzerindeki etkilerine karşı tepki duyuyor; özellikle çevrimiçi topluluklar, çevre, ilkokullar ve üniversiteler, ruh sağlığı açısından risk altındaki gruplar ve geçim kaynakları üzerindeki etkileri konusunda
  • AI slop tüketen ve üreten insanlar var, ancak hem çevrimiçi hem çevrimdışı olarak bu teknolojiden nefret eden ve onu reddeden çok daha fazla insan bulunuyor
  • Nefret duygusu nadiren iyi sonuçlar verir; AI teslimat robotlarını tekmeleme veya devirmeye ya da Sam Altman'ın evine molotof kokteyli atılması gibi şiddet içeren eylemlere karşı bir tutum var
  • Ancak AI'ye yönelik bu duygular barışçıl ve yasal direniş eylemlerine dönüşürse, Silikon Vadisi'nin davranış biçimini gerçekten değiştirme ihtimali olabilir

Sonradan eklenen not: Hacker News'te viral olduktan sonra metnin güncellenmesi

  • Bu yazı büyük bir haber merkezi olan Hacker News'ün ana sayfasına çıkınca beklenmedik ölçekte trafik aldı
  • Az sayıdaki IP adresinden ilgili sayfaya binlerce istek gönderen kötü niyetli bir sunucu aşırı yükleme saldırısı yaşandı
    • Ucuz paylaşımlı barındırma kullanılıyor olsaydı site büyük olasılıkla tamamen çökerdi; buna karşılık ilgili URL'ye gelen trafik geçici olarak engellendi
  • AI uzmanı olmamasına rağmen bazı yorumcular uzman düzeyinde doğruluk talep ederek aşırı sert eleştiriler yöneltti
    • Bir yorumda "kütüphane yakan bir güruhtan farkı yok" ifadesi kullanıldı; kütüphaneleri ve bilginin paylaşılmasını seven blog yazarı için bu özellikle hayal kırıklığı yaratan bir tepkiydi
  • Asıl amaç, küçük blog takipçileri için yapay zekâ karşıtı eğilimlere dair bağlantılar paylaşmaktı; bu kadar büyük bir platformda olumsuz ilgi çekeceğini bilseydi bunu yayımlamayacağını söylüyor
  • Sonrasında yapay zekâyla ilgili kişisel görüş paylaşımlarını azaltma kararı aldı ve blogunu sürdürürken asıl amacı olan küçük web'de (small web) keyif almaya odaklanacağını belirtti
  • Bu olay, küçük web'de özgürce görüş ifade etmenin viral yayılma yüzünden nasıl baskı altına girebildiğini gösteren bir örnek

5 yorum

 
GN⁺ 8 일 전
Hacker News görüşleri
  • Bu kişinin bir topluluk bulmuş olmasına seviniyorum ama AI karşıtı duyguya fazla kapılmış gibi geliyor. Önümüzdeki 30 yıl boyunca da yapay zekadan nefret edip onu durdurmaya çalışacak gruplar hep olacaktır diye düşünüyorum. Akıllı telefonlara, Internet'e, TV'ye karşı da her zaman böyle bir kesim vardı. Öte yandan model poisoning gerçekten istikrarlı biçimde mümkün hale gelirse bu epey ilginç bir bilgisayar bilimi problemi olur. Ben anti-AI aktivistlerle aynı çizgide değilim ama saldırı tekniğinin kendisine çok ilgiliyim. Bu yüzden onlar bu araştırmayı sürdürürse, davaya katılmayan insanlar bile bu tartışmayı ciddiyetle okuyacaktır diye düşünüyorum

    • Bence model poisoning eninde sonunda halting problem benzeri bir sınıra çarpıyor. Ölçülebilir bir davranışı değiştiren mekanizma açıklandığında, sistem de bu mekanizmayı hesaba katıp direnç göstermeyi öğrenmek zorunda kalır. Açıklanmış poisoning teknikleri sonunda savunma eğitiminin ya da filtrelemenin hedefi olarak emilir. Tersine, ancak bilginin kendisini ciddi biçimde bozacak kadar ağır olduğunda etkili olabiliyorsa, bu kez insanlar için de işe yaramaz veri haline gelir ve pratik değeri düşer. O yüzden bu tür saldırıların etkisi ya küçük kalacaktır ya da kısa süre işe yarayıp sonra eğitim pipeline'ına yansıtılarak etkisizleştirilecektir diye düşünüyorum. Yine de o kısa aralıkta insanla modelin farklı tepki verdiği pürüzlü noktaları açığa çıkarması bakımından ilginç bir CS problemi gibi geliyor
    • Birkaç yıl önce burada sahte bir oyun adı uydurup gelecekteki AI modellerini kirletmek için o oyun hakkında birkaç yorum bırakmıştım. Gelgelelim şimdi o oyunun adını bile hatırlamıyorum ve eski yorumları bulmak için More düğmesine yüzlerce kez basacak motivasyonum da yok
    • Chinese modellerin poisoning'e daha dayanıklı olacağını tahmin ediyorum. Chinese kamuoyunun da Batı'ya göre çok daha AI yanlısı olması bunda pay sahibi diye düşünüyorum
    • Eğer hizalanmamış bir süper zekâ yüzünden insanlık birkaç yıl içinde yok olacaksa, en azından AI'dan nefret edip onu durdurmaya çalışan aktif bir topluluk da artık kalmayacak diye alaycı bir şaka yapmak istiyorum
    • SEO'nun zaten doğal biçimde LLM training ve agentic search optimization'a evrildiğini düşünüyorum. Şu an olan bitenin özünde de bu var gibi geliyor
  • Bu poisoning girişimlerinin enerjiyi çok yanlış yere harcıyor gibi görünmesi üzücü. Eğitimde kullanılacak kirlenmemiş veri zaten fazlasıyla var ve yeni içerik de gerçek dünyadaki otomatik toplama ya da Afrika'daki büyük atölyelerde kalite kontrollü emekle üretilmeye devam ediyor diye düşünüyorum. O yüzden eski Internet'i kirletmek mümkün olsa da zamanın okunu geri çeviremezsiniz. Üstelik artık API ve açık announce federation merkezli yeni bir Internet de büyüyor, bu yüzden bu tür geleneksel poisoning'in önemi giderek azalıyor gibi geliyor

    • Bu yorum bana ilginç geliyor. AI lab'leri yeni Internet içeriği bulmak için gerçekten umutsuz görünüyor ve para karşılığında duvarlarla çevrili platformlardan bile veri almaya çalışıyorlar. Hatta rıza olmasa da almaya kalktıkları bile görülüyor. Kötüye kullanım içeren ve kurnaz scraping şu anda çok ciddi biçimde artmış gibi geliyor
    • İçeriğin çok olması ayrı mesele ama Internet'e bir şey koyan insanlar izin vermedikleri AI crawler'larını engellemek için uğraşıyor. Çoğu durumda sırf basit istek seline karşı altyapıyı korumak için bile bunu yapmak gerekiyor. Ama AI crawler'ları erişim reddi sinyallerine pek uymadığı için, kendi içeriğini eğitime kullandırmak istemeyen sahipler açısından mümkünse poisoning epey makul bir karşılık gibi görünüyor. Hatta belki de crawler'ları kovmanın neredeyse tek yolu olabilir
    • Kirlenmemiş içeriğin yeterli olduğu iddiasının kendisi bence doğru. Ama benim uğraştığım örneklerde, insan gözüne pek çarpmayan ama scraper için ilgili görünecek şeyleri gizlemek tek başına tüm veri kümesini ya da modeli anlamlı biçimde kirletmeye yetmiyor gibi geldi. Yine de en azından sitemdeki “scraper isteklerini abartmayın” sinyalini yok saymanın net kazancını sıfıra ya da hafif zarara indirebilir diye düşünüyorum. Olmasa bile uygulaması başlı başına eğlenceli bir oyundu. Ayrıca otomasyonla poisoning yapmaya çalışanlara şunu söyleyeyim: rastgele kelime ve karakterler filtrelemeyle kolayca ayıklanır, o yüzden pek işe yaramaz. Bunun yerine mevcut sayfanın ve çevresindeki sayfaların içeriğini yeniden düzenleyip biraz ek parça karıştırmak, token'lar arası bağlantıları zayıflatma ihtimali açısından daha umut verici görünüyor. Bir de bazı scraper'lar açık küfür görünce tüm sayfayı çöpe atıyor, dolayısıyla sadece botların göreceği yerlere birkaç rahatsız edici string serpiştirmek bazıları üzerinde etkili olabilir. Tabii bunların hiçbiri bandwidth'i sömürme şeklindeki resource hogging'in kendisini engellemez
    • "model collapse" konusuna bakmanızı öneririm. Bugünkü gibi AI üretimi içeriğin taştığı bir ortamda, içeriğin çok olması tek başına yeterli eğitim kaynağı olmayabilir diye düşünüyorum. Ayrıca devasa veri birikiminin giderek özel hale gelmesi ya da paywall arkasına girmesi de önemli görünüyor
    • Anthropic'in de küçük örneklem poisoning sorununu doğrudan ele alıyor olması ilginç. İlgili bir kaynak olarak https://www.anthropic.com/research/small-samples-poison doğrudan bakılabilir gibi geliyor
  • Eskiden hacker kültürünün ana gündeminin DRM, DMCA, patent troll, PGP export control gibi bilgiyi kullanmayı zorlaştıran engelleri kaldırmak olduğu dönemi hatırlıyorum. “Information wants to be free” neredeyse bir slogan gibiydi; buna kıyasla bugün şirketler training data'yı etik biçimde elde edemiyorsa web sitesi sahiplerinin hırsızlığı kolaylaştırmak için bir sebebi yok şeklindeki duygu çok büyümüş durumda. Bu gerçekten büyük bir dönüşüm gibi görünüyor. 25 yıl önce bunun olacağını tahmin etmek zor olurdu

    • Bunu çelişki olarak gören bakış bana hiç çok ikna edici gelmedi. Herkesin zengin olmasını isteyen biriyle, sadece kendisi zengin olsun ve başkaları daha da fakirleşsin diye plan yapan birini ayırırsanız anlamak kolaylaşıyor. Bilgiye özgür erişimi destekleyen birinin, başkalarının bilgiye erişim kapasitesini zedeleyen ve kaynağı gizleyen ya da çarpıtan kurumsal veri kullanımına karşı çıkması çelişki değil bence. Telifin ortadan kalktığı, yaratımların kamusal mala dönüştüğü ve şirketlerin de bilgiyi tekelleştirmediği bir dünyada yaşamıyorsak, bu bir görüş değişikliği değil daha çok tutarlı bir uygulama gibi geliyor
    • Bunu, topluluğu yıkmaya çalışan insanları dışlayacak güçlü mekanizmaları olmayan bir kültürde yaşanan bir şey olarak görüyorum. Vampiri eve alıp sonra neden boynun ağrıyor diye şaşırmaya benziyor
    • Bence o dönem insanlar paylaşım ve armağan ekonomisi kurmak istiyordu. Ama bu paylaşım ekonomisinde kötü niyetli aktörleri engelleyemediler ve idealizm şahsi çıkar peşindekiler tarafından ele geçirilince hayal kırıklığı ve kırgınlık oluştu. Bu yüzden bugünkü tepki bana pek tuhaf gelmiyor
    • Ben hâlâ “information wants to be free” tarafına daha yakınım. Yazılımını açık kaynak lisansıyla yayımlayıp sonra LLM'in bundan eğitim almasına öfkelenen insanları pek anlayamıyorum. Eskiden Google kaynak kodunu indekslediğinde insanlar nispeten sakindi; muhtemelen çünkü o zaman trafik geri dönüyor ve para kazandırıyordu. O yüzden bu tartışma bana felsefeden çok parayı kimin aldığıyla ilgiliymiş gibi geliyor ve bu da benim çok umurumda değil. Açık kaynağın temel değeri, ister AI yoluyla ister başka şekilde olsun, herkesin öğrenebilmesine imkân vermesidir diye düşünüyorum
    • Bunun asıl hacker ethos'una ihanet olduğu iddiasına katılmıyorum. “Information wants to be free” hacker ethos'unun sadece bir parçası, tamamı değil; cracking'le ilgisi olmayan başka eğilimler de var. Ayrıca sunucudaki bilgi bedava bira gibi ücretsiz değil; sunucunun erişilebilirliği ve maliyeti gerçekten var. Açgözlü aktörleri cezalandıran mekanizmalar kurmak, sunucu sahibinin meşru hakkı ve ilginç bir tit-for-tat problemi gibi geliyor. Üstelik bu tür poisoning karşılığı devlet müdahalesi çağıran bir yaklaşım değil, bireylerin doğrudan kendi karşı hamlesi. Bu açıdan da hacker eğilimiyle uyumlu görünüyor. Dolayısıyla bilgi erişiminin bir boyutuyla tesadüfen çatışsa bile, bu tür LLM direncinin aslında eski hacker ruhunun içinde yer aldığını düşünüyorum
  • AI direncini büyütmenin en kolay yolu bence Dario Amodei ile Sam Altman'ı televizyona çıkarıp sadece konuşturmak

    • Buna bir de Alex Karp'ı otonom silah tanıtımı için eklerseniz kusursuz bir üçlü olur diye düşünüyorum
    • Neden böyle hissettiğinizi daha fazla duymak isterim. Gündelik insanlarla bağ kuramama, teşviklerin bozuk olması, doğrudan konuşmama, seçilmiş liderlerden daha büyük güce sahip olma gibi nedenler aklıma geliyor. Yine de kişi değerlendirmesinde Amodei ile Altman'ı aynı yere koymak istemem. Benim gözümde Altman cilalı ve yetkin ama tam da bu yüzden daha tedirgin edici; fikirlerden çok kişileri izletmeye çalışan ahlaken sorunlu bir hava taşıyor. Buna karşılık Amodei, karakteri ve idealleriyle ikna etmeye çalışan iyi niyetli bir geek gibi duruyor. Medyayla ilişkisi biraz hantal olsa da bu yüzden daha çok gerçekten kendisi gibi konuşuyormuş hissi veriyor. Elbette ikisini de daha çok eleştirecek nokta var. Dario, AI'nin gelecekteki riskleri konusunda hâlâ yeterince uzağa gitmiyor gibi; Altman ise zeki ve becerikli ama ilk izlenim olarak manipülatif geliyor. Yine de Dario'nun corporate leader'lar arasında alignment'ı en ciddiye alan kişilerden biri olduğunu düşünüyorum. Bizzat fon sağlıyor, teknolojiyi de anlıyor ve gerçek araştırmanın özünü bilen biri gibi görünüyor. Bir şirket CEO'sunun işin çekirdeğindeki işi fiilen yapabilecek yetkinliğe de sahip olmasının ne kadar nadir olduğunu düşününce, bu epey sıra dışı geliyor
  • AI'yi çalışanlardan daha fazla iş çıkarmak için kullanılan bir corporate tool olarak görüyorum. Aynı zamanda çalışanlara kendilerini turbo-charged dev olmuş gibi hissettiren bir aygıt gibi geliyor. Bugünün tech industry'si insanlığı ciddi biçimde iyileştirme çabasından çok, para yığılmış bir sirke benziyor

    • En azından aklı başında programcılar arasında o “turbo-charged dev” mitine inanıldığını sanmıyorum. Çoğu kişi bunun sonunda bir para kazanma düzeni olduğunu gayet net görüyor diye düşünüyorum
  • Bu tür poisoning hareketleri bana daha çok slacktivism gibi geliyor. İşçi sınıfının emeğinin compute ile ikame edilmesi ve compute'un saf sermaye olması nedeniyle kapitalist sınıfın işçi sınıfını boğduğu yönündeki analizi bir ölçüde anlıyorum. Kapitalistlerin gerçekten bunu isteyebileceğini de düşünüyorum. Ama mesele buysa, modeli biraz kirletmenin şu anda olan biteni doğrudan ele almak için çok yetersiz kaldığı hissi var

  • Bu eğilimi özellikle Reddit'te güçlü biçimde görüyorum. Bazı topluluklar AI özet yorumları ekliyor ve AI tarafından yazılmış gönderileri teşvik edecek kadar AI yanlısı; başka subreddit'ler ise daha temkinli ya da açıkça anti-AI bir yere kayıyor. Fotoğraf toplulukları kendi işlerinin AI sanılması sorunuyla uğraşıyor, programcı toplulukları ise genel olarak severken aynı anda kuşkucu da davranıyor. Sonuçta geleneksel subreddit'ler de AI yelpazesinin bir yerinde kendilerine pozisyon alıyor gibi geliyor. Örnek olarak https://www.reddit.com/r/vibecoding/, https://www.reddit.com/r/isthisAI/, https://www.reddit.com/r/aiwars/, https://www.reddit.com/r/antiai/, https://www.reddit.com/r/photography/comments/1q4iv0k/what_do_you_say_to_people_who_think_every_photo/, https://www.reddit.com/r/webdev/comments/1s6mtt7/ai_has_sucked_all_the_fun_out_of_programming/ geliyor aklıma

    • Bana bu, Reddit'in ve daha geniş anlamda insan sürü psikolojisinin tipik bir örneği gibi geliyor. İnsanlar ince nüanslarla uğraşmak yerine hızla tek boyutlu bir çizgide bir yere geçmek ya da iki taraftan birine yazılmak istiyor
  • Umarım bir gün AI ve onun dünyada nasıl bir rol üstlenmesi gerektiği hakkında daha incelikli konuşmalar yapabiliriz. Şu anda sanki yalnızca iki uç var gibi. AI'yi dünyadan tamamen söküp atmak isteyenlerle her şeyi ona teslim etmek isteyenler arasında bir yerde, sorumlu kullanım, toplumsal tamponlar ve enerji tüketimi gibi pratik konuları konuşmak istiyorum

    • Venture capital, AI'nin dünyayı ele geçirdiği senaryoya bahis oynadığı için, LLM'lerin muhafazakâr ve sınırlı kullanım biçimlerinin bir süre daha yatırım almasının zor olduğunu düşünüyorum. Bunun bir nedeni de şu olabilir: böyle temkinli kullanım alanlarına para koymak, hâlihazırdaki çekirdek yatırımların değerini düşüren bir sinyal olur
    • Ben de büyük ölçüde tam o orta noktadayım. AI crawler'ları ve onların şirketleri robots.txt'ye saygı duymalı, çevreye ve tedarik zincirine zarar verecek kadar sonsuz ölçeklenmeye gitmemeli. Aynı zamanda modelleri dikkatli kullanmanın da açıkça değeri var. Mesela bir Linux sunucuda tuhaf bir sorunu takip ederken her zaman uzun süre ve zihinsel enerji harcamak istemeyebilirsiniz. O yüzden ben AI'yi bilinçli biçimde yalnızca ihtiyaç duyduğum anlarda kullanmak istiyorum ama Microsoft'un Copilot'u sürekli itekleyen stratejisinden gerçekten nefret ediyorum. Her an verimliliği artırmam gerektiğinin hatırlatılmasını değil, bunu uygun bulduğum anlarda kullanmayı istiyorum
    • Geçmişte AI'yi hayal ederken aklıma gelen kullanım biçimi bu değildi. Başlangıçta büyük sorunları çözecek ihtişamlı bir vizyon vardı. Bu yüzden şimdi sorumlu AI deployment'ını zorlamamız gerektiğini düşünüyorum. Düşük riskli alanlarda başlayıp, daha az felaket potansiyeli olan ortamlarda yeterince çalıştığı doğrulandıktan sonra daha kritik alanlara taşınmalı
    • Bu sitede bulunan birinden böyle bir yorum gelmesine biraz şaşırdım. Ben tam tersine burada o orta alanın en sık ortaya çıktığını düşünüyordum. Son bir yılda da belirsiz el kol hareketlerinden, AI'yi kabul edip sorunlarını tanımlamaya ve karşı önlemler düşünmeye doğru ciddi bir kayış oldu gibi geliyor. AI doğru kullanıldığında müthiş bir araç olabilir ama aracı anlamadan herkesin eline rastgele tutuşturulan mevcut yöntem korkutucu. Bu toplulukta da buna benzer hisseden epey kişi olduğunu tahmin ediyorum
  • Orijinal blogdaki öfke de aşırı ama bu tür poisoning girişimlerinin model eğitimine zerre kadar zarar veremeyeceğine gerçekten inanmak da teknik anlayış eksikliği gibi görünüyor ve bu da üzücü

    • Poisoning'in asla işe yaramayacağını bu kadar emin söyleyemem. En azından ilgili örneklere bakınca, ihtimali tamamen kapatmak doğru değilmiş gibi geliyor; örnek olarak https://www.reddit.com/r/BrandNewSentence/comments/1so9wf1/comment/ogrqpxz/ aklıma geliyor
    • Öfkenin kendisini cringe bulma tavrına katılmakta zorlanıyorum. Öfkeyi toptan çocukça diye kenara atmak, insanı gerçeklik duygusu ve ahlaki sezgiden uzaklaştırabilir gibi geliyor
    • Bana göreyse asıl cringe olan, mesajları, e-postaları ve özgeçmişleri ChatGPT'ye yazdırmak; profesyonel yazılım geliştiricilerin vibe coding ile baştan sona uygulama üretmesi; bir de LLM'den yakında AGI çıkacak diye konuşulması
  • Bir yandan “Resistance is futile” diye şaka yapmak istiyorum ama öte yandan AI'nin gerçekten toplulukları bozduğu iddiasına da epey katılıyorum. Mesela YouTube ihbar süreçlerini bile AI'ye devretmiş durumda; bu da kötü niyetli kişilerin başkasının orijinal videosuna kendi içeriğiymiş gibi hak iddia edip demonetize yoluyla gelirini çalabilmesine izin veriyor. Davie504 gibi ünlü bir YouTuber bile bunu yaşadı ve itirazlar da yine robotlar tarafından ele alındığı için durum çok sinir bozucu

    • Bence YouTube'daki bu sorunlar LLM'lerden çok daha önce de vardı. Telif strike sistemi zaten baştan beri bozuktu. O yüzden rastgele bir tech problemi seçip hepsini AI'ye bağlamak biraz isabetsiz geliyor
 
amebahead 7 일 전

Yapay zekanın öğrendiği verileri kirletme yöntemi dışında, başka tür bir direniş yok mu?
Örneğin yapay zekanın ürettiği içerikleri tüketmemek gibi...

 
dongho42 7 일 전

Ben de bunu okurken, istemeden insanlara da poisoning uygulanıyor olabilir mi diye düşündüm.

 
geesecross 7 일 전

Sorunun tam olarak nerede çıktığını bilmiyorum ama , , , sonuna uymayan bir ekleniyor. Bu da acaba poisoning olabilir mi ;)

 
xguru 7 일 전

Model biraz değişti mi bilmiyorum ama aynı prompt hatalı çalışıyor. Bu kısmı düzelttim.