1 puan yazan GN⁺ 2025-08-30 | 1 yorum | WhatsApp'ta paylaş
  • Anthropic, tüketici kullanım koşullarını ve gizlilik politikasını güncelledi
  • Kullanıcılar artık verilerinin model iyileştirmede kullanılmasına izin verip vermemeyi doğrudan seçebilecek
  • Bu değişiklik Claude Free, Pro ve Max planları için geçerli; mevcut ticari hizmet ve API kullanıcıları hariç tutuluyor
  • Veri paylaşımına izin verilirse, model güvenliğinin güçlendirilmesine ve gelecekteki modellerde kodlama gibi yeteneklerin geliştirilmesine katkı sağlanabilecek
  • Veri kullanımı onayı, süreler ve değişiklikler gibi unsurlar ayarlar üzerinden her zaman yönetilebilecek

Güncellemenin ana noktaları

  • Anthropic, Claude AI'ın performansını artırmak ve kullanıcı korumasını güçlendirmek için tüketici kullanım koşullarını ve gizlilik politikasını güncelledi
  • Kullanıcılar, kendi verilerini Claude'un model iyileştirmesi ve güvenlik önlemlerinin güçlendirilmesi için sağlayıp sağlamayacaklarını seçebilecek
  • Ayarlar bölümünden veri paylaşım tercihi her zaman değiştirilebilecek

Kapsam ve istisnalar

  • Bu güncelleme yalnızca Claude Free, Pro ve Max planları ile bu planlardaki Claude Code kullanıcıları için geçerli
  • Ticari koşullar kapsamındaki hizmetler, yani Claude for Work, Claude Gov, Claude for Education ve API kullanımı (üçüncü taraflar üzerinden olanlar dahil; ör. Amazon Bedrock, Google Cloud Vertex AI) bu güncellemeye dahil değil

Veri kullanım onayının etkisi

  • Veri paylaşımına onay verilirse, model güvenliği iyileşecek ve zarar ile kötüye kullanımı önleme sistemlerinin hassasiyeti artacak
  • Kodlama, analiz ve akıl yürütme gibi gelecekteki Claude modellerinin çeşitli yeteneklerinin gelişimine katkı sağlayabilecek
  • Bu ayar her zaman doğrudan kullanıcının kontrolünde olacak; yeni kayıt olanlar ile mevcut kullanıcılar, açılır pencere üzerinden seçeneği belirleyebilecek

Bildirim ve yürürlüğe giriş

  • Uygulama içi bildirimlerle kullanıcılara güncellemeler ve ayar değişikliği fırsatı duyurulacak
  • Mevcut kullanıcılar 28 Eylül 2025'e kadar koşulları kabul edip etmeme ve veri paylaşımı konusunda karar verebilecek
  • Onay verilirse yeni politika hemen uygulanacak ve yalnızca yeni veya yeniden başlatılan sohbetler ile kodlama oturumları için geçerli olacak
  • 28 Eylül 2025'ten sonra, Claude'u kullanmaya devam etmek için ayarların doğrudan seçilmesi gerekecek
  • Seçenekler Privacy Settings üzerinden değiştirilebilecek

Veri saklama süresinin uzatılması

  • Model eğitimi için veri paylaşımına onay verilirse veri saklama süresi 5 yıla uzatılacak
  • Bu uzatma yalnızca yeni/yeniden başlatılan sohbetler ve kodlama oturumları için geçerli olacak ve model iyileştirme ile güvenlik geliştirmelerinde kullanılacak
  • Sohbet silinirse, ilgili veri gelecekteki model eğitiminde kullanılmayacak
  • Veri paylaşımına onay verilmezse, mevcut 30 günlük saklama politikası korunacak

Geri bildirim verilerinin işlenmesi

  • Kullanıcı geri bildirimleri için de 5 yıllık saklama politikası geçerli olacak

Gizlilik koruması ve veri işleme yöntemi

  • Anthropic, hassas verileri otomatik araçlar ve süreçlerle filtreleyip takma adlandırarak kullanıcı gizliliğini koruyacak
  • Kullanıcı verileri üçüncü taraflara satılmayacak

Ek bilgiler

  • Tüketici kullanım koşulları ve gizlilik politikasındaki ayrıntılı değişiklikler FAQ bölümünde görülebilir

1 yorum

 
GN⁺ 2025-08-30
Hacker News görüşleri
  • Kullanıcıların, aslında yardım almış olsalar bile her seferinde memnuniyetsiz geri bildirim bırakıp bırakmayacağı ya da kötü niyetle sohbeti yıkıcı bir yöne sürükledikten sonra çok olumlu geri bildirim vererek gelecekteki eğitim veri setini kirletip kirletemeyeceği merak ediliyor

  • Varsayılan sanki opt-in'miş gibi gösterilirken fiilen opt-out olması ve bunu basit bir kullanım şartları güncellemesi gibi görünen bir istemle yönlendirmeleri hoş karşılanmıyor; verilerin 5 yıl saklanması da aşırı bulunuyor; yeni şartlarda başka sorunlu maddeler olup olmadığından şüphe ediliyor; sonuç olarak bunun aboneliği iptal etme sebebi olduğu söyleniyor

    • Anthropic'in diğer tüm ayarlarında anahtar açıksa mavi, kapalıysa siyahken bu değişiklik bildirim kutusunda sürgünün her iki durumda da gri olduğu fark edilmiş; tercih ayarlarına gidip fark doğrudan görülebilir; birinin bunu bilerek böyle yaptığı düşünülüyor ve bu hem hayal kırıklığı hem de burukluk yaratıyor
    • “opt-in by default” ifadesine itiraz ediliyor; fiilen doğru ifade “opt-out”, çünkü opt-out ayarı varsayılan durumda
    • “5 yıl saklama” kısmına dikkat çekiliyor; bir kez model eğitimine girerse sonsuza kadar kalacağı söyleniyor
    • Asıl kaygının gerçekten 5 yıl saklama olduğu belirtiliyor; önümüzdeki 5 yıl boyunca şartları değiştirmeye ve opt-out seçeneğini yeniden sunmaya devam ederlerse, bir kez yanlışlıkla tıklamanın tüm verileri almalarına yol açacağı, daha sonra opt-out'un tamamen kaldırılabileceği, 4 yıl 364 gün sonra şartları değiştirip saklama süresini 10 yıla çıkarabilecekleri, o noktada mahremiyetin zaten o kadar aşınmış olacağı ki insanların böyle bir seçeneğin hiç var olmadığını bile fark etmeyeceği söyleniyor
    • Uygulama açıldığında değişiklik bildirimi açılır penceresiyle birlikte opt-out seçeneğinin de göründüğü, şeffaflık açısından bunun fena görünmediği söyleniyor
  • Claude'un matematik araştırmasına yardım ettiği, sohbet sırasında henüz yayımlanmamış araştırma fikirleri Claude'a aktarılırsa daha sonra Claude'un aynı fikri başkasına önerip o kişinin de bunu kendi fikri sanmasından endişe duyulduğu belirtiliyor; yalnızca ticari hesaplar değil, bireylerin de yapay zeka destekli bilgi üretiminde mahremiyete ihtiyaç duyduğu hissediliyor

    • Claude'un sonuçta başka birinin çalışmasına yardım etmiş sayılıp sayılmayacağı soruluyor; Claude'un kendi sohbetleri dışında eğitim verisi haricinde bir şey bilmediği, bunun klasik bir yapay zeka mekanizması olduğu söyleniyor
    • Yapay zeka devasa bir ilişkilendirme motoru gibi görülüyor; matematik araştırmasında “kimsenin düşünmediği bir fikir” ile “birinin zaten düşündüğü bir fikir” arasındaki farkı ayırt etmenin eskiden de uzun sürdüğü, artık internet, MathSciNet, ArXiv vb. üzerinden anahtar kelime bulmaya dayalı çok sayıda yinelemeli süreç olduğu, yapay zekada ise 6 aydan uzun süre nadir yanıtlar üreten istemleri bulmayı öğrenmeye yatırım yapıldığı anlatılıyor; yapay zekanın genelleme yeteneğinin kafa karıştırıcı olduğu, örneğin en özgün göründüğü anların aslında herkesin daha önce düşündüğü parçaları birbirine bağladığı anlar olduğu, paradoksal biçimde uygun istemlerle yapay zekanın da fikirleri bu şekilde bağlayabildiği söyleniyor
    • Yeni şartlarla ilgili açılır pencerede opt-out seçilirse sohbetlerin eğitime kullanılmadığı belirtiliyor
    • Gerçekten özgün bir çalışmaysa, bunun daha sonra bu tür modellerde ortaya çıkma olasılığının çok düşük olduğu söyleniyor; bu sistemlerin özünde pek çok kişinin paylaştığı verilerden genelleştirilmiş çıktı ürettiği, bir kavramın çıkarım sırasında üretilebilmesi için eğitim verisinde çok yaygın olması gerektiği, pratikte bunun hem yeniliği hem de mahremiyeti koruyan bir yapı olduğu, belirli ölçüde yaygınlaşmış kavramların ise zaten kamusal bilgiye dahil olmayı hak ettiği ifade ediliyor(IP meseleleri hariç)
    • Yapay zeka şirketlerinin gerçekte sahip olmadıkları insan bilgisini ne ölçüde kullanacağı konusunda sınırların bulanık olduğu, hatta belki de hiç çizilmemiş olabileceği düşünülüyor
  • Bunun beklenen bir gelişme olduğu, büyük oyuncuların zaten tüm internet ve hatta dava konusu olmuş korsan içerik dahil neredeyse her tür veriyle eğitim yapmanın sınırına dayandığı, son yıllarda model mimarisinde büyük yenilikler olmadığı için şimdi daha fazla eğitim verisi için savaş verildiği, sonunda kullanıcı verilerine uzanıp giderek daha şüpheli yöntemlere başvurulduğu söyleniyor

    • Yüzlerce veri broker'ının da kullanıcı verisini istediği, ancak yapay zeka şirketlerinin kullanıcıların her gün gönüllü olarak veri sağladığı hazır kanallara zaten sahip olduğu; bunların yalnızca karanlık desenli şart değişiklikleri ve hafif PR yönetimi gerektirdiği; bu tartışmaların da bir hafta içinde unutulacağı ifade ediliyor
    • Son dönemde yapay zeka modellerinin kendi ürettikleri verilerle eğitilirken kalite düşüşü yaşamasının ilginç olduğu, insan+AI içeriği daha dikkatli ayırmış ya da yayıncılarla anlaşmalar yapmış olsalardı durumun farklı olabileceği, fakat herkes aceleyle tüm veriyi kazıyınca sonunda herkesin zarar gördüğü söyleniyor
    • Tartışmanın bunun “korsanlık” olup olmaması değil, mahkemede bizzat yasadışı kopyalama yaptıklarını kabul etmeleri olduğu belirtiliyor
    • Yapay zeka şirketleri için verinin reklam sektöründekinden çok daha güçlü bir altın madeni olduğu, hayatta kalmaları için zorunlu olduğu, asıl sorunun yapay zeka ile reklamcılığın kesiştiği yerde doğacak etik dışı davranışlar olduğu, Google ya da Facebook'un zaten veri platformlarını birbirine bağlıyor olabileceği tahmin ediliyor; bunun alenen izinli hale geldiği gün ne tür kullanım senaryolarının çıkacağına hem merak hem endişeyle bakılıyor
    • Bu tür örneklerin daha güçlü düzenleme ve güvenlik önlemlerine ihtiyaç olduğunu gösterdiği söyleniyor
  • Pek çok kişinin şaşırmadığı ama kişisel olarak bunun epey sarsıcı olduğu söyleniyor; örneğin Google kullanıcıların Gmail içeriklerini arama sonuçlarına koymadığı gibi bunun da kendi kendine zarar veren bir iş kararı olduğu düşünülüyor; bir şeyin gözden kaçırılıp kaçırılmadığı soruluyor

    • Gmail'in de 2017'ye kadar yıllarca reklam göstermek için e-postaları taradığı hatırlatılıyor link
    • İlgili politika değişikliğinin iş, eğitim amaçlı Claude hesaplarına uygulanmadığı ve mevcut mahremiyet korumalarının sürdüğü, bir yazı sayesinde öğrenildiği belirtiliyor; fiilen ücretsiz veya ticari olmayan hesapların Anthropic açısından para getirmeyen ve daha az önem verilen bir grup olduğu, bu kararla bu tür “bedava kullanıcı” akışının azaltılmak istendiği, yakında “geri bildiriminizi dinledik, mahremiyet odaklı yeni bir ürün çıkarıyoruz, ayda sadece 30 dolar” türü bir duyuru beklendiği söyleniyor
    • Bu verinin pekiştirmeli öğrenme için çok faydalı olduğu, diğer şirketlerin de aynısını yaptığı, ayrıca istenirse opt-out yapılabildiği ifade ediliyor
    • Tepkinin şaşkınlık olarak çerçevelenmesinin bile tuhaf olduğu, bunun zaten herkesin beklediği bir şey olduğu söyleniyor
    • Google'ın e-postaları derinlemesine madencilik yaparak pazarlama ya da devlet aktarımı gibi çeşitli amaçlarla kullandığı, ancak e-posta gövdelerini arama sonuçlarına koymakla Claude'un eğitim için kullanmasının aynı şey olmadığı, Google'ın da bunun için büyük bir ceza almadığı belirtiliyor
  • Aslında şimdiye kadar yapay zekanın kullanıcı etkileşimlerinden hiç öğrenememesi, özellikle de aynı hataları tekrar etmesi sinir bozucuydu; değişikliğin ancak şimdi yapılmasına şaşırıldığı söyleniyor

    • Gerçek zamanlı öğrenme olmadığı, kişinin verisinin hemen modele yansımadığı, eğitim verisinin hâlâ model eğitimi için kullanıldığı ve bunun aylar süren bir süreç olduğu, bir iki kişinin verisinin çoğu kullanıcı akışında büyük fark yaratmadığı, kişiye özgü çalışma tarzından çok kullanıcıların ortak paydalarının öğrenme etkisi oluşturduğu belirtiliyor
    • Etkileşimlerin kendisinden çok fazla şey öğrenilemediği, değerlendirme ölçütlerinin de tekil kullanıcıya değil küresel kriterlere dayandığı için hizmetin giderek sıradanlaştığı söyleniyor
    • Bunun aynı abonelik ücretine karşılık daha fazla veri toplama stratejisi olduğu, indirim ya da iade olasılığının düşük olduğu ifade ediliyor
  • Pek çok kişi karşı çıksa da buna olumlu bakanlar olduğu; LLM'lerin geçmiş konuşmaları öğrenmesine izin vermenin model gelişimi için çok önemli olduğu; uzun vadede kolektif bilginin az sayıda şirkette toplanmasının tehlikeli olabileceğinin farkında olunduğu; bu yüzden nihai çözümün kurumların ya da bireylerin kendi modellerini kendilerinin çalıştırıp eğittiği “self custody” yaklaşımı olabileceği, tabii bunun gerçekçi olabilmesi için maliyetlerin ciddi biçimde düşmesi gerektiği söyleniyor

    • Karşılıklılık olsaydı bunun iyi bir yaklaşım olacağı, ancak her ay 20 dolar ödeyip bir de eğitim verisini Anthropic'e ücretsiz vermenin mantıksız olduğu düşünülüyor
    • Bunun “hep birlikte LLM'leri geliştiriyoruz” değil, sonuçta tek bir LLM'e, yani Claude'a eğitim verisi sağlamak olduğu ve bu kısmın atlandığı söyleniyor
    • Şirket kaynak kodu, senaryolar, sağlık ve finans bilgileri gibi hassas veriler eğitime katılırsa riskin büyüyeceği belirtiliyor
    • LLM'lerin çok daha gelişmemesinin de sorun olmayacağı düşünülüyor
    • Hatta LLM'ler daha iyi olsa bile çoğu kullanıcı için bunun gerçekten büyük bir fayda sağlayıp sağlamayacağının belirsiz olduğu, toplamda zararın daha ağır basabileceği söyleniyor
  • Politikanın ancak şimdi değişmesinin daha bile kötü olduğu; bazı kullanıcıların zaten verilerinin eğitimde kullanılmasını istediği, hatta sürekli kullanılmasına da razı olduğu; veri mahremiyeti konusunda aşırı hassas olunmak isteniyorsa kişinin kendi verisini hiç kullanmamasının yeterli olduğu; buna tamamen ters bir noktada olunduğu ama şirketlerin bu eğilimi hiç dikkate almadığı söyleniyor; Google'da bile “tüm verilerimi aktif olarak eğitimde kullan” gibi bir seçenek olmamasından şikâyet ediliyor; nerede yaşandığı defalarca girilmiş olsa da sistemin bunu yine de kaçırdığı, her şeyin “kimse verisini paylaşmak istemez” varsayımıyla tasarlandığı, tıp alanındaki DeepMind röportajlarının bile hep veri paylaşımı korkusu, felaket ve takıntısıyla başladığı, oysa bunun büyük bir zararını görmediği ve aksine tıbbi ilerlemeden fayda sağladığı, NHS'te de her seferinde “verimi aktif kullanın” kutusunu işaretlemeye çalıştığı, varsayılanın sürekli “hepsini reddet” olduğu için seçimin yorucu geldiği, tek seferlik bir ana seçenekle “tüm verilerimi kullanın ve bir daha sormayın” denebilmesini istediği belirtiliyor

    • Bu görüşe daha yakın hissedebilmek için şirketlerin hâlâ kullanıcıya hizmet ettiğine inanmak gerektiği, ama gerçekte bilginin kişinin kendi çıkarına aykırı biçimlerde, örneğin dolandırıcılık ürünü reklam hedeflemesinde kullanıldığı, yapay zeka şirketlerinin de çoğunun VC etkisi altında olduğu ve kullanıcı yararından çok kâra odaklandığı, şu anın pazar payı kapmak için kullanıcının cömertçe ödüllendirildiği “MoviePass” dönemi olduğu, ileride hizmet kalitesinin düşeceği ve kötüye kullanım riskinin artacağı söyleniyor MoviePass Wikipedia
    • Eleştirel düşünmeden bu görüşün ciddi biçimde savunulmasının anlaşılmaz olduğu ifade ediliyor
    • Sağlık verisinin ne kadar önemli bir mahremiyet varlığı olduğu, özel sigorta sisteminin bulunduğu bir ülkede yaşanınca hemen anlaşılacağı söyleniyor
    • Bunun trolling olup olmadığı ya da şirketlerin kullanıcıyı en öne koyduğu ideal bir dünyada yaşanıp yaşanmadığı sorgulanıyor
    • Kişisel hayatta “LLM'ler biraz daha iyi çalışsın” isteğinden daha öncelikli değerler olduğu belirtiliyor
  • Anthropic'in uzun vadeli bakışla küçük ama teknik olarak güçlü bir kullanıcı kitlesini hedeflediğine inanıldığı, ilke gereği aboneliğin iptal edileceği, açık kaynak modeller Claude kadar ihtiyaçları karşılamasa da (ISO/IEEE standartları merkezli güvenlik testi hazırlığı gibi) bir çözüm bulunacağı söyleniyor

    • Sonuçta kullanıcının yapabileceği tek şeyin hizmeti bırakmak olduğu, yasa ya da düzenlemeden umut beklenemeyeceği, gelse bile bunun sadece maliyet ödeyerek geçiştirileceği, bir web hizmetine ya da uygulamaya veri verildiği anda o verinin artık yalnızca kişiye ait sayılmaması gerektiği düşünülüyor
  • Neden perplexity.ai tarafından yazılmış yapay zeka özetli bir haber yerine doğrudan resmî duyurunun bağlanmadığı sorgulanıyor; asıl duyuruda link önemli noktaların şunlar olduğu söyleniyor: uygulama içi bildirim açılır penceresiyle değişiklik bildirimi ve opt-out seçeneği sunuluyor; ayarlar menüsünden her zaman opt-out yapılabiliyor; 28 Eylül'de yürürlüğe giriyor; yalnızca yeni şartların kabulü ve oturum yenilenmesi sonrasında geçerli; API/external services, Claude Gov, Claude for Education gibi hizmetlere uygulanmıyor; bu yüzden orijinal bağlantının daha yararlı olduğu belirtiliyor

    • Opt-out mümkünse bunun çok sorun edilmediği, ancak JetBrains AI, Zed gibi Claude API entegrasyonlu üçüncü taraf uygulamaların kullanıcı adına opt-in kararı verip vermediğinin merak edildiği, API tabanlı kullanımda bu tür eğitim seçeneğinin asla varsayılan opt-in olmaması gerektiği ve sektör genelinde bu yaklaşımın benimsenmesi gerektiği düşünülüyor
    • Alınan uygulama açılır penceresinde metin değil sadece düğmeler ve görseller olduğu, karanlık mod sorunu sanılıp DOM'un bile kontrol edildiği ama metin bulunamadığı, bunun yalnızca yeni özellik duyurusu sanılarak geçildiği, Reddit'te yakın tarihli politika değişikliği tesadüfen görülmeseydi durumun hiç fark edilmeyeceği, muhtemelen başka birçok kullanıcının da bunu kaçırmış olabileceği söyleniyor
    • Önceki yorumun bağlam açısından artık uymadığının kabul edilip düzeltildiği, başlangıçta bağlantının perplexity.ai'nın çeşitli haber özetlerine ait olduğu, sonra bir moderatörün bunu orijinal duyuruyla değiştirdiği, birçok yorumun yalnızca yapay zeka özetlerini hızlıca okuyup acele hüküm vermekten kaynaklandığı, bağlantının asla özet olmaması ve orijinal kaynağa çevrilmiş olmasının iyi olduğu ifade ediliyor
    • Çeşitli haber özetleri yerine doğrudan orijinal kaynağın bağlantılanmasının çok daha iyi olduğu düşünülüyor