- Anthropic, tüketici kullanım koşullarını ve gizlilik politikasını güncelledi
- Kullanıcılar artık verilerinin model iyileştirmede kullanılmasına izin verip vermemeyi doğrudan seçebilecek
- Bu değişiklik Claude Free, Pro ve Max planları için geçerli; mevcut ticari hizmet ve API kullanıcıları hariç tutuluyor
- Veri paylaşımına izin verilirse, model güvenliğinin güçlendirilmesine ve gelecekteki modellerde kodlama gibi yeteneklerin geliştirilmesine katkı sağlanabilecek
- Veri kullanımı onayı, süreler ve değişiklikler gibi unsurlar ayarlar üzerinden her zaman yönetilebilecek
Güncellemenin ana noktaları
- Anthropic, Claude AI'ın performansını artırmak ve kullanıcı korumasını güçlendirmek için tüketici kullanım koşullarını ve gizlilik politikasını güncelledi
- Kullanıcılar, kendi verilerini Claude'un model iyileştirmesi ve güvenlik önlemlerinin güçlendirilmesi için sağlayıp sağlamayacaklarını seçebilecek
- Ayarlar bölümünden veri paylaşım tercihi her zaman değiştirilebilecek
Kapsam ve istisnalar
- Bu güncelleme yalnızca Claude Free, Pro ve Max planları ile bu planlardaki Claude Code kullanıcıları için geçerli
- Ticari koşullar kapsamındaki hizmetler, yani Claude for Work, Claude Gov, Claude for Education ve API kullanımı (üçüncü taraflar üzerinden olanlar dahil; ör. Amazon Bedrock, Google Cloud Vertex AI) bu güncellemeye dahil değil
Veri kullanım onayının etkisi
- Veri paylaşımına onay verilirse, model güvenliği iyileşecek ve zarar ile kötüye kullanımı önleme sistemlerinin hassasiyeti artacak
- Kodlama, analiz ve akıl yürütme gibi gelecekteki Claude modellerinin çeşitli yeteneklerinin gelişimine katkı sağlayabilecek
- Bu ayar her zaman doğrudan kullanıcının kontrolünde olacak; yeni kayıt olanlar ile mevcut kullanıcılar, açılır pencere üzerinden seçeneği belirleyebilecek
Bildirim ve yürürlüğe giriş
- Uygulama içi bildirimlerle kullanıcılara güncellemeler ve ayar değişikliği fırsatı duyurulacak
- Mevcut kullanıcılar 28 Eylül 2025'e kadar koşulları kabul edip etmeme ve veri paylaşımı konusunda karar verebilecek
- Onay verilirse yeni politika hemen uygulanacak ve yalnızca yeni veya yeniden başlatılan sohbetler ile kodlama oturumları için geçerli olacak
- 28 Eylül 2025'ten sonra, Claude'u kullanmaya devam etmek için ayarların doğrudan seçilmesi gerekecek
- Seçenekler Privacy Settings üzerinden değiştirilebilecek
Veri saklama süresinin uzatılması
- Model eğitimi için veri paylaşımına onay verilirse veri saklama süresi 5 yıla uzatılacak
- Bu uzatma yalnızca yeni/yeniden başlatılan sohbetler ve kodlama oturumları için geçerli olacak ve model iyileştirme ile güvenlik geliştirmelerinde kullanılacak
- Sohbet silinirse, ilgili veri gelecekteki model eğitiminde kullanılmayacak
- Veri paylaşımına onay verilmezse, mevcut 30 günlük saklama politikası korunacak
Geri bildirim verilerinin işlenmesi
- Kullanıcı geri bildirimleri için de 5 yıllık saklama politikası geçerli olacak
Gizlilik koruması ve veri işleme yöntemi
- Anthropic, hassas verileri otomatik araçlar ve süreçlerle filtreleyip takma adlandırarak kullanıcı gizliliğini koruyacak
- Kullanıcı verileri üçüncü taraflara satılmayacak
Ek bilgiler
- Tüketici kullanım koşulları ve gizlilik politikasındaki ayrıntılı değişiklikler FAQ bölümünde görülebilir
1 yorum
Hacker News görüşleri
Kullanıcıların, aslında yardım almış olsalar bile her seferinde memnuniyetsiz geri bildirim bırakıp bırakmayacağı ya da kötü niyetle sohbeti yıkıcı bir yöne sürükledikten sonra çok olumlu geri bildirim vererek gelecekteki eğitim veri setini kirletip kirletemeyeceği merak ediliyor
Varsayılan sanki opt-in'miş gibi gösterilirken fiilen opt-out olması ve bunu basit bir kullanım şartları güncellemesi gibi görünen bir istemle yönlendirmeleri hoş karşılanmıyor; verilerin 5 yıl saklanması da aşırı bulunuyor; yeni şartlarda başka sorunlu maddeler olup olmadığından şüphe ediliyor; sonuç olarak bunun aboneliği iptal etme sebebi olduğu söyleniyor
Claude'un matematik araştırmasına yardım ettiği, sohbet sırasında henüz yayımlanmamış araştırma fikirleri Claude'a aktarılırsa daha sonra Claude'un aynı fikri başkasına önerip o kişinin de bunu kendi fikri sanmasından endişe duyulduğu belirtiliyor; yalnızca ticari hesaplar değil, bireylerin de yapay zeka destekli bilgi üretiminde mahremiyete ihtiyaç duyduğu hissediliyor
Bunun beklenen bir gelişme olduğu, büyük oyuncuların zaten tüm internet ve hatta dava konusu olmuş korsan içerik dahil neredeyse her tür veriyle eğitim yapmanın sınırına dayandığı, son yıllarda model mimarisinde büyük yenilikler olmadığı için şimdi daha fazla eğitim verisi için savaş verildiği, sonunda kullanıcı verilerine uzanıp giderek daha şüpheli yöntemlere başvurulduğu söyleniyor
Pek çok kişinin şaşırmadığı ama kişisel olarak bunun epey sarsıcı olduğu söyleniyor; örneğin Google kullanıcıların Gmail içeriklerini arama sonuçlarına koymadığı gibi bunun da kendi kendine zarar veren bir iş kararı olduğu düşünülüyor; bir şeyin gözden kaçırılıp kaçırılmadığı soruluyor
Aslında şimdiye kadar yapay zekanın kullanıcı etkileşimlerinden hiç öğrenememesi, özellikle de aynı hataları tekrar etmesi sinir bozucuydu; değişikliğin ancak şimdi yapılmasına şaşırıldığı söyleniyor
Pek çok kişi karşı çıksa da buna olumlu bakanlar olduğu; LLM'lerin geçmiş konuşmaları öğrenmesine izin vermenin model gelişimi için çok önemli olduğu; uzun vadede kolektif bilginin az sayıda şirkette toplanmasının tehlikeli olabileceğinin farkında olunduğu; bu yüzden nihai çözümün kurumların ya da bireylerin kendi modellerini kendilerinin çalıştırıp eğittiği “self custody” yaklaşımı olabileceği, tabii bunun gerçekçi olabilmesi için maliyetlerin ciddi biçimde düşmesi gerektiği söyleniyor
Politikanın ancak şimdi değişmesinin daha bile kötü olduğu; bazı kullanıcıların zaten verilerinin eğitimde kullanılmasını istediği, hatta sürekli kullanılmasına da razı olduğu; veri mahremiyeti konusunda aşırı hassas olunmak isteniyorsa kişinin kendi verisini hiç kullanmamasının yeterli olduğu; buna tamamen ters bir noktada olunduğu ama şirketlerin bu eğilimi hiç dikkate almadığı söyleniyor; Google'da bile “tüm verilerimi aktif olarak eğitimde kullan” gibi bir seçenek olmamasından şikâyet ediliyor; nerede yaşandığı defalarca girilmiş olsa da sistemin bunu yine de kaçırdığı, her şeyin “kimse verisini paylaşmak istemez” varsayımıyla tasarlandığı, tıp alanındaki DeepMind röportajlarının bile hep veri paylaşımı korkusu, felaket ve takıntısıyla başladığı, oysa bunun büyük bir zararını görmediği ve aksine tıbbi ilerlemeden fayda sağladığı, NHS'te de her seferinde “verimi aktif kullanın” kutusunu işaretlemeye çalıştığı, varsayılanın sürekli “hepsini reddet” olduğu için seçimin yorucu geldiği, tek seferlik bir ana seçenekle “tüm verilerimi kullanın ve bir daha sormayın” denebilmesini istediği belirtiliyor
Anthropic'in uzun vadeli bakışla küçük ama teknik olarak güçlü bir kullanıcı kitlesini hedeflediğine inanıldığı, ilke gereği aboneliğin iptal edileceği, açık kaynak modeller Claude kadar ihtiyaçları karşılamasa da (ISO/IEEE standartları merkezli güvenlik testi hazırlığı gibi) bir çözüm bulunacağı söyleniyor
Neden perplexity.ai tarafından yazılmış yapay zeka özetli bir haber yerine doğrudan resmî duyurunun bağlanmadığı sorgulanıyor; asıl duyuruda link önemli noktaların şunlar olduğu söyleniyor: uygulama içi bildirim açılır penceresiyle değişiklik bildirimi ve opt-out seçeneği sunuluyor; ayarlar menüsünden her zaman opt-out yapılabiliyor; 28 Eylül'de yürürlüğe giriyor; yalnızca yeni şartların kabulü ve oturum yenilenmesi sonrasında geçerli; API/external services, Claude Gov, Claude for Education gibi hizmetlere uygulanmıyor; bu yüzden orijinal bağlantının daha yararlı olduğu belirtiliyor