1 puan yazan GN⁺ 2025-08-30 | 1 yorum | WhatsApp'ta paylaş
  • Anthropic'in Claude hizmetini kullanıyorsanız, bundan sonra verileriniz yapay zeka eğitimi için kullanılacak
  • Kullanıcının girdi verileri, gelecekte yapay zeka sistemlerini geliştirmek amacıyla model eğitiminde kullanılacak
  • Geçmiş veriler hariç tutulacak; yalnızca bundan sonra girilen yeni veriler kapsam dahilinde olacak
  • Silinen veya gizli olarak işaretlenen veriler eğitimde kullanılmayacak
  • Kullanıcılar ayarlardan eğitimden hariç tutma seçeneğini (opt-out) seçebilecek

Claude'un veri toplama ve yapay zeka eğitimi politikası değişiyor

  • Anthropic tarafından işletilen Claude hesabı kullanıcılarının, artık hizmete girdikleri tüm verilerin yapay zeka eğitimi için kullanılacağını bilmesi gerekiyor
  • Bu politika, bundan sonra girilecek yeni veriler için geçerli olacak; daha önce sağlanan veriler bunun dışında kalacak
  • Kullanıcının sildiği veriler ile gizli olarak işaretlediği veriler, ayrı işlemden geçirildiği için yapay zeka eğitim veri kümesine dahil edilmeyecek
  • Anthropic, hizmet duyurusunda kullanıcıların isterlerse verilerinin eğitimde kullanılmasını ayarlar menüsünden (opt-out) reddedebileceğini belirtiyor
  • Yapay zeka hizmetlerinin gelişimi ile kullanıcı verilerinin korunması arasında dengeli bir politika uygulanıyor

1 yorum

 
GN⁺ 2025-08-30
Hacker News görüşleri
  • Açıkçası bu şirketler zaten terabaytlarca veriyi aşırdı ve veri setlerini de açıklamıyor, bu yüzden ben bir servise ne koyarsam koyayım hepsini mutlaka toplayıp eğitimde kullandıklarını varsaymam gerektiğini düşünüyorum
    • İnternette serbestçe yayınlanmış yazıları okumak artık hırsızlık mı oldu? Bunun mülkiyet haklarına dair aşırı sert bir yorum olduğunu düşünüyorum
    • Bu kadar kötü niyet varsaymaya gerek yok; herkesin kötü niyetle hareket edeceğini düşünmemek lazım ve bu düşüncenin yaygınlaşmasına da dikkat etmek gerek
    • Bence yukarıdaki görüş en makul yorum
  • Ben zaten baştan beri tüm verilerin AI eğitiminde kullanıldığını varsayıyordum; acaba bunu sadece ben mi yapıyordum diye merak ediyorum
    • 2025'te bilgisayar mühendisliğinin en büyük zor problemi muhtemelen insanları "tüm kişisel verilerinizi AI'a öğretmiyoruz" diye ikna etmek olacak; dürüst olmak gerekirse Anthropic de muhtemelen kimsenin verilerinin eğitimde kullanılmadığına inanmadığını düşünüp "öyleyse kullanalım" diye karar vermiş olabilir, hatta insanlara kendi kontrol edebilecekleri seçenekler sunulursa güven daha da artabilir
    • Bu düşünce tarzını pek anlayamıyorum; neden en baştan böyle bir varsayım yapılıyor bilmiyorum. Claude'u ilk kullanırken birkaç dakikanızı ayırıp gizlilik ayarlarını kontrol edebilirdiniz, ben yeni bir hizmet kullanırken hep bakarım. Her şeyin paylaşıldığını alaycı biçimde peşinen kabul edince insan hiçbir şeyi kontrol etmeden geçiyor. Ayarlar -> Gizlilik menüsüne girince hemen görünüyor
    • Bu, Google/META/Apple/Microsoft sunucularından bir belgeyi silince gerçekten yok olduğuna inanan insanların saflığına benziyor; Google muhtemelen son 20 yılda indekslediği her şeyin yedeğine sahip, üstelik Internet Archive'ın bile kıskanacağı ölçekte
    • Ben ücretsiz hesapların zaten AI eğitiminde kullanıldığını sanıyordum, özellikle kalmasını istemediğim verileri servisten silerim diye düşünüyordum. Ama buna ücretli hesapların da dahil edilmesi ve verilerin 5 yıl tutulması anlaşılır gelmiyor
    • Elbette toplumun verdiği sözler gibi temel değerlere hâlâ inanan insanlar vardır. Ama bu sözlerin rahatsız edici olduklarında sürekli eğilip büküldüğünü ya da görmezden gelindiğini görünce, alaycı bakışın yaygınlaşmasına şaşırmıyorum. Sorun bunun gerçek seçimleri nasıl etkilediği. Sonuçta eskiden açık olan şeyler giderek kapalı hale geliyor. Bu yüzden yerel sürümleri kendim denemeye ve daha çok kontrol edebildiğim şeyler kurmaya çalışıyorum
  • Eninde sonunda, kim opt-out yaptıysa yapsın, herkesin verisiyle eğitim yapıldığının ortaya çıkacağı bir durum geleceğini düşünüyorum. Claude'u kullanmaya devam etmek istiyorum ama ürettiğim tüm çözümlerin ortak bilgi gibi yayılmasını istemiyorum
    • Daha önce hangi şirket bir opt-out talebini görmezden gelmiş diye soruluyor; sanki aklınızda belli bir örnek varmış gibi duruyor
    • Şirketin/AI'ın benim girdilerimle biraz daha iyi hale gelmesine aslında karşı değilim; sadece bunun doğrudan benim ismimle ya da bilgilerimle ilişkilendirilmesini istemiyorum. Keşke Chatham House Rule geçerli olsa (Chatham House Rule: konuşmanın içeriği paylaşılabilir ama konuşmacının kimliği anonim kalır)
    • İçgörülerinizi neden paylaşmak istemediğinizi merak ediyorum; doğrudan paylaşmak, verinin AI eğitimi yoluyla sızmasındansa bence daha iyi. Ama sizin ifadeniz daha güçlü bir tepki gibi geliyor
  • Görünüşe göre sonunda eğitim için veri kıtlığı yaşanmaya başlandı. Veriye ne kadar dayanılabildiğini ve bundan ne tür bir "bilgi" çıkarılabildiğini merak ediyorum. Ben neredeyse hiç geri bildirim vermiyorum ve çoğu zaman da (6 seferin 5'inde) yanlış sonuç alıyorum; buna rağmen bunun nasıl değerli sayılacağını anlamıyorum
    • Google'daki gibi, kullanıcı belirli bir bağlantıya tıklayıp ek arama yapmıyorsa sonucun faydalı olduğu varsayılabilir. Benim sessizliğim de memnun kaldığıma dair zayıf bir sinyal olarak yorumlanabilir (tabii bu, kullanıcının kullanım kalıbına bağlı)
    • Sonuçta eğitimde ne kullanılırsa kullanılsın bunun gerçekten değerli olup olmadığı belli değil. Ben yanlış cevap alsam da memnuniyetsizliğimi göstermiyorsam şirket muhtemelen pek umursamayacaktır
  • Bunun AI Safety Index'in hemen ardından gelmesi aklıma takıldı; ilgili rapor, Anthropic'i kullanıcı verilerini eğitimde kullanmadığı için övmüştü, bu yüzden ben de ona daha çok güvenip kullanmayı düşünmüştüm
    https://futureoflife.org/ai-safety-index-summer-2025/
  • Modern AI veriye dayanıyor; konuşmalarımızın eğitimde kullanılmadığı vaadine inanmak, obur birine en sevdiği yemeği verip ondan asla yemeyeceğine dair söz almak gibi. Yine de konuşma tamamen dışarı sızmadığı sürece benim için kabul edilebilir; ben zaten bunu kullanırken bu koşulu kabulleniyorum
    • Bunun normalleşmesine izin vermemeliyiz; sözleşmesel yükümlülüklerin yerine getirilmesi ve mahremiyetimizle insan haklarımızın korunması için bunların mutlaka uygulanması gerekiyor
  • iOS uygulamasında giriş yaptıktan hemen sonra opt-out ayarı için bir açılır pencere çıktı; biraz can sıkıcıydı ama uygulanış biçimi fena değildi
    • Ben Claude gibi bir LLM'nin benim konuşmalarımdan ya da geri bildirimlerimden öğrenerek daha akıllı hale gelmesini isteyen taraftayım. Kullanıcıya özel uzun vadeli hafıza ya da konuşma geçmişinin yerleşik olmaması çok sinir bozucu. Anthropic'ten 6 aydır opt-in özelliği istiyorum. Elbette gizlilik sorunlarını anlıyorum, ama benim uzmanlık alanlarımda (biliş araştırmaları, genetik, nörofelsefe) Claude'un daha akıllı olması gerekiyor ve elimdeki bilgiyi paylaşarak gerçekten iyi bir düşünce ortağı elde etmek istiyorum
  • İnanması güç; bu, gizlilik açısından Meta'nın kötü şöhretli kararlarıyla yarışacak kadar etik bir sorun. Gerçekten çok kötü bir dağıtım oldu; mevcut sohbet penceresinde böyle bir modal (ayar bilgilendirme penceresi) doğrudan çıktı. Verilerimin, fikirlerimin, maaşımın ya da aile sağlık geçmişimin kullanımı için hiç onay vermedim ama PR tarafının "modal'da opt-in yapmıştınız, değil mi?" diyeceğinden endişe ediyorum
    https://imgur.com/afqMi0Z
  • Hangi verileri eğitimde kullandıklarını bilmiyorum ama Claude aboneliğimi ikinci kez iptal ettim. Web arayüzündeki UI hataları ve sürekli titreşme de sinir bozucu, son dönemde AI cevapları da gereğinden fazla olumsuz ve kibirli olmaya başladı; bunu eskiden ya da diğer LLM'lerde görmüyordum. Muhtemelen daha önce aşırı pohpohlayıcı olduğu için eleştirildi ve ayarlamaya çalışırken işleri bozdu. Şimdi teknik bağlamın ötesine geçip davranışlarım hakkında varsayım yaparak eleştiriyor. Gemini'yi kullanınca da hep yanıtlara kızmışım gibi varsayıyor ama en azından kaba değil. O yüzden tekrar chatgpt'ye döndüm ve karşılaştırmalı testlere devam ediyorum
    • Güç kullanıcıları için API'lerdeki gibi ayarlanabilir kadranlar lazım (pohpohlama/güvenlik/çocuk koruma modu kapatma vb.). Mikrodalgadaki gibi bir kilit açma anahtarı bile olsa iyi olurdu
  • Bu yazıya benzer bir başka gönderi burada
    • En azından bu gönderide Anthropic'in gerçekten gönderdiği duyurunun tam metni yer alıyor, o yüzden anlamlı. Perplexity'nin sunduğu özet teknik olmayan kişiler için daha okunaklı olabilir