6 puan yazan GN⁺ 2026-03-28 | 3 yorum | WhatsApp'ta paylaş
  • GitHub, özel depolardaki kod ve verileri yapay zeka modeli eğitiminde kullanmayı planlıyor
  • Kullanıcıların veri kullanımını engellemek için 24 Nisan’dan önce açıkça reddetmesi (opt-out) gerekiyor
  • Reddetmediğiniz takdirde özel proje bilgileri eğitim verilerine dahil edilebilir
  • Söz konusu politika, GitHub Copilot gibi yapay zeka özelliklerini geliştirmeye yönelik veri toplamayla bağlantılı
  • Geliştiricilerin gizlilik ve kod güvenliği için ayarlarını kontrol etmesi gerekiyor

GitHub’ın yapay zeka eğitim verisi politikasındaki değişiklik

  • GitHub, yapay zeka modellerini geliştirme amacıyla özel depo verilerini eğitime dahil edebilecek şekilde politikasını değiştirdi
    • Kullanıcı ayrıca reddetmezse veriler otomatik olarak kullanılacak
    • Reddetme işlemi GitHub ayarlar sayfasından doğrudan yapılabiliyor
  • Eğitim verilerine özel kod, proje metaverileri ve commit geçmişi dahil olabilir
  • Bu adımın, Copilot ve diğer yapay zeka özelliklerinin kalitesini artırmak için atıldığı belirtiliyor

Geliştiricilere etkisi

  • Özel depolar eğitimde kullanılırsa hassas kodların veya iç mantığın açığa çıkma riski bulunuyor
  • Şirketlerin ve bireysel geliştiricilerin güvenlik politikalarını gözden geçirmesi ve opt-out işlemini tamamlaması gerekiyor
  • GitHub’ın bu değişikliği, yapay zeka eğitim verilerinde şeffaflık ve kullanıcı denetimi tartışmalarını yeniden alevlendirebilir

3 yorum

 
runableapp 2026-03-30

Birkaç gündür GitHub’da sürekli karşıma çıkıyordu,

Important update
On April 24 we'll start using GitHub Copilot interaction data for AI model training unless you opt out. Review this update and manage your preferences in your GitHub account settings.

Ben opt-out yaptım ama sanki eskiden beri zaten yapay zeka için kullanıyordu gibi geliyor.

 
github88 2026-03-29

Bu çok küstahça bir sahte haber.

 
GN⁺ 2026-03-28
Hacker News yorumları
  • Bunu 2023’ten beri söylüyordum. Eğer veritabanında saklanan bilgi şirketin serbestçe erişebileceği bir biçimdeyse, eninde sonunda o şirket şartlarını değiştirip bunu yapay zeka eğitimi verisi olarak kullanır. Teşvik o kadar güçlü ki bundan kaçınılamayacağını düşünüyorum

    • Doğru. Şirket ne kadar etik olursa olsun, satın alınırsa durum değişebilir. Ben bir SP500 şirketinde çalışıyorum ve şu an prod erişimi sıkı şekilde kontrol ediliyor. Ama şirketi Larry, Zuck ya da Bezos gibi biri satın alırsa ne olacağını bilemezsin
    • Görünüşe göre genel ilke “önce yap, sonra özür dile” olacak. ToS’yi değiştirmeden de pratikte bunu yapabilirler. Amazon’un zaten devasa bir şirket içi eğitim veri kümesi var
    • MS’in dizüstü bilgisayarımda yazdığım kodu yapay zeka eğitiminde kullanmasından endişe ediyorum. Eskiden komplo teorisi gibi gelen Linux kullanıcılarının güvensizliğini giderek daha iyi anlamaya başlıyorum
    • Evet, haklısın. İnsanların bunu bu kadar doğal karşılamaması sinir bozucu. Stallman hep haklıydı
    • Anahtarların doğrudan sahibi değilsen, bu uçtan uca şifreleme değildir. Saçmalığı bırakmak lazım
  • “Öyle değil” diyerek GitHub resmî blogu bağlantısını paylaşmış. Free, Pro, Pro+ Copilot kullanıcıları opt-out yapmazsa kullanım verileri model eğitiminde kullanılıyor. Business veya Pro aboneleri eğitime dahil edilmiyor. Copilot kullanmıyorsan etkilenmiyorsun. Şimdi önceden opt-out yaparsan ayar daha sonra da korunacak

    • Bloga göre toplanan veriler giriş, çıkış, kod bağlamı, yorumlar, dosya yapısı, geri bildirim vb. Ama ifade “katılmak istersen” değil, “katılmak istemiyorsan” şeklinde. Yani katılımı reddetmeyi kullanıcının bizzat yapması gereken bir düzen olduğu için buna kızıyorum. Mahremiyetimi korumak için çabayı benim harcamam adil değil
    • Ayrıntılı ifade fazla muğlak biçimde parçalanmış. Copilot girişleri, çıktıları ve kod bağlamını eğitimde kullanıyorsa, bu sonuçta private repo kodunun bir kısmının eğitim verisi olarak kullanıldığı anlamına gelir
    • Hem başlık hem yanıt fazla kapsamlı. 24 Nisan’dan itibaren Business/Pro olmayan kullanıcıların private repo’ları varsayılan olarak eğitime dahil ediliyor. Tüm repo’lar buna girmiyor ama dil seçimi dikkatli olmalı. “No we won’t” yerine “tam olarak doğru değil” daha uygun olurdu
    • Yine de bu hâlâ ciddi bir sorun. Kod LLM eğitimine girerse artık private değildir. “private repo” yazıp şartlarda küçük puntoda “açığa çıkabilir” demek yalan söylemektir
    • AB hukukunda opt-out yöntemi geçerli rıza sayılmaz. Bunu nasıl ele almayı planladıklarını merak ediyorum
  • Bu haberin başlığı yanlış anlaşılmaya açık. GitHub private repo’nun kendisini eğitmiyor; Copilot kullanımı sırasında ortaya çıkan etkileşim verilerini eğitiyor. Copilot kullanmıyorsan etkilenmiyorsun. Yine de kapatmakta fayda var

    • Peki ya katkıda bulunanlarımdan biri Copilot kullanıyorsa ne oluyor, bunu merak ediyorum
    • Ben de öyle anladım ama girdileri eğitiyorsa, kodun kendisini eğitmediğini garanti edemezsin. Mahkemede “yalnızca girdileri eğittik” diye savunabilirler
    • Bu tür ince ayrımlar sonuçta anlamsız. Şu an böyle olsa bile sonra gizlice değişebilir. Geliştiriciler sistemi anladıklarını sanıyor ama sonunda sürekli kandırılıyorlar
  • Teknik olarak opt-out, Copilot eğitim ayarı. Şimdiye kadar yalnızca public repo’lar opt-in idi ama 24 Nisan’dan itibaren private repo’lar da varsayılan olarak dahil olacak. Copilot’ı private repo’da kullanıyorsan github.com/settings/copilot üzerinden opt-out yapmanda fayda var. 30 saniye sürüyor

    • 30 saniye değil, 0 saniye olmalı. Zamanım bana ait ve mahremiyetimi korumak için neden zaman harcamam gerektiğini anlamıyorum
    • “30 saniye sürer” sözü gerçeklikten kopuk. Böyle bir bilgiyi öğrenmek için her gün HN taraman gerekiyor. Sonuçta anahtarın var olduğunu öğrenmek için 240 saat harcamış oluyorsun
    • Eskiden opt-in değildi. O zaman kullanım verilerini eğitim için kullanmıyorlardı. Yalnızca kurum içinde eğitim yapıyorlardı ve bunun sayesinde performans artışı olduğunu söylüyorlar. İlgili bilgi bu blog yazısında var
    • Ayar herkese görünmüyor. Copilot organizasyon düzeyinde yönetiliyorsa o seçenek kayboluyor. Organizasyondan ayrılırsan otomatik olarak yeniden opt-in olman da mümkün
  • Ekipte bir kişi bile opt-out yapmazsa Copilot’ın repo’nun tamamına erişip erişemeyeceğini merak ediyorum. Ekip arkadaşlarının ayar durumunu görmenin bir yolu var mı, onu da bilmek istiyorum

    • Bir ekip üyesinin kodu kopyalayıp prompt’a yapıştırmasını engelleyemediğin gibi, bu ayarı da kontrol edemezsin. MS açısından varsayılan opt-in çok daha kullanışlı
  • Şu anki ayar yalnızca kullanıcı bazında yapılabiliyor. Organizasyon genelinde topluca kapatmanın bir yolu olup olmadığını merak ediyorum. Tek bir kişi ayarı açsa bile organizasyonun kodu eğitim verisi sayılıyor mu diye endişeliyim

  • GitHub’ın banner duyurusunu düzenli olarak gösterdiğini kabul ediyorum. Ama ben de bu HN gönderisini görene kadar onu okumamıştım

    • Ama git’i sadece CLI ile kullanan biri bu banner’ı göremez
    • Banner’ı ya da e-postayı okusan bile, opt-out olmak için tam olarak hangi ayarın değiştirilmesi gerektiği açıkça yazmıyor. Sonunda kullanıcı kendisi bulmak zorunda kalıyor ve ancak daha sonra doğru ayarı yapıp yapmadığını anlıyor
    • Ben o banner’ı hiç görmedim. Nerede gösterildiğini merak ediyorum
    • Bir uygulamanın ayarları sıfırladığı ya da kaybettiği bir durumu ilk kez görüyorum
  • Private repo’mdaki kodlar tam bir dağınıklık, o yüzden endişelenecek bir şey yok. Hatta LLM benim kodumla eğitilirse zarara uğrar

    • Ben de katılıyorum. Çöp kodumla M$ yapay zekasını bozacağım
    • LLM’yi kirletmek bir tür direniş yöntemi olarak ilginç
  • GitHub’ı uzun süredir ücretli kullananlar arasında duyuruyu görmeyenler için üzücü

    • Ben de opt-out yönteminden hoşlanmıyorum ama şu anda GitHub’daki tüm sayfalarda banner duyurusu var ve e-posta da gönderdiler