1 puan yazan GN⁺ 2026-03-28 | 1 yorum | WhatsApp'ta paylaş
  • 24 Nisan 2026'dan itibaren Copilot Free·Pro·Pro+ kullanıcı verileri, AI modellerinin eğitimi ve iyileştirilmesi için kullanılacak; kullanıcılar bunu opt-out ayarı ile reddedebilecek
  • Business ve Enterprise kullanıcıları bu değişiklikten etkilenmeyecek ve daha önce reddetme ayarı yapanların mevcut tercihi korunacak
  • Eğitim verilerine, giriş kodu, çıktı sonuçları, imleç çevresindeki bağlam, geri bildirim değerlendirmeleri gibi gerçek geliştirme etkileşimi bilgileri dahil olacak
  • Kurumsal depolar, özel içerik ve opt-out yapan kullanıcı verileri eğitimde kullanılmayacak; veriler yalnızca Microsoft gibi GitHub iştirakleriyle paylaşılacak
  • GitHub, gerçek geliştirici etkileşim verilerinin doğruluk, güvenlik ve hata tespit yeteneğini artırmada kritik olduğunu belirtirken, geliştiricilerin gönüllü katılımını vurguluyor

GitHub Copilot etkileşim verisi kullanım politikasında güncelleme

  • 24 Nisan 2026'dan itibaren Copilot Free, Pro, Pro+ kullanıcılarının etkileşim verileri (girdi, çıktı, kod parçacıkları, ilgili bağlam) AI modellerinin eğitimi ve iyileştirilmesinde kullanılacak
    • Ancak kullanıcı opt-out yaparsa veriler eğitim için kullanılmayacak
    • Copilot Business ve Enterprise kullanıcıları bu değişiklikten etkilenmeyecek
  • Daha önce veri toplama reddi ayarı yapan kullanıcıların mevcut tercihi korunacak ve açıkça onay vermedikleri sürece verileri eğitime dahil edilmeyecek
  • GitHub, bu değişikliğin sektör standardı uygulamalarla uyumlu olduğunu ve modelin doğruluk, güvenlik ve hata tespit yeteneğini artırmaya katkı sağladığını belirtiyor
  • Kullanıcılar, ayarlar sayfasındaki Privacy bölümünden istedikleri zaman katılım durumunu değiştirebilir

Gerçek veriye dayalı eğitimin gerekliliği

  • İlk Copilot modelleri, herkese açık veriler ve elle hazırlanmış kod örnekleri temel alınarak oluşturuldu
  • Daha sonra Microsoft çalışanlarının etkileşim verileri de eğitime dahil edildi ve çeşitli programlama dillerinde kabul oranında (acceptance rate) artış gibi anlamlı iyileşmeler görüldü
  • GitHub, bu sonuçlara dayanarak çeşitli gerçek kullanım senaryolarını yansıtmak için gerçek geliştirici etkileşim verilerini eğitime dahil etmeye karar verdi

Toplanan ve kullanılan veri kalemleri

  • Model eğitiminde kullanılabilecek veriler şunlar:
    • Kullanıcının kabul ettiği veya değiştirdiği çıktı sonuçları
    • Copilot'a girilen kod parçacıkları ve istek içerikleri
    • İmleç çevresindeki kod bağlamı

      • Kullanıcının yazdığı yorumlar ve dokümantasyon içerikleri
    • Dosya adları, depo yapısı ve gezinme kalıpları

      • Copilot özellikleriyle etkileşimler (sohbet, satır içi öneriler vb.)
      • Önerilere verilen geri bildirimler (beğenme/beğenmeme değerlendirmeleri)

Eğitime dahil edilmeyen veriler

  • Aşağıdaki veriler model eğitiminde kullanılmayacak:
    • Copilot Business, Enterprise ve şirkete ait depoların etkileşim verileri
    • Opt-out yapan kullanıcıların verileri
    • Issue, discussion ve kullanılmadığı sırada özel (private at rest) depoların içerikleri
      • Ancak Copilot kullanımı sırasında özel depolardaki kodlar, hizmetin çalıştırılması için işlenebilir ve opt-out yapılmamışsa eğitime dahil edilebilir

Veri paylaşımı ve güvenlik kapsamı

  • Toplanan veriler GitHub iştirakleriyle (ör. Microsoft) paylaşılabilir
  • Ancak üçüncü taraf AI model sağlayıcıları veya harici hizmet sağlayıcılarıyla paylaşılmayacak
  • GitHub, AI destekli geliştirmenin ilerlemesinin gerçek geliştirici etkileşim verilerine bağlı olduğunu vurguluyor ve Microsoft ile GitHub çalışanlarının verilerini halihazırda model eğitiminde kullandığını belirtiyor

Kullanıcı seçimi ve etkisi

  • Kullanıcı verilerini paylaşmayı kabul ederse, model geliştirme iş akışını daha iyi anlama, daha doğru ve güvenli kod önerileri, hataları önceden tespit etme yeteneğinin güçlenmesi gibi iyileştirmeler kazanacak
  • Katılmayan kullanıcılar da Copilot'un mevcut AI özelliklerini kullanmaya devam edebilecek
  • GitHub, geliştirici topluluğunun genel kalitesini artırmak için gönüllü katılımı memnuniyetle karşıladığını belirtiyor; ilgili sorular için SSS ve topluluk tartışması sayfasına bakılabilir

1 yorum

 
GN⁺ 2026-03-28
Hacker News görüşleri
  • GitHub ayarlarında “Allow GitHub to use my data for AI model training” seçeneğine bakınca, açıp kapatabiliyorsunuz
    Ama bunun sanki “özellik erişimi” gibi paketlenmiş olması komik
    Verileri bedavaya vermeyi bir avantajmış gibi sunmaları biraz ironik

    • İfadenin kendisi en azından kafa karıştırıcı değil
      GCS bucket oluştururkenki “public access prevention” onay kutusu kadar kafa karıştırıcı değil
    • Copilot ile ilgili tüm özellikleri kapatmama rağmen Copilot Chat usage %2 görünüyor, bu da şaşırtıcı
      Kişisel hesabımda bilerek kullanmıyorum; buna rağmen neden kayıt düştüğünü bilmiyorum
    • “Özellik erişimi” ifadesi fazla manipülatif geliyor
      Aslında olan şey verilerimi teslim etmem, ama sanki bir şey kaybediyormuşum gibi hissettirecek şekilde yazılmış
    • Belki de verilerimle model yeniden eğitilir ve ileride bana da biraz faydası olur; “avantaj” denilen şey bu olabilir
    • Sonuçta o “özellik”, benim kodlama stilimin bir sonraki modele yansımasından ibaret
  • 24 Nisan’dan itibaren GitHub Copilot etkileşim verilerinin yapay zeka eğitimi için kullanılacağı duyuruldu
    Varsayılan olarak etkin geliyor, yani elle kapatmanız gerekiyor
    Ayarlar sayfası bağlantısı
    Business hesaplarda da varsayılan olarak açık olup olmadığını merak ediyorum. Öyleyse oldukça şüpheli bir politika

    • Varsayılanın açık olmasına inanmak zor
      Blog yazısında devre dışı bırakma bağlantısının da olmaması hoş değil
      Kapatmak için şu yol → Privacy → “Allow GitHub to use my data for AI model training” → Disabled olarak ayarlanmalı
    • Resmî topluluk yanıtına göre,
      kurumsal müşterilerin verileri sözleşme gereği eğitimde kullanılmıyor ve kontrol yalnızca bireysel kullanıcılarda
    • Business kullanıcıları için de varsayılan opt-in ise bu güvenlik ve gizlilik politikası ihlali olur
      Müşteri kodunun eğitimde kullanılmamasını şart koşan iç politikalar var
    • Copilot Business veya Enterprise müşterilerinin verilerinin eğitimde kullanılmadığı doğrulandı
    • Blogda da “Business ve Enterprise kullanıcıları bu değişiklikten etkilenmiyor” diye açıkça yazıyor
  • Copilot’un API anahtarı veya parola gibi hassas dosyaları yok saymasını sağlamanın bir yolu yok
    IDE’yi açtığınız anda bu bilgiler Microsoft’a gönderilebilir
    İlgili tartışma bağlantısı

    • Gemini CLI, ‘AUTH’ gibi dizeler içeren ortam değişkenlerini engelliyor
      Ama iki ayrı istisna ayarı var ve ikisi de çalışmıyor
      PR gönderince yalnızca bot yanıt veriyor, insanlar bakmıyor
      Üstelik Gemini 3, açık kaynak kodu refactor ederken bunu orijinal geliştiricinin niyetine aykırı sayarsa kod üretmeyi reddediyor
    • Aslında hassas dosyaları depoda tutmak başlı başına sorun
    • Bu sorun yalnızca Copilot’ta değil, OpenAI Codex issue içinde de tekrar ediyor
    • Enterprise ya da organizasyon düzeyinde ignore path ayarlanabildiğini hatırlıyorum
  • Ücretli kullanıcılar için varsayılanın opt-out değil opt-in olması gerektiğini düşünüyorum
    GitHub’dan Mario Rodriguez(@mariorod)’un böyle bir karar vermesini anlamıyorum

    • README’sine bakınca ana ilgi alanlarının “narrative shaping” ve ‘How we Work’ dönüşümü olduğu görülüyor; bu yaklaşım da onun devamı gibi
  • GitHub ve yapay zeka dönemi başladıktan sonra tüm kodumu kendi sunucumdaki private git repo’lara taşıdım
    Açık kaynak lisansı üzerine kafa yormamı gerektirecek bir neden kalmadı
    Kodumun ticari yapay zeka eğitimi için kullanılmasına izin vermeyi düşünmüyorum
    Gerçekten ciddi şekilde açık kaynak yapmak istiyorsanız, Codeberg’e taşınmanın zamanı gelmiş olabilir

    • Ben de aynı kararı aldım
      Mevcut açık kaynak projeleri yalnızca bakım modunda tutuyorum, yeni projeleri ise sadece SaaS ya da binary olarak dağıtıyorum
      Bunun yerine dil ve OS projelerine katkı veriyor, model yeniden eğitimi ihtiyacını da hissediyorum
    • Muhtemelen GitHub TOS içinde hizmetin işletilmesi için bir lisans istisnası maddesi vardır
    • Şu anda Forgejo’yu self-hosted kullanıyorum, runner’ları kendi donanımımda çalıştırıyorum ve memnunum
  • AB’de bu politikanın hukuki dayanağının ne olduğu merak ediliyor
    Toplanan veriler kişisel tanımlayıcı bilgi (PII) içerebilir ve GDPR’a göre
    “özgür iradeyle verilmiş ve açık rıza” gerekir

    • GDPR, varsayılanın opt-out olmasını yasaklar
      Test için bir satır koda telefon numaramı yazıp bu veri Copilot’a gönderilse hukuki yola başvurabilirim
    • GitHub ayarlarımda bu seçenek hiç yok; acaba yalnızca ABD kullanıcıları için mi geçerli diye düşündürüyor
  • “Bu yaklaşım sektör standardıyla uyumlu” denmesi aslında “başkaları da yapıyor, o halde sorun yok” mantığı

    • Ama Anthropic opt-in yöntemi kullanıyor ve etkinleştirince indirim avantajı bile veriyor
  • Sonuçta GitHub sanki tüm kullanıcıların kod tabanlarının tamamını saklamak istiyor gibi görünüyor
    Copilot’un kullandığı verilerin Microsoft iştiraklerinin geneliyle paylaşılabileceğine dair bir ifade var

  • Copilot aboneliğini iptal etme seçeneği görünmüyor
    Mobil ödeme ayarları bağlantısında da yok
    Resmî belgelere göre
    öğrenci, öğretmen veya açık kaynak bakımcısı olarak ücretsiz erişim aldıysanız iptal edemiyorsunuz

  • Yine de GitHub bu değişikliği gizlemeye çalışmadı ve opt-out sürecini açıkça paylaştı

    • Ama e-postada doğrudan bağlantı yok, ayarın adı da açıkça yazmıyor
      Tipik bir dark pattern hissi veriyor
    • Pratikte opt-out o kadar da kolay değil
      Android uygulamasında ayarlar sayfasını bulmak zor, ayrıca sayfa düzgün çalışmıyor