- 24 Nisan 2026'dan itibaren Copilot Free·Pro·Pro+ kullanıcı verileri, AI modellerinin eğitimi ve iyileştirilmesi için kullanılacak; kullanıcılar bunu opt-out ayarı ile reddedebilecek
- Business ve Enterprise kullanıcıları bu değişiklikten etkilenmeyecek ve daha önce reddetme ayarı yapanların mevcut tercihi korunacak
- Eğitim verilerine, giriş kodu, çıktı sonuçları, imleç çevresindeki bağlam, geri bildirim değerlendirmeleri gibi gerçek geliştirme etkileşimi bilgileri dahil olacak
- Kurumsal depolar, özel içerik ve opt-out yapan kullanıcı verileri eğitimde kullanılmayacak; veriler yalnızca Microsoft gibi GitHub iştirakleriyle paylaşılacak
- GitHub, gerçek geliştirici etkileşim verilerinin doğruluk, güvenlik ve hata tespit yeteneğini artırmada kritik olduğunu belirtirken, geliştiricilerin gönüllü katılımını vurguluyor
GitHub Copilot etkileşim verisi kullanım politikasında güncelleme
- 24 Nisan 2026'dan itibaren Copilot Free, Pro, Pro+ kullanıcılarının etkileşim verileri (girdi, çıktı, kod parçacıkları, ilgili bağlam) AI modellerinin eğitimi ve iyileştirilmesinde kullanılacak
- Ancak kullanıcı opt-out yaparsa veriler eğitim için kullanılmayacak
- Copilot Business ve Enterprise kullanıcıları bu değişiklikten etkilenmeyecek
- Daha önce veri toplama reddi ayarı yapan kullanıcıların mevcut tercihi korunacak ve açıkça onay vermedikleri sürece verileri eğitime dahil edilmeyecek
- GitHub, bu değişikliğin sektör standardı uygulamalarla uyumlu olduğunu ve modelin doğruluk, güvenlik ve hata tespit yeteneğini artırmaya katkı sağladığını belirtiyor
- Kullanıcılar, ayarlar sayfasındaki Privacy bölümünden istedikleri zaman katılım durumunu değiştirebilir
Gerçek veriye dayalı eğitimin gerekliliği
- İlk Copilot modelleri, herkese açık veriler ve elle hazırlanmış kod örnekleri temel alınarak oluşturuldu
- Daha sonra Microsoft çalışanlarının etkileşim verileri de eğitime dahil edildi ve çeşitli programlama dillerinde kabul oranında (acceptance rate) artış gibi anlamlı iyileşmeler görüldü
- GitHub, bu sonuçlara dayanarak çeşitli gerçek kullanım senaryolarını yansıtmak için gerçek geliştirici etkileşim verilerini eğitime dahil etmeye karar verdi
Toplanan ve kullanılan veri kalemleri
- Model eğitiminde kullanılabilecek veriler şunlar:
- Kullanıcının kabul ettiği veya değiştirdiği çıktı sonuçları
- Copilot'a girilen kod parçacıkları ve istek içerikleri
-
İmleç çevresindeki kod bağlamı
- Kullanıcının yazdığı yorumlar ve dokümantasyon içerikleri
-
Dosya adları, depo yapısı ve gezinme kalıpları
- Copilot özellikleriyle etkileşimler (sohbet, satır içi öneriler vb.)
- Önerilere verilen geri bildirimler (beğenme/beğenmeme değerlendirmeleri)
Eğitime dahil edilmeyen veriler
- Aşağıdaki veriler model eğitiminde kullanılmayacak:
- Copilot Business, Enterprise ve şirkete ait depoların etkileşim verileri
- Opt-out yapan kullanıcıların verileri
- Issue, discussion ve kullanılmadığı sırada özel (private at rest) depoların içerikleri
- Ancak Copilot kullanımı sırasında özel depolardaki kodlar, hizmetin çalıştırılması için işlenebilir ve opt-out yapılmamışsa eğitime dahil edilebilir
Veri paylaşımı ve güvenlik kapsamı
- Toplanan veriler GitHub iştirakleriyle (ör. Microsoft) paylaşılabilir
- Ancak üçüncü taraf AI model sağlayıcıları veya harici hizmet sağlayıcılarıyla paylaşılmayacak
- GitHub, AI destekli geliştirmenin ilerlemesinin gerçek geliştirici etkileşim verilerine bağlı olduğunu vurguluyor ve
Microsoft ile GitHub çalışanlarının verilerini halihazırda model eğitiminde kullandığını belirtiyor
Kullanıcı seçimi ve etkisi
- Kullanıcı verilerini paylaşmayı kabul ederse, model geliştirme iş akışını daha iyi anlama, daha doğru ve güvenli kod önerileri, hataları önceden tespit etme yeteneğinin güçlenmesi gibi iyileştirmeler kazanacak
- Katılmayan kullanıcılar da Copilot'un mevcut AI özelliklerini kullanmaya devam edebilecek
- GitHub, geliştirici topluluğunun genel kalitesini artırmak için gönüllü katılımı memnuniyetle karşıladığını belirtiyor; ilgili sorular için SSS ve topluluk tartışması sayfasına bakılabilir
1 yorum
Hacker News görüşleri
GitHub ayarlarında “Allow GitHub to use my data for AI model training” seçeneğine bakınca, açıp kapatabiliyorsunuz
Ama bunun sanki “özellik erişimi” gibi paketlenmiş olması komik
Verileri bedavaya vermeyi bir avantajmış gibi sunmaları biraz ironik
GCS bucket oluştururkenki “public access prevention” onay kutusu kadar kafa karıştırıcı değil
Kişisel hesabımda bilerek kullanmıyorum; buna rağmen neden kayıt düştüğünü bilmiyorum
Aslında olan şey verilerimi teslim etmem, ama sanki bir şey kaybediyormuşum gibi hissettirecek şekilde yazılmış
24 Nisan’dan itibaren GitHub Copilot etkileşim verilerinin yapay zeka eğitimi için kullanılacağı duyuruldu
Varsayılan olarak etkin geliyor, yani elle kapatmanız gerekiyor
Ayarlar sayfası bağlantısı
Business hesaplarda da varsayılan olarak açık olup olmadığını merak ediyorum. Öyleyse oldukça şüpheli bir politika
Blog yazısında devre dışı bırakma bağlantısının da olmaması hoş değil
Kapatmak için şu yol → Privacy → “Allow GitHub to use my data for AI model training” → Disabled olarak ayarlanmalı
kurumsal müşterilerin verileri sözleşme gereği eğitimde kullanılmıyor ve kontrol yalnızca bireysel kullanıcılarda
Müşteri kodunun eğitimde kullanılmamasını şart koşan iç politikalar var
Copilot’un API anahtarı veya parola gibi hassas dosyaları yok saymasını sağlamanın bir yolu yok
IDE’yi açtığınız anda bu bilgiler Microsoft’a gönderilebilir
İlgili tartışma bağlantısı
Ama iki ayrı istisna ayarı var ve ikisi de çalışmıyor
PR gönderince yalnızca bot yanıt veriyor, insanlar bakmıyor
Üstelik Gemini 3, açık kaynak kodu refactor ederken bunu orijinal geliştiricinin niyetine aykırı sayarsa kod üretmeyi reddediyor
Ücretli kullanıcılar için varsayılanın opt-out değil opt-in olması gerektiğini düşünüyorum
GitHub’dan Mario Rodriguez(@mariorod)’un böyle bir karar vermesini anlamıyorum
GitHub ve yapay zeka dönemi başladıktan sonra tüm kodumu kendi sunucumdaki private git repo’lara taşıdım
Açık kaynak lisansı üzerine kafa yormamı gerektirecek bir neden kalmadı
Kodumun ticari yapay zeka eğitimi için kullanılmasına izin vermeyi düşünmüyorum
Gerçekten ciddi şekilde açık kaynak yapmak istiyorsanız, Codeberg’e taşınmanın zamanı gelmiş olabilir
Mevcut açık kaynak projeleri yalnızca bakım modunda tutuyorum, yeni projeleri ise sadece SaaS ya da binary olarak dağıtıyorum
Bunun yerine dil ve OS projelerine katkı veriyor, model yeniden eğitimi ihtiyacını da hissediyorum
AB’de bu politikanın hukuki dayanağının ne olduğu merak ediliyor
Toplanan veriler kişisel tanımlayıcı bilgi (PII) içerebilir ve GDPR’a göre
“özgür iradeyle verilmiş ve açık rıza” gerekir
Test için bir satır koda telefon numaramı yazıp bu veri Copilot’a gönderilse hukuki yola başvurabilirim
“Bu yaklaşım sektör standardıyla uyumlu” denmesi aslında “başkaları da yapıyor, o halde sorun yok” mantığı
Sonuçta GitHub sanki tüm kullanıcıların kod tabanlarının tamamını saklamak istiyor gibi görünüyor
Copilot’un kullandığı verilerin Microsoft iştiraklerinin geneliyle paylaşılabileceğine dair bir ifade var
Copilot aboneliğini iptal etme seçeneği görünmüyor
Mobil ödeme ayarları bağlantısında da yok
Resmî belgelere göre
öğrenci, öğretmen veya açık kaynak bakımcısı olarak ücretsiz erişim aldıysanız iptal edemiyorsunuz
Yine de GitHub bu değişikliği gizlemeye çalışmadı ve opt-out sürecini açıkça paylaştı
Tipik bir dark pattern hissi veriyor
Android uygulamasında ayarlar sayfasını bulmak zor, ayrıca sayfa düzgün çalışmıyor