4 puan yazan GN⁺ 2025-05-03 | 1 yorum | WhatsApp'ta paylaş
  • xAI geliştiricisinin GitHub'a özel bir LLM API anahtarını sızdırdığı ve bu nedenle iki ay boyunca herkesin dahili modellere erişebildiği ortaya çıktı
  • Bu anahtar, Grok'un geliştirme sürümü ile SpaceX ve Tesla verileriyle eğitilmiş modeller dahil 60'tan fazla LLM'e erişim yetkisine sahipti
  • GitGuardian iki ay önce uyarıda bulundu, ancak anahtar hâlâ geçerliydi ve ancak güvenlik ekibi doğruladıktan sonra GitHub'dan kaldırıldı
  • Bu tür zayıf kimlik bilgisi yönetimi, yalnızca dahili geliştirme bilgilerinin açığa çıkması riskini değil, aynı zamanda tedarik zinciri saldırıları veya prompt injection olasılığını da barındırıyor
  • Aynı zamanda DOGE organizasyonunun federal hükümet verilerini yapay zekaya aktardığına dair işaretlerin de ortaya çıkması, Musk bağlantılı yapay zeka güvenliğine yönelik endişeleri artırıyor

xAI'nin dahili LLM API anahtarı GitHub'a sızdı

  • Elon Musk'ın yapay zeka şirketi xAI'de bir geliştirici, dahili LLM erişimi için kullanılan bir API anahtarını yanlışlıkla GitHub'da herkese açık hale getirdi
  • Söz konusu anahtar, SpaceX, Tesla ve Twitter/X için özelleştirilmiş LLM'lere erişim yetkisi taşıyordu

Anahtarın sızma yolu ve görmezden gelinen uyarı

  • Güvenlik danışmanlığı şirketi Seralys'den Philippe Caturegli, söz konusu anahtar sızıntısını ilk kez LinkedIn'de kamuya açık şekilde duyurdu
  • GitGuardian, bu gönderi üzerinden anahtarı fark etti ve GitHub'ı sürekli izleme sonuçlarına dayanarak bir uyarı e-postası gönderdi
  • 2 Mart'ta uyarı yapılmasına rağmen anahtar 30 Nisan'a kadar hâlâ geçerliydi ve depo ancak güvenlik ekibi durumu fark ettikten sonra silindi

Sızan anahtarın etkisi

  • GitGuardian, bu anahtarın Grok'un açık ve kapalı modellerine erişebildiğini bildirdi
    • Örnek: grok-2.5V, research-grok-2p5v-1018, grok-spacex-2024-11-04, tweet-rejector vb.
  • Anahtar, en az 60'tan fazla açıklanmamış ve fine-tune edilmiş LLM'e erişebiliyordu

Güvenlik uzmanlarının uyarısı

  • GitGuardian CMO'su Carole Winqwist, saldırganların bu anahtar üzerinden şu tehditleri gerçekleştirebileceği uyarısında bulundu:
    • prompt injection
    • LLM manipülasyonu
    • tedarik zinciri saldırılarının tetiklenmesi
  • Bu sızıntı, xAI'nin iç güvenliğinde yetersiz denetim ve anahtar yaşam döngüsü yönetimi başarısızlığını gösteren bir örnek olarak değerlendirildi

Devlet kurumlarıyla bağlantı ve daha büyük endişeler

  • Sızan anahtarın doğrudan hükümet verilerine bağlı olduğuna dair bir kanıt bulunmasa da, ilgili modellerin SpaceX, Twitter ve Tesla'nın dahili verileriyle eğitilmiş olma ihtimali yüksek
  • Öte yandan Musk'ın öncülük ettiği DOGE (Department of Government Efficiency), halihazırda ABD federal hükümet verilerini yapay zekaya besliyor
    • Eğitim Bakanlığı verilerinin yapay zekayla analiz edilmesi
    • GSAi sohbet botunun federal kamu çalışanlarına dağıtılması
    • Trump yönetimine destek verilip verilmediğini izlemek amacıyla yapay zeka kullanıldığına dair işaretler
  • Bu durum, yapay zeka sistemlerini işletenlerin hassas verileri kontrol edebildiği yapıyı güçlendirdiği ve sızıntı riskini artırdığı anlamına geliyor

Sonuç ve güvenlik uyarısı

  • Uzun süre açıkta kalan dahili kimlik bilgileri, geliştirici erişim kontrolü ve iç güvenlik operasyonlarındaki açıkları gösteren bir örnek niteliğinde
  • Caturegli, bu olayın operasyonel güvenlik konusunda daha sıkı yönetime duyulan ihtiyacı hatırlatan bir uyarı olduğunu belirtti

1 yorum

 
GN⁺ 2025-05-03
Hacker News görüşleri
  • GitGuardian, xAI çalışanını API anahtarının açığa çıktığı konusunda uyardıktan sonra neredeyse iki ay geçmiş olmasına rağmen, söz konusu anahtar hâlâ geçerliydi

    • xAI, GitGuardian'dan sorunu HackerOne'ın bug bounty programı üzerinden bildirmesini istedi, ancak birkaç saat sonra API anahtarını içeren depo GitHub'dan kaldırıldı
    • Güvenlik ekibinin bildirimi HackerOne programına yönlendirmesi şaşırtıcı
    • Sonunda sorunu çözebilecek kişiye iletilmiş olması sevindirici
  • SpaceX veri LLM'inin açığa çıkması, ITAR ihlaline yol açabilecek büyük bir etken olabilir

  • Mutlak bir beceriksizlik

    • Yalnızca geliştiriciler değil, tüm kurumlar API anahtarı sızıntılarını sürekli olarak taramalı
    • Tek bir hata, birden fazla hataya işaret eder
  • Elon'ın "yetenek" temelinde işe alım yaptığını söylemesi tabii ki çok anlamlı

  • Kişisel model tweet-rejectorun ne için kullanıldığını daha çok merak ediyorum

  • En şaşırtıcı nokta, devlet yetkililerinin bazı ABD hükümeti çalışanlarına DOGE'nin yapay zekayı kullanarak en az bir federal kurumun iletişimlerini izlediğini söylemiş olması

    • İş yerinde mahremiyet beklenemeyeceğini anlıyorum, ancak işverenin özünde düşünce suçunu gözetliyor olması korkunç
    • Fikir ayrılığı sağlıklı bir şey değil mi?
  • Gazetecilerin, LLM'in API anahtarlarına sahip olunca veri enjekte edebileceklerini yanlış varsayması dikkat çekici

    • İnsanlar hâlâ LLM'lerin nasıl çalıştığını bilmiyor ve API düzeyinde etkileşime girerek onları eğitebileceklerini sanıyor
  • ex-AI geliştiricisi anlamına geliyor

  • [silinmiş]

  • [silinmiş]

  • [bildirildi]