- xAI geliştiricisinin GitHub'a özel bir LLM API anahtarını sızdırdığı ve bu nedenle iki ay boyunca herkesin dahili modellere erişebildiği ortaya çıktı
- Bu anahtar, Grok'un geliştirme sürümü ile SpaceX ve Tesla verileriyle eğitilmiş modeller dahil 60'tan fazla LLM'e erişim yetkisine sahipti
- GitGuardian iki ay önce uyarıda bulundu, ancak anahtar hâlâ geçerliydi ve ancak güvenlik ekibi doğruladıktan sonra GitHub'dan kaldırıldı
- Bu tür zayıf kimlik bilgisi yönetimi, yalnızca dahili geliştirme bilgilerinin açığa çıkması riskini değil, aynı zamanda tedarik zinciri saldırıları veya prompt injection olasılığını da barındırıyor
- Aynı zamanda DOGE organizasyonunun federal hükümet verilerini yapay zekaya aktardığına dair işaretlerin de ortaya çıkması, Musk bağlantılı yapay zeka güvenliğine yönelik endişeleri artırıyor
xAI'nin dahili LLM API anahtarı GitHub'a sızdı
- Elon Musk'ın yapay zeka şirketi xAI'de bir geliştirici, dahili LLM erişimi için kullanılan bir API anahtarını yanlışlıkla GitHub'da herkese açık hale getirdi
- Söz konusu anahtar, SpaceX, Tesla ve Twitter/X için özelleştirilmiş LLM'lere erişim yetkisi taşıyordu
Anahtarın sızma yolu ve görmezden gelinen uyarı
- Güvenlik danışmanlığı şirketi Seralys'den Philippe Caturegli, söz konusu anahtar sızıntısını ilk kez LinkedIn'de kamuya açık şekilde duyurdu
- GitGuardian, bu gönderi üzerinden anahtarı fark etti ve GitHub'ı sürekli izleme sonuçlarına dayanarak bir uyarı e-postası gönderdi
- 2 Mart'ta uyarı yapılmasına rağmen anahtar 30 Nisan'a kadar hâlâ geçerliydi ve depo ancak güvenlik ekibi durumu fark ettikten sonra silindi
Sızan anahtarın etkisi
- GitGuardian, bu anahtarın Grok'un açık ve kapalı modellerine erişebildiğini bildirdi
- Örnek:
grok-2.5V, research-grok-2p5v-1018, grok-spacex-2024-11-04, tweet-rejector vb.
- Anahtar, en az 60'tan fazla açıklanmamış ve fine-tune edilmiş LLM'e erişebiliyordu
Güvenlik uzmanlarının uyarısı
- GitGuardian CMO'su Carole Winqwist, saldırganların bu anahtar üzerinden şu tehditleri gerçekleştirebileceği uyarısında bulundu:
- prompt injection
- LLM manipülasyonu
- tedarik zinciri saldırılarının tetiklenmesi
- Bu sızıntı, xAI'nin iç güvenliğinde yetersiz denetim ve anahtar yaşam döngüsü yönetimi başarısızlığını gösteren bir örnek olarak değerlendirildi
Devlet kurumlarıyla bağlantı ve daha büyük endişeler
- Sızan anahtarın doğrudan hükümet verilerine bağlı olduğuna dair bir kanıt bulunmasa da, ilgili modellerin SpaceX, Twitter ve Tesla'nın dahili verileriyle eğitilmiş olma ihtimali yüksek
- Öte yandan Musk'ın öncülük ettiği DOGE (Department of Government Efficiency), halihazırda ABD federal hükümet verilerini yapay zekaya besliyor
- Eğitim Bakanlığı verilerinin yapay zekayla analiz edilmesi
- GSAi sohbet botunun federal kamu çalışanlarına dağıtılması
- Trump yönetimine destek verilip verilmediğini izlemek amacıyla yapay zeka kullanıldığına dair işaretler
- Bu durum, yapay zeka sistemlerini işletenlerin hassas verileri kontrol edebildiği yapıyı güçlendirdiği ve sızıntı riskini artırdığı anlamına geliyor
Sonuç ve güvenlik uyarısı
- Uzun süre açıkta kalan dahili kimlik bilgileri, geliştirici erişim kontrolü ve iç güvenlik operasyonlarındaki açıkları gösteren bir örnek niteliğinde
- Caturegli, bu olayın operasyonel güvenlik konusunda daha sıkı yönetime duyulan ihtiyacı hatırlatan bir uyarı olduğunu belirtti
1 yorum
Hacker News görüşleri
GitGuardian, xAI çalışanını API anahtarının açığa çıktığı konusunda uyardıktan sonra neredeyse iki ay geçmiş olmasına rağmen, söz konusu anahtar hâlâ geçerliydi
SpaceX veri LLM'inin açığa çıkması, ITAR ihlaline yol açabilecek büyük bir etken olabilir
Mutlak bir beceriksizlik
Elon'ın "yetenek" temelinde işe alım yaptığını söylemesi tabii ki çok anlamlı
Kişisel model
tweet-rejectorun ne için kullanıldığını daha çok merak ediyorumEn şaşırtıcı nokta, devlet yetkililerinin bazı ABD hükümeti çalışanlarına DOGE'nin yapay zekayı kullanarak en az bir federal kurumun iletişimlerini izlediğini söylemiş olması
Gazetecilerin, LLM'in API anahtarlarına sahip olunca veri enjekte edebileceklerini yanlış varsayması dikkat çekici
ex-AI geliştiricisi anlamına geliyor
[silinmiş]
[silinmiş]
[bildirildi]