5 puan yazan princox 4 시간 전 | 3 yorum | WhatsApp'ta paylaş

"Claude %90 indirimli" teklifinin ardındaki gerçek ortaya çıktı: AI eğitim verisi hırsızlığı için bir kanal
Merhaba. Bugün hem ilgi çekici hem de endişe verici bir haberi paylaşalım. Anthropic'in üretken yapay zeka modeli Claude'un, Çin kara pazarında resmi fiyatın yaklaşık %10'u seviyesinde, yani %90 indirimli olarak dağıtıldığı ortaya çıktı. Bu sadece yasa dışı yeniden satış olsaydı belki geçiştirilebilirdi, ancak asıl sorunun başka olduğu söyleniyor. Kullanıcıların prompt verilerini çekip başka yapay zeka modellerinin eğitimi için bir varlık olarak kullanan bir kanal olarak işlev gördüğü belirtiliyor.
%90 indirim nasıl mümkün oldu?
Oxford Çin Politika Araştırmaları Enstitüsü'nden araştırmacı Zhilan Chen'in yakın zamanda yayımladığı "API Proxy Economy" bulgularına göre, yerelde "aktarma istasyonu" olarak adlandırılan proxy ağları GitHub, Telegram, Taobao gibi platformlarda neredeyse açık biçimde faaliyet gösteriyor.
Fiyatı bu kadar düşürmek için kullanılan yöntemler genel olarak şöyle:

Toplu şekilde ücretsiz deneme hesabı açıp API yetkilerini yeniden satmak
Çalıntı kredi kartlarıyla ücretli planlara kayıt olup erişim yetkisini dağıtmak
Aylık 200 dolar seviyesindeki Max planını birden çok kullanıcıya bölerek satmak
Bir adım öteye geçen "model değiştirme" yöntemi — kullanıcılar en üst düzey model Claude Opus'u kullandığını sanıyor, ancak gerçekte daha ucuz Haiku ya da açık kaynak bir modelden yanıt gönderildiği örnekler de tespit edildi

Performans yarısına bile ulaşamadı
Almanya'daki CISPA Helmholtz Bilgi Güvenliği Merkezi araştırmacılarının 17 proxy hizmetini analiz ettiği sonuçlara göre, tıp alanındaki benchmark ölçütünde resmi API yaklaşık %84 doğruluk oranı gösterirken proxy hizmetleri %37 seviyesinde kaldı. Fiyattan tasarruf edildikçe ortaya çıkan sonucun kalitesinin de ciddi biçimde düştüğü nesnel verilerle ortaya konmuş oldu.
Asıl hedef "prompt verisi" idi
Sektörün daha ciddi gördüğü nokta başka. Proxy işletmecilerinin kullanıcıların prompt'larını, yapay zekanın yanıtlarını ve hatta akıl yürütme sürecini (Chain of Thought, CoT) tamamen kaydedip bunları işleyerek eğitim veri seti olarak sattığı belirtiliyor.
Düşünüldüğünde, ileri seviye yapay zeka kullanıcılarının özenle rafine ettiği prompt'lar ve düşünce zinciri verileri, model performansını geliştirmek için son derece değerli bir varlık. Son dönemde Çinli yapay zeka modellerinin akıl yürütme yeteneğinin hızla yükselmesinin arkasında da bu tür veri edinme yapısının kısmen etkili olduğu yönünde analizler bulunuyor.
Anthropic de bu yıl şubat ayında, DeepSeek, Moonshot AI, MiniMax gibi Çinli şirketlerle bağlantılı olduğu tahmin edilen sahte yaklaşık 24.000 hesaptan 16 milyondan fazla sorgu üretildiğini açıklamıştı.
Kaynak kod sızıntısı gibi daha büyük bir gölge
Güvenlik tarafındaki endişeler de birlikte büyüyor. Günümüzde geliştiriciler, AI coding agent'lara yalnızca kaynak kodu değil, API yapısı ve iç kimlik doğrulama bilgilerini de birlikte girerek kullanabiliyor. Ancak doğrulanmamış proxy sunucularından geçildiğinde, şirketin iç bilgilerinin de aynen dış sunuculara akma riski bulunduğu belirtiliyor.
Araştırmacı Chen, "Doğrulanmamış proxy üzerinden AI hizmeti kullanmak, fiilen gizli verileri üçüncü taraf bir sunucuya göndermekten farksız" dedi.
Sonuç olarak
Bu örnek, basit bir yasa dışı dağıtım sorununun ötesinde, yapay zeka çağında yeni bir "veri hırsızlığı pazarı" oluştuğunu göstermesi açısından önemli. Ucuz bir API gateway dikkat çekiyorsa, arka planda neler olup bittiğini en azından bir kez sorgulamak gerektiğini düşündürüyor. Özellikle coding agent'larla şirket kodu üzerinde çalışıyorsanız, trafiğin nereye aktığını yeniden kontrol etmenizde fayda var.
Kaynak: KMJ — https://www.kmjournal.net/news/articleView.html?idxno=11241

3 yorum

 
recast7838 2 시간 전

Vay be

 
duddnd649 2 시간 전

Vay canına..

 
ligion 3 시간 전

Tam da hak etmiş