- NIST’in Eylül 2025’te yayımladığı DeepSeek yapay zeka model değerlendirme raporu, tarafsız bir teknik değerlendirme değil, siyasi amaçlı bir belge olup, gerçek güvenlik tehditlerine dair kanıt sunmadan Çin menşeli açık kaynak yapay zekayı bastırma niyeti taşıyor
- Raporda DeepSeek modeline ilişkin arka kapı, casus yazılım veya veri sızıntısına dair hiçbir kanıt sunulamıyor; yalnızca güvenlik ayarlarının daha az yapılmış olması nedeniyle jailbreak’e daha açık olduğu ve Çin hükümetinin bakış açısını yansıttığı belirtiliyor
- DeepSeek, Apache 2.0 lisansı altında model ağırlıklarını, mimarisini ve eğitim metodolojisini tamamen açık biçimde paylaşarak açık yapay zeka araştırmalarına büyük katkı sundu; buna rağmen ABD hükümeti bunu “düşmanca yapay zeka” olarak tanımlıyor
- NIST, yerel çalıştırma ile API kullanımını kasten birbirine karıştırıyor; diğer açık kaynak modellerle karşılaştırma yapmıyor ve ABD modellerinin önyargı testlerini atlayarak yanlı bir metodoloji kullanıyor
- Bu rapor, açık kaynak yapay zekanın rekabet gücünü kanıtlayan DeepSeek’i bastırarak ABD’li yapay zeka şirketlerinin tekelci konumunu korumayı amaçlayan bir sanayi politikasının parçası; bilimsel tarafsızlıktan çok ticari ve stratejik çıkarlara öncelik veriyor
NIST’in DeepSeek değerlendirme raporunun özü
- NIST’in 30 Eylül 2025 tarihli DeepSeek raporu tarafsız bir teknik değerlendirme değil, siyasi bir saldırı belgesi
- Arka kapı, casus yazılım veya veri sızıntısına ilişkin hiçbir kanıt yok
- ABD hükümetinin korku ve yanlış bilgi kullanarak açık bilimi, açık araştırmayı ve açık kaynağı engelleme girişimi
- Kurumsal gücü korumak ve denetimi sürdürmek için insanlığa katkı sunan bir çalışmaya siyaset ve yalanlarla saldırı
- Raporun yayımlanmasının ardından internette panik oluştu
- DeepSeek ağırlıklarının bozulduğu iddiası
- Çin’in model üzerinden casusluk yaptığı iddiası
- İndirmenin kendisinin güvenlik riski olduğu iddiası
- Bu iddiaların tamamı yanlış
DeepSeek’in gerçek başarıları
- Rekabetçi yapay zeka modelleri geliştirmesi
- OpenAI ya da Anthropic’ten çok daha düşük bütçeyle öncü seviye performansa ulaşması
- Kusursuz değil, ancak bütçesine kıyasla etkileyici bir sonuç
- Apache 2.0 lisansı altında tamamen açık olması
- Model ağırlıkları
- Mimari
- Eğitim metodolojisi
- Araştırma makaleleri
- Herkesin çalışmayı yeniden üretmesini ve öncü ölçekli modelleri yerelde çalıştırmasını mümkün kılması
- Her şeyi sıfırdan yeniden icat etmeye gerek kalmamasını sağlaması
- Son yıllarda açık yapay zeka araştırmalarına yapılmış en büyük katkılardan biri
- ABD hükümetinin tepkisi: bunu “düşmanca yapay zeka” diye damgalamak ve casusluk ima etmek
NIST’in temel yanıltma stratejisi
- Üç senaryonun kasıtlı olarak birbirine karıştırılması
- Senaryo A: DeepSeek uygulaması/API’si kullanıldığında prompt’ların Çin’deki sunuculara gönderilmesi (gerçek bir veri egemenliği sorunu)
- Senaryo B: Açık ağırlıkların indirilip yerelde çalıştırılması durumunda verinin cihaz dışına çıkmaması
- Senaryo C: OpenRouter, Fireworks, Chutes gibi güvenilir üçüncü taraf servislerde barındırıldığında altyapı ve gizlilik denetiminin barındırma sağlayıcısına bağlı olması
- NIST bu tamamen farklı durumları kasıtlı olarak tek potada eritiyor
- Yerel indirmeleri sayarken “ulusal güvenlik riski” uyarısı yapıyor
- Temel teknik bilgiye sahip herkes bunun yanıltıcı olduğunu anlayabilir
- Bu karışıklık, raporun geri kalanındaki yanıltıcı çerçevenin temelini oluşturuyor
NIST’in gerçekte bulduğu şey
- Sansasyonel dili çıkarınca geriye kalanlar
- DeepSeek modelinin ABD’nin güvenlik ayarı yapılmış modellerine göre jailbreak’e daha açık olması
- Zaman zaman Çin hükümetinin bakış açısını yansıtması
- Belirli benchmark’larda biraz daha düşük performans göstermesi
- Token başına maliyetinin daha yüksek olduğunun iddia edilmesi (metodoloji paylaşılmadan)
- Hepsi bu
- Kötü niyetli davranışa dair kanıt yok
- Veri sızıntısına dair kanıt yok
- Modelin “hoşlarına gitmeyen şekilde prompt’lara yanıt vermesi” dışında kötü amaçlı eylem yaptığına dair bir kanıt yok
- Jailbreak bulgularının analizi
- Çünkü DeepSeek güvenlik eğitimine daha az yatırım yaptı (kaynak meselesi)
- NIST karşılaştırma için eski ABD modellerini test etmedi
- Öte yandan OpenAI’nin gpt-oss-120b modeli jailbreak’e son derece açık
- “Çin Komünist Partisi anlatısı” bulgusunun analizi
- Çin verileriyle eğitilmiş bir modelin Çin bakış açısını yansıtması şaşırtıcı değil
- Çin sansür yasalarına tabi
- Bu bir güvenlik açığı değil
NIST’in yapmadığı karşılaştırmalar
- Diğer açık modellerle karşılaştırma yapılmıyor
- Llama, Mistral, Falcon nerede?
- Karşılaştırma yapılsaydı bunun DeepSeek’e özgü değil, genel olarak açık modellerin kapalı modellere kıyasla daha az güvenlik katmanına sahip olduğu ortaya çıkacaktı
- İlk dönem ABD modelleriyle karşılaştırma yapılmıyor
- 2020’de GPT-3’ün jailbreak zafiyetleri nasıldı?
- Bu karşılaştırma anlatıyı zayıflatacağı için yapılmıyor
- ABD modellerinin ABD yanlılığı test edilmiyor
- Yalnızca Çin yanlılığı güvenlik riski sayılıyor gibi görünüyor
- Kapalı benchmark’lar kullanılıyor
- “CAISI tarafından oluşturulmuş kapalı benchmark’lar” nedeniyle yeniden üretim ya da doğrulama mümkün değil
- Bu bilim değil, savunmacı/amaçlı araştırma
Raporun gerçekte anlattığı şey
- Satır aralarını okuyunca
- DeepSeek modeli daha az cilalı - geliştirmeye daha az yatırım yapıldığı için pürüzlü taraflarının olması doğal
- Çin modeli yeterince rekabetçi ve bu rahatsız edici - pazar payı için tehdit oluşturmasaydı bu rapor hiç var olmazdı
- ABD, yapay zeka hakimiyetini kaybetmekten korkuyor - Trump’ın “AI Action Plan”ı kapsamında açıkça sipariş edilmiş. Ticaret Bakanı’nın açıklaması bunun tarafsız bir değerlendirme değil, sanayi politikası olduğunu netleştiriyor
Gerçek tehdit (ipucu: size yönelik değil)
- DeepSeek’in gerçekten tehdit ettiği şey: tekel
- DeepSeek’in asıl “suçu”, açık kaynağın işe yaradığını göstermesi
- Milyarlarca dolarlık girişim sermayesi ya da kapalı API’ler olmadan da güçlü modeller kurulabileceğini kanıtlaması
- Bu durum, yapay zeka erişimini premium fiyatla satan şirketleri korkutuyor
- DeepSeek “işte ağırlıklar, kendiniz çalıştırın” dediğinde, bu şirketlerin dayandığı ekonomik hendeye saldırmış oldu
- NIST raporunun var olma nedeni bu
- DeepSeek, açıklığın kapalı sistemlerle rekabet edebileceğini gösterdiği için
- Mevcut güç odaklarının bunu durdurması gerekiyor
İkiyüzlülük
- NIST’in uyarıları ve gerçeklik
- NIST: DeepSeek modelinin simülasyon ortamında kötü amaçlı prompt’lara yanıt verebildiği konusunda uyarıyor
- Gerçeklik: ABD modelleri fiilen gerçek verileri harici sunuculara gönderiyor
- OpenAI örneği
- ChatGPT konuşmalarının eğitim için kullanıldığını hatırlıyor musunuz?
- Ancak tepki geldikten sonra opt-out seçeneği eklemek zorunda kaldı
- Karşılaştırma
- DeepSeek ağırlıklarını yerelde çalıştırmak = sıfır veri aktarımı
- OpenAI API kullanmak = sunuculara sürekli veri gönderimi
- Hangisi gizlilik riski?
- Rapor, “yabancı yapay zeka benimsenmesi” konusunda uyarırken, ister ABD’li ister başka bir ülkeye ait olsun tüm bulut API’lerinin başkasının altyapısına güvenmeyi gerektirdiğini görmezden geliyor
- Yerel açık ağırlıklar, herhangi bir bulut servisinden daha denetlenebilir ve daha güvenli
- Ama verilmek istenen mesaj bu değil. Çünkü bu hiçbir zaman güvenlikle ilgili değildi. Anlatı kontrolüyle ilgiliydi
Açık kaynak ve açık bilime ihanet
- Açık kaynak topluluğu modern yapay zekanın temelini attı
- Linux, Python, PyTorch, Transformers
- On yıllar süren işbirliğine dayalı geliştirme, özgürce paylaşıldı
- DeepSeek bu geleneğin bir parçası
- Açık bilgiyi alıp etkileyici bir şey inşa ediyor ve sonra geri veriyor
- ABD kurumlarının tepkisi: buna tehdit demek
- Meta, Llama’yı yayımladığında Çin’in de aynısını yaptığını hayal edin
- Llama ağırlıklarının “jailbreak’e açık” olduğu için bir gözetim aracı olduğunu iddia eden bir devlet raporu yayımlandığını düşünün
- Buna korumacılık derdik. Teknolojik paranoya derdik. Açık araştırmaya saldırı derdik
- Ama bunu biz yaptığımızda? “Ulusal güvenlik”
- Açık araştırma evrensel olmalı
- Açık bilimi yalnızca işimize geldiğinde savunamayız
Kendiniz deneyebileceğiniz test
- Bana da NIST’e de inanmayın; kendiniz kontrol edin
- DeepSeek ağırlıklarını indirin
- huggingface transformers, vLLM, LM Studio, llama.cpp kullanarak yerelde çalıştırın
- Ağ izleme araçlarını açın
- Gözlemleyin
- Hiçbir yere tam olarak sıfır paket gönderildiğini
- Prompt’ların tamamen cihaz üzerinde işlendiğini
- O korkunç “güvenlik tehdidinin” hiçbir yere bağlanmadan yalnızca matris çarpımı yaptığını
- Kendinize sorun: ABD hükümeti neden bu konuda yalan söylüyor?
- “Güvenlik tehdidi” modelde değil. Siyasette
Aslında ne için endişelenmeniz gerekir
- Meşru kaygılar var
- DeepSeek API kullanımı: Hassas verileri DeepSeek’in barındırdığı servise gönderirseniz bunlar Çin altyapısından geçer. Bu, herhangi bir yabancı bulut sağlayıcısını kullanmakla aynı gerçek veri egemenliği sorunudur
- Jailbreak zafiyetleri: Üretim ortamı için uygulama geliştiriyorsanız hangi model olursa olsun açıklarını test etmeli ve uygulama seviyesinde güvenlik önlemleri uygulamalısınız. Yalnızca model guardrail’lerine güvenmeyin. Ayrıca inference sırasında LlamaGuard ya da Qwen3Guard gibi guard modeller kullanarak hem prompt’ları hem yanıtları sınıflandırın ve filtreleyin
- Önyargı ve sansür: Tüm modeller eğitim verilerini yansıtır. Hangi modeli kullanırsanız kullanın bunun farkında olun
- Bunlar mühendislik problemleridir
- Açık kaynaklı (veya Çin menşeli) modellerden tamamen kaçınmak için bir neden değildir
Yapay zekanın geleceği açısından anlamı
- Bu yalnızca DeepSeek’le ilgili değil
- Yapay zekanın açık ve denetlenebilir kalıp kalmayacağı, yoksa devletler ve şirketler tarafından çevrilip sınırlandırılacağıyla ilgili
- Sorular
- “Açık kaynak” kavramının “yalnızca ABD menşeliyse açık” şeklinde yeniden tanımlanmasına izin verecek miyiz?
- Güvenlik iddiaları için gerçek kanıt mı talep edeceğiz, yoksa muğlak imaları mı kabul edeceğiz?
- Yapay zeka insanlığın ortak projesi olarak mı kalacak, yoksa jeopolitik bir silaha mı dönüşecek?
- DeepSeek başka bir yolun mümkün olduğunu kanıtladı. Bu yüzden itibarsızlaştırılması gerekiyordu
Yazarın görüşü
- Yazarın arka planı
- Açık kaynak modelleri yerelde çalıştırıyor
- Kendi modellerini eğitiyor
- Bileşen bazlı alignment ve kullanıcı özgürlüğüne inanıyor
- Yapay zekanın şirketler ya da devletler için değil, kullanıcılar için bir araç olması gerektiğini düşünüyor
- NIST raporuna ilişkin değerlendirme
- Tarafsız bir teknik değerlendirme değil
- Çin yapay zeka modellerinin benimsenmesini engellemek ve ABD’nin ticari/stratejik çıkarlarını korumak için tasarlanmış bir politika belgesi
- ABD hükümetinin sanayiyi teşvik etmesine ilişkin görüş
- ABD hükümetinin ABD sanayisini teşvik etmesinde özünde yanlış bir şey yok
- Ama buna adıyla hitap etmek gerekir
- Korumacılığı güvenlik araştırması gibi sunmayın
- Tehditleri uydurmayın
- Kanıtların gösterdiği şey hakkında halka yalan söylemeyin
- DeepSeek’in katkısı
- Bize değerli ve kıymetli bir armağan verdi
- Ağırlıklar yalnızca safetensor verisinden ibaret
- Sürücüde duruyor ve verilen komutlara göre çalışıyor
- Eve telefon etmiyor. Casusluk yapmıyor. Veri sızdırmıyor
- Sonuç
- Endişeleniyorsanız, muhtemelen yerel inference’ın nasıl çalıştığını anlamıyorsunuzdur
- Korku tellallığına inanıyorsanız, başarıyla manipüle edilmişsiniz demektir
- Bütün mesele güvenlik değil, güç — geleceği şekillendiren araçları kimin inşa ettiği, paylaştığı ve anladığı
Sonuç
- Kod ve araştırma açık kaynaklı ve denetlenebilir; geri kalan her şey siyaset
- Okura öneri
- NIST raporunu ve kodu bizzat okuyun
- Kötü amaçlı kod veya gözetim işlevlerine dair gerçek kanıt arayın
- Bulamayacaksınız. Çünkü yok
- Ardından soru sormaya başlayın
- Açık kaynak çok iyi çalıştığında neden ondan korkmanız söyleniyor?
1 yorum
Hacker News görüşü
exfiltrationkonusunu nasıl ele aldığına bakmak bile, yazıdaki içerikle NIST'in orijinal raporunun farklı olduğunu göstermeye yetiyor. Tıklama tuzağı bir web sayfasının 70 sayfalık teknik rapordan daha fazla ilgi görmesi, bugünlerde insanların dikkat süresinin kısalmasıyla ilgili.