2 puan yazan GN⁺ 2025-10-07 | 1 yorum | WhatsApp'ta paylaş
  • NIST’in Eylül 2025’te yayımladığı DeepSeek yapay zeka model değerlendirme raporu, tarafsız bir teknik değerlendirme değil, siyasi amaçlı bir belge olup, gerçek güvenlik tehditlerine dair kanıt sunmadan Çin menşeli açık kaynak yapay zekayı bastırma niyeti taşıyor
  • Raporda DeepSeek modeline ilişkin arka kapı, casus yazılım veya veri sızıntısına dair hiçbir kanıt sunulamıyor; yalnızca güvenlik ayarlarının daha az yapılmış olması nedeniyle jailbreak’e daha açık olduğu ve Çin hükümetinin bakış açısını yansıttığı belirtiliyor
  • DeepSeek, Apache 2.0 lisansı altında model ağırlıklarını, mimarisini ve eğitim metodolojisini tamamen açık biçimde paylaşarak açık yapay zeka araştırmalarına büyük katkı sundu; buna rağmen ABD hükümeti bunu “düşmanca yapay zeka” olarak tanımlıyor
  • NIST, yerel çalıştırma ile API kullanımını kasten birbirine karıştırıyor; diğer açık kaynak modellerle karşılaştırma yapmıyor ve ABD modellerinin önyargı testlerini atlayarak yanlı bir metodoloji kullanıyor
  • Bu rapor, açık kaynak yapay zekanın rekabet gücünü kanıtlayan DeepSeek’i bastırarak ABD’li yapay zeka şirketlerinin tekelci konumunu korumayı amaçlayan bir sanayi politikasının parçası; bilimsel tarafsızlıktan çok ticari ve stratejik çıkarlara öncelik veriyor

NIST’in DeepSeek değerlendirme raporunun özü

  • NIST’in 30 Eylül 2025 tarihli DeepSeek raporu tarafsız bir teknik değerlendirme değil, siyasi bir saldırı belgesi
    • Arka kapı, casus yazılım veya veri sızıntısına ilişkin hiçbir kanıt yok
    • ABD hükümetinin korku ve yanlış bilgi kullanarak açık bilimi, açık araştırmayı ve açık kaynağı engelleme girişimi
    • Kurumsal gücü korumak ve denetimi sürdürmek için insanlığa katkı sunan bir çalışmaya siyaset ve yalanlarla saldırı
  • Raporun yayımlanmasının ardından internette panik oluştu
    • DeepSeek ağırlıklarının bozulduğu iddiası
    • Çin’in model üzerinden casusluk yaptığı iddiası
    • İndirmenin kendisinin güvenlik riski olduğu iddiası
    • Bu iddiaların tamamı yanlış

DeepSeek’in gerçek başarıları

  • Rekabetçi yapay zeka modelleri geliştirmesi
    • OpenAI ya da Anthropic’ten çok daha düşük bütçeyle öncü seviye performansa ulaşması
    • Kusursuz değil, ancak bütçesine kıyasla etkileyici bir sonuç
  • Apache 2.0 lisansı altında tamamen açık olması
    • Model ağırlıkları
    • Mimari
    • Eğitim metodolojisi
    • Araştırma makaleleri
  • Herkesin çalışmayı yeniden üretmesini ve öncü ölçekli modelleri yerelde çalıştırmasını mümkün kılması
    • Her şeyi sıfırdan yeniden icat etmeye gerek kalmamasını sağlaması
    • Son yıllarda açık yapay zeka araştırmalarına yapılmış en büyük katkılardan biri
  • ABD hükümetinin tepkisi: bunu “düşmanca yapay zeka” diye damgalamak ve casusluk ima etmek

NIST’in temel yanıltma stratejisi

  • Üç senaryonun kasıtlı olarak birbirine karıştırılması
    • Senaryo A: DeepSeek uygulaması/API’si kullanıldığında prompt’ların Çin’deki sunuculara gönderilmesi (gerçek bir veri egemenliği sorunu)
    • Senaryo B: Açık ağırlıkların indirilip yerelde çalıştırılması durumunda verinin cihaz dışına çıkmaması
    • Senaryo C: OpenRouter, Fireworks, Chutes gibi güvenilir üçüncü taraf servislerde barındırıldığında altyapı ve gizlilik denetiminin barındırma sağlayıcısına bağlı olması
  • NIST bu tamamen farklı durumları kasıtlı olarak tek potada eritiyor
    • Yerel indirmeleri sayarken “ulusal güvenlik riski” uyarısı yapıyor
    • Temel teknik bilgiye sahip herkes bunun yanıltıcı olduğunu anlayabilir
  • Bu karışıklık, raporun geri kalanındaki yanıltıcı çerçevenin temelini oluşturuyor

NIST’in gerçekte bulduğu şey

  • Sansasyonel dili çıkarınca geriye kalanlar
    1. DeepSeek modelinin ABD’nin güvenlik ayarı yapılmış modellerine göre jailbreak’e daha açık olması
    2. Zaman zaman Çin hükümetinin bakış açısını yansıtması
    3. Belirli benchmark’larda biraz daha düşük performans göstermesi
    4. Token başına maliyetinin daha yüksek olduğunun iddia edilmesi (metodoloji paylaşılmadan)
  • Hepsi bu
    • Kötü niyetli davranışa dair kanıt yok
    • Veri sızıntısına dair kanıt yok
    • Modelin “hoşlarına gitmeyen şekilde prompt’lara yanıt vermesi” dışında kötü amaçlı eylem yaptığına dair bir kanıt yok
  • Jailbreak bulgularının analizi
    • Çünkü DeepSeek güvenlik eğitimine daha az yatırım yaptı (kaynak meselesi)
    • NIST karşılaştırma için eski ABD modellerini test etmedi
    • Öte yandan OpenAI’nin gpt-oss-120b modeli jailbreak’e son derece açık
  • “Çin Komünist Partisi anlatısı” bulgusunun analizi
    • Çin verileriyle eğitilmiş bir modelin Çin bakış açısını yansıtması şaşırtıcı değil
    • Çin sansür yasalarına tabi
    • Bu bir güvenlik açığı değil

NIST’in yapmadığı karşılaştırmalar

  • Diğer açık modellerle karşılaştırma yapılmıyor
    • Llama, Mistral, Falcon nerede?
    • Karşılaştırma yapılsaydı bunun DeepSeek’e özgü değil, genel olarak açık modellerin kapalı modellere kıyasla daha az güvenlik katmanına sahip olduğu ortaya çıkacaktı
  • İlk dönem ABD modelleriyle karşılaştırma yapılmıyor
    • 2020’de GPT-3’ün jailbreak zafiyetleri nasıldı?
    • Bu karşılaştırma anlatıyı zayıflatacağı için yapılmıyor
  • ABD modellerinin ABD yanlılığı test edilmiyor
    • Yalnızca Çin yanlılığı güvenlik riski sayılıyor gibi görünüyor
  • Kapalı benchmark’lar kullanılıyor
    • “CAISI tarafından oluşturulmuş kapalı benchmark’lar” nedeniyle yeniden üretim ya da doğrulama mümkün değil
    • Bu bilim değil, savunmacı/amaçlı araştırma

Raporun gerçekte anlattığı şey

  • Satır aralarını okuyunca
    1. DeepSeek modeli daha az cilalı - geliştirmeye daha az yatırım yapıldığı için pürüzlü taraflarının olması doğal
    2. Çin modeli yeterince rekabetçi ve bu rahatsız edici - pazar payı için tehdit oluşturmasaydı bu rapor hiç var olmazdı
    3. ABD, yapay zeka hakimiyetini kaybetmekten korkuyor - Trump’ın “AI Action Plan”ı kapsamında açıkça sipariş edilmiş. Ticaret Bakanı’nın açıklaması bunun tarafsız bir değerlendirme değil, sanayi politikası olduğunu netleştiriyor

Gerçek tehdit (ipucu: size yönelik değil)

  • DeepSeek’in gerçekten tehdit ettiği şey: tekel
    • DeepSeek’in asıl “suçu”, açık kaynağın işe yaradığını göstermesi
    • Milyarlarca dolarlık girişim sermayesi ya da kapalı API’ler olmadan da güçlü modeller kurulabileceğini kanıtlaması
  • Bu durum, yapay zeka erişimini premium fiyatla satan şirketleri korkutuyor
    • DeepSeek “işte ağırlıklar, kendiniz çalıştırın” dediğinde, bu şirketlerin dayandığı ekonomik hendeye saldırmış oldu
  • NIST raporunun var olma nedeni bu
    • DeepSeek, açıklığın kapalı sistemlerle rekabet edebileceğini gösterdiği için
    • Mevcut güç odaklarının bunu durdurması gerekiyor

İkiyüzlülük

  • NIST’in uyarıları ve gerçeklik
    • NIST: DeepSeek modelinin simülasyon ortamında kötü amaçlı prompt’lara yanıt verebildiği konusunda uyarıyor
    • Gerçeklik: ABD modelleri fiilen gerçek verileri harici sunuculara gönderiyor
  • OpenAI örneği
    • ChatGPT konuşmalarının eğitim için kullanıldığını hatırlıyor musunuz?
    • Ancak tepki geldikten sonra opt-out seçeneği eklemek zorunda kaldı
  • Karşılaştırma
    • DeepSeek ağırlıklarını yerelde çalıştırmak = sıfır veri aktarımı
    • OpenAI API kullanmak = sunuculara sürekli veri gönderimi
    • Hangisi gizlilik riski?
  • Rapor, “yabancı yapay zeka benimsenmesi” konusunda uyarırken, ister ABD’li ister başka bir ülkeye ait olsun tüm bulut API’lerinin başkasının altyapısına güvenmeyi gerektirdiğini görmezden geliyor
    • Yerel açık ağırlıklar, herhangi bir bulut servisinden daha denetlenebilir ve daha güvenli
  • Ama verilmek istenen mesaj bu değil. Çünkü bu hiçbir zaman güvenlikle ilgili değildi. Anlatı kontrolüyle ilgiliydi

Açık kaynak ve açık bilime ihanet

  • Açık kaynak topluluğu modern yapay zekanın temelini attı
    • Linux, Python, PyTorch, Transformers
    • On yıllar süren işbirliğine dayalı geliştirme, özgürce paylaşıldı
  • DeepSeek bu geleneğin bir parçası
    • Açık bilgiyi alıp etkileyici bir şey inşa ediyor ve sonra geri veriyor
  • ABD kurumlarının tepkisi: buna tehdit demek
  • Meta, Llama’yı yayımladığında Çin’in de aynısını yaptığını hayal edin
    • Llama ağırlıklarının “jailbreak’e açık” olduğu için bir gözetim aracı olduğunu iddia eden bir devlet raporu yayımlandığını düşünün
    • Buna korumacılık derdik. Teknolojik paranoya derdik. Açık araştırmaya saldırı derdik
  • Ama bunu biz yaptığımızda? “Ulusal güvenlik”
  • Açık araştırma evrensel olmalı
    • Açık bilimi yalnızca işimize geldiğinde savunamayız

Kendiniz deneyebileceğiniz test

  • Bana da NIST’e de inanmayın; kendiniz kontrol edin
  • DeepSeek ağırlıklarını indirin
    • huggingface transformers, vLLM, LM Studio, llama.cpp kullanarak yerelde çalıştırın
    • Ağ izleme araçlarını açın
  • Gözlemleyin
    • Hiçbir yere tam olarak sıfır paket gönderildiğini
    • Prompt’ların tamamen cihaz üzerinde işlendiğini
    • O korkunç “güvenlik tehdidinin” hiçbir yere bağlanmadan yalnızca matris çarpımı yaptığını
  • Kendinize sorun: ABD hükümeti neden bu konuda yalan söylüyor?
  • “Güvenlik tehdidi” modelde değil. Siyasette

Aslında ne için endişelenmeniz gerekir

  • Meşru kaygılar var
    • DeepSeek API kullanımı: Hassas verileri DeepSeek’in barındırdığı servise gönderirseniz bunlar Çin altyapısından geçer. Bu, herhangi bir yabancı bulut sağlayıcısını kullanmakla aynı gerçek veri egemenliği sorunudur
    • Jailbreak zafiyetleri: Üretim ortamı için uygulama geliştiriyorsanız hangi model olursa olsun açıklarını test etmeli ve uygulama seviyesinde güvenlik önlemleri uygulamalısınız. Yalnızca model guardrail’lerine güvenmeyin. Ayrıca inference sırasında LlamaGuard ya da Qwen3Guard gibi guard modeller kullanarak hem prompt’ları hem yanıtları sınıflandırın ve filtreleyin
    • Önyargı ve sansür: Tüm modeller eğitim verilerini yansıtır. Hangi modeli kullanırsanız kullanın bunun farkında olun
  • Bunlar mühendislik problemleridir
    • Açık kaynaklı (veya Çin menşeli) modellerden tamamen kaçınmak için bir neden değildir

Yapay zekanın geleceği açısından anlamı

  • Bu yalnızca DeepSeek’le ilgili değil
    • Yapay zekanın açık ve denetlenebilir kalıp kalmayacağı, yoksa devletler ve şirketler tarafından çevrilip sınırlandırılacağıyla ilgili
  • Sorular
    • “Açık kaynak” kavramının “yalnızca ABD menşeliyse açık” şeklinde yeniden tanımlanmasına izin verecek miyiz?
    • Güvenlik iddiaları için gerçek kanıt mı talep edeceğiz, yoksa muğlak imaları mı kabul edeceğiz?
    • Yapay zeka insanlığın ortak projesi olarak mı kalacak, yoksa jeopolitik bir silaha mı dönüşecek?
  • DeepSeek başka bir yolun mümkün olduğunu kanıtladı. Bu yüzden itibarsızlaştırılması gerekiyordu

Yazarın görüşü

  • Yazarın arka planı
    • Açık kaynak modelleri yerelde çalıştırıyor
    • Kendi modellerini eğitiyor
    • Bileşen bazlı alignment ve kullanıcı özgürlüğüne inanıyor
    • Yapay zekanın şirketler ya da devletler için değil, kullanıcılar için bir araç olması gerektiğini düşünüyor
  • NIST raporuna ilişkin değerlendirme
    • Tarafsız bir teknik değerlendirme değil
    • Çin yapay zeka modellerinin benimsenmesini engellemek ve ABD’nin ticari/stratejik çıkarlarını korumak için tasarlanmış bir politika belgesi
  • ABD hükümetinin sanayiyi teşvik etmesine ilişkin görüş
    • ABD hükümetinin ABD sanayisini teşvik etmesinde özünde yanlış bir şey yok
    • Ama buna adıyla hitap etmek gerekir
    • Korumacılığı güvenlik araştırması gibi sunmayın
    • Tehditleri uydurmayın
    • Kanıtların gösterdiği şey hakkında halka yalan söylemeyin
  • DeepSeek’in katkısı
    • Bize değerli ve kıymetli bir armağan verdi
    • Ağırlıklar yalnızca safetensor verisinden ibaret
    • Sürücüde duruyor ve verilen komutlara göre çalışıyor
    • Eve telefon etmiyor. Casusluk yapmıyor. Veri sızdırmıyor
  • Sonuç
    • Endişeleniyorsanız, muhtemelen yerel inference’ın nasıl çalıştığını anlamıyorsunuzdur
    • Korku tellallığına inanıyorsanız, başarıyla manipüle edilmişsiniz demektir
    • Bütün mesele güvenlik değil, güç — geleceği şekillendiren araçları kimin inşa ettiği, paylaştığı ve anladığı

Sonuç

  • Kod ve araştırma açık kaynaklı ve denetlenebilir; geri kalan her şey siyaset
  • Okura öneri
    • NIST raporunu ve kodu bizzat okuyun
    • Kötü amaçlı kod veya gözetim işlevlerine dair gerçek kanıt arayın
    • Bulamayacaksınız. Çünkü yok
  • Ardından soru sormaya başlayın
    • Açık kaynak çok iyi çalıştığında neden ondan korkmanız söyleniyor?

1 yorum

 
GN⁺ 2025-10-07
Hacker News görüşü
  • ABD kurumlarının sınırları aşan meselelerde uzun zamandır siyasi araç olarak kullanılıyor olmasına hiç şaşırmıyorum; Çin elektronik ürünlerine karşı da hep temkinli oldum. Bu raporun yanlış ve yabancı düşmanı olduğu görüşüne katılıyorum, ama Çin LLM'ler üzerinde yeterli denetim kurarsa bugün ya da gelecekte bir şekilde ince manipülasyon girişimlerinde bulunma ihtimalinden hâlâ şüphe duyuyorum. Bu yalnızca Çin için değil; ABD ya da herhangi bir büyük güç de yeterli güce sahipse aynısını yapar. Sonuçta önemli olan, modellerden sürekli şüphe duymak, onları benchmark etmek ve sağlayıcının değil bizim ihtiyaçlarımıza uyup uymadığını düzenli olarak izlemektir.
    • LLM'ler üzerinden Çin'in ince manipülasyon yapma ihtimalinden söz etmişsiniz; bunun somut olarak nasıl gerçekleşebileceğini merak ediyorum.
    • Devletin ya da siyasi etkinin bir ölçüde devreye girmesi zaten kaçınılmaz. Sorun bunun var olup olmaması değil, etkinin nerede ve ne ölçüde işlediğidir. Bu raporu doğrudan “yanlış” ya da “önyargılı” diye damgalayıp bir kenara atmanın anlamı yok; karmaşık bir dünyada bilgiyi süzüp analiz etmemiz gerekiyor.
    • Yabancı ürünler hakkında yanlış bilgi yaymak çözüm değil. İnsanların açık kaynak modeller istediğini kabul edip, bunun yerine en yüksek kaliteli yerli modeli yayımlayarak onun yaygın biçimde kullanılmasını sağlamak daha iyi olur.
    • ABD demokrasisi üzerine düşününce, ABD liderliği her zaman istediği gibi karar verebilmek için azami esnekliği korumaya çalışıyor. Demokrasi olduğu için halk desteği yanılsamasını da sürdürmek zorunda; hükümet belirli bir bakış açısını yerleştirip kamuoyunun düşüncesini kısmen şekillendirerek, hangi kararı alırsa alsın belli bir desteği güvence altına alacak zemini hazırlıyor. Politika değişirse ya da yeni bir lider gelirse, her şey selefin hatasına bağlanıp “eskiden kötüydü ama şimdi değişti” türünden ahlaki bir yeniden başlangıç mümkün oluyor. Otoriter rejimlerde bu mümkün değil. Örneğin Putin savaşın maliyetini fark etse bile siyasi meşruiyetini kaybetmeden savaşı durduramaz. Rusya ABD tarzı bir demokrasi olsaydı, yeni bir lider seçimi, geri çekilme, Putin'e sembolik bir ceza ve ardından uluslararası toplumda sorumluluktan fiilen muaf tutulması çok hızlı biçimde ilerleyebilirdi.
    • Bu kurumlar ülke sınırları içinde de siyasi araç olarak kullanılıyor.
  • Herkese önce asıl raporu okuyup sonra bu analizi okuyarak kendi kararını vermesini tavsiye ederim. Tıklama tuzağı özetlere kapılmadan birincil kaynağı okumak önemli.
    • Asıl metin burada: https://www.nist.gov/system/files/documents/2025/09/30/CAISI_Evaluation_of_DeepSeek_AI_Models.pdf
    • Görünüşe göre birçok kişi asıl metni okumamış. Yalnızca raporun exfiltration konusunu nasıl ele aldığına bakmak bile, yazıdaki içerikle NIST'in orijinal raporunun farklı olduğunu göstermeye yetiyor. Tıklama tuzağı bir web sayfasının 70 sayfalık teknik rapordan daha fazla ilgi görmesi, bugünlerde insanların dikkat süresinin kısalmasıyla ilgili.
  • Avrupa'da bir üniversitede araştırmacılar ve personel için LLM barındıran biri olarak bu konu bana kişisel olarak çok dokunuyor. Çin modelleri olmasa bugün yaptığımız işlerin çoğu mümkün olmazdı. Bana göre AB ya da başka yerler, Çinli araştırma laboratuvarlarının modelleri bu kadar cömert lisanslarla yayımlamasına minnettar olmalı. Onlar olmasaydı seçeneklerimiz çok kötü olurdu. Güçlü bir ABD modeli istiyorsanız size yüz milyonlarca dolarlık NVIDIA veri merkezi kurmanız öneriliyor; AB seçeneklerinde ise kendi donanımınızda host etseniz bile lisans ücreti ödüyorsunuz, ama en azından uzmanlık korunuyor. Buna karşılık DeepSeek, vLLM gibi açık kaynak projelerinin modelleri daha verimli host etmesine yardımcı olan “gizli sosu” paylaştı.
  • Raporu gerçekten okuyunca, yazıdaki anlatımla örtüşmediğini gördüm.
    • İlginç olan şu ki, bu gönderinin yorumları bile asıl yazının içeriğiyle tam örtüşmüyor. Yazar bunu sürekli açık kaynağa saldırı gibi çerçeveliyor, ama yorumlar daha çok Çin etkisinden kaynaklanabilecek sorunlara gerçekten değiniyor gibi görünüyor.
    • Bu blog yazısı fazlasıyla yanıltıcı. İlk paragraflarda NIST raporunda “zararlı yazılım, arka kapı veya veri sızıntısı izine rastlanmadığı” vurgulanıyor, ama NIST aslında bunu iddia etmiyor. Sadece bu blog yazısını okusanız, NIST sanki hiçbir dayanak olmadan arka kapı var demiş gibi bir izlenim oluşuyor.
    • Benim açımdan ise gerçek raporla oldukça uyumlu hissettirdi.
  • Çin modelleri karalama kampanyasının hedefi olsa bile, ben iyi performans veren ve ucuz modelleri kullanıp rekabet avantajı elde edeceğim.
    • Karalama, sonunda bunun suç kapsamına alınmasına giden yolun ilk adımıdır.
    • NIST yazısında (asıl metinde) hiçbir karalama ifadesi bulamadım. Benim “karalama” tanımım, düşmanı şeytanlaştıran propagandadır. Farklı düşünüyorsanız raporda tam olarak nerede olduğunu gösterir misiniz? bkz. https://www.thefreedictionary.com/demonization
    • Daha kötü performans veren, kat kat daha pahalı ve daha ağır sansürlü kapalı modelleri insanların savunması tuhaf. Çinli şirketler Batılı firmalar kadar benchmark takıntılı değil; bizzat kullanımda Kimi, GLM, Deepseek gibi modeller İngilizce benchmark puanları daha düşük olsa da hissedilen kalite açısından çok daha iyi geliyor. Özellikle Kimi, donanım sorularında Gemini ve Claude'a kıyasla çok daha ayrıntılı ve doğru yanıtlar veriyor. Bunun, Çince veriden daha iyi yararlanmasından kaynaklandığını düşünüyorum.
  • Yazar Eric Hartford “kışkırtıcı dili ayıklamak gerekir” demiş, ama rapora bakınca böyle bir dil görmedim. Genel olarak kuru ve sıkıcı sayılabilecek bir üslubu var.
    • Tam tersine, blog yazısında dayanaksız kışkırtıcı dil fazlasıyla var.
    • Hatta bu yazının, NIST'i ya da ABD'yi hedef alan bir “kara propaganda”ya daha çok benzediğini düşünüyorum; kışkırtıcı dil de yazıda daha fazla.
  • Bu iyi içgörüleri paylaştığınız için teşekkürler. Yazarın yaptığı sansürsüz Dolphin modelini gerçekten kullanmış biri varsa deneyimini merak ediyorum.
    • Bana göre en iyi yöntem, kendi değerlendirme çerçevenizi kurup kendiniz denemeniz. İkinci en iyi seçenek ise size benzer değerlendirme yapmış dış örnekler bulmak. Ama kendi ölçütlerinizi belirlemeden başkalarının değerlendirmelerinin yeterince güvenilir olup olmadığını bilemezsiniz. Özellikle ML veya yapay zeka alanında HN üzerindeki tartışmaların kalitesini düşük buluyorum. Katılımcılar hızlı, alaycı ve hizipleşmiş görünüyor; sanki gerçekten gerçeği aramıyorlar. Buna rağmen burada kalıp tartışmaya katkı sunmak istiyorum. Her zaman açıklık, mantık ve derinlikli tartışma olmasını diliyorum. Bazen https://xkcd.com/386/ gibi hissettiriyor.
  • DeepSeek hakkında Nature dergisinde hakemli bir makale yayımlanmış olması ve bağımsız araştırmacıların açık modellerde işaret ettiği bazı sorunların yazıda da kabul edilmesi nedeniyle, bu NIST değerlendirmesinin siyasi saldırıya daha yakın olduğunu düşünüyorum. ABD istihbarat kurumlarının teknik avantaj gördükleri her fırsatta bunu gözetim amacıyla kullanmış olması, CryptoAG olayı ya da Huawei tartışmalarında sonunda büyük bir kötü niyet kanıtı çıkmamış olması gibi örnekler bu kaygıyı besliyor. Sonuçta Kimi, Qwen gibi çeşitli açık modellerin var olması, maliyet ve performansı dengeler hâle getirmeli; ülkelerin yapay zekayı bir “jeopolitik hendek” olarak görme yarışının sona ermesi alanın tamamı için olumlu olur.
  • Çin, DeepSeek'ten sonra çok daha iyi açık kaynak modeller yayımlamışken, NIST raporu zaten yayınlandığı anda biraz geride kalmış gibi görünüyor.
  • NIST'in neden performans, maliyet ve benimsenme oranını değerlendirdiğini anlamıyorum. Yalnızca yeni çıkmış ABD modelleriyle (OpenAI GPT-5 serisi, Anthropic Opus 4 vb.) eski DeepSeek modellerini (R1, R1-0528, V3.1) karşılaştırmışlar, oysa güncel DeepSeek 3.2 çok güçlü. Bir otomobilin 0-60 mili 3 saniyede çıkması nedeniyle devlet değerlendirmesi önemli olmaz; benim bizzat sürüp karar vermem gerekir. DeepSeek'in “en yüksek güvenlikli modeli”nin kötü niyetli isteklere karşı %6 reddetme oranına sahip olduğu yazıyor, ama gerçekte ABD yapımı GPT modelleri de artık neredeyse sınırsız kötüye kullanılabiliyor. Bu raporun NIST ve güvenlik hakkında değil, sadece ABD propagandası olduğunu düşünüyorum.