5 puan yazan GN⁺ 2026-03-05 | 2 yorum | WhatsApp'ta paylaş
  • Alibaba'nın Qwen ekibindeki kilit araştırmacıların büyük bölümü istifa etti ve bu durum, kısa süre önce duyurulan Qwen 3.5 model serisinin geleceğini belirsiz hale getirdi
  • Ekip lideri Lin Junyang istifasını açıkladı; ardından birçok kilit isim de ekipten ayrıldı
  • Yakın zamanda yayımlanan Qwen 3.5 model ailesi, küçük modellerde bile güçlü performans gösterdiği için daha da fazla dikkat çekiyor
  • Qwen ekibinin dağılması ihtimali, Çin çıkışlı açık kaynak yapay zeka araştırma ekosistemi için önemli bir dönüm noktası olabilir

Qwen ekibindeki personel değişimi

  • Alibaba'nın Qwen 3.5 model serisi yayımlandıktan hemen sonra ekip lideri Lin Junyang, X'te (eski adıyla Twitter) “me stepping down. bye my beloved qwen.” mesajıyla istifasını duyurdu
    • Lin, 2024'ten bu yana Qwen'in açık ağırlıklı modellerinin yayımlanmasına öncülük eden kilit araştırmacılardan biriydi ve Alibaba içindeki en genç P10 seviyesindeki kişilerden biriydi
  • Çinli medya kuruluşu 36Kr'ın haberine göre, 4 Mart saat 13:00 civarında Alibaba'nın Tongyi Lab bir acil şirket geneli toplantısı düzenledi ve CEO Wu Yongming durumu doğrudan Qwen ekibine açıkladı
    • Lin'in istifası bundan 12 saat önce, gece 00:11'de duyurulmuştu ve bunun ekip içinde de büyük bir şok yarattığı aktarıldı
    • Lin, saat 14:00 civarında WeChat'te “Qwen'in kardeşleri, orijinal plana göre devam edin. Sorun yok.” mesajını bıraktı ancak geri dönüp dönmeyeceğini netleştirmedi
    • Qwen ekip üyeleri, 36Kr'ya “rakiplere kıyasla çok daha az kaynakla mevcut sonuçlara ulaşılmasında Junyang'ın liderliğinin temel etken olduğunu” söyledi
  • İstifanın tetikleyicilerinden biri olarak, Alibaba içindeki bir organizasyonel yeniden yapılanma kapsamında Google Gemini ekibinden gelen yeni bir araştırmacının Qwen'in sorumlusu olarak atanması gösteriliyor; ancak bu doğrulanmış değil

Kilit isimlerin peş peşe ayrılması

  • Lin'in istifasının ardından birden fazla kilit üyenin de birlikte ayrıldığı doğrulandı
    • Binyuan Hui: Qwen kod geliştirme lideri, Qwen-Coder serisinin sorumlusu, ajan eğitiminin tüm sürecinden sorumlu, son dönemde robotik araştırmalarında yer aldı
    • Bowen Yu: Qwen sonrasındaki eğitim (post-training) lideri, Qwen-Instruct serisinin geliştirilmesine öncülük etti
    • Kaixin Li: Qwen 3.5/VL/Coder'ın kilit katkıcılarından biri, Singapur Ulusal Üniversitesi doktora mezunu
    • Bunların dışında da çok sayıda genç araştırmacının aynı gün istifa ettiği bildirildi
  • Alibaba CEO'sunun toplantıya bizzat katılması, şirketin durumun ciddiyetinin farkında olduğunu gösteriyor

Qwen 3.5 modellerinin özellikleri

  • Qwen 3.5, Alibaba Qwen ekibinin son birkaç haftada yayımladığı açık ağırlıklı model ailesi ve performansı oldukça güçlü
    • 17 Şubat'ta duyurulan Qwen3.5-397B-A17B, 807GB büyüklüğünde dev bir modeldi
    • Ardından 122B, 35B, 27B, 9B, 4B, 2B, 0.8B gibi farklı boyutlardaki modeller art arda yayımlandı
  • 27B ve 35B modelleri kodlama tarafında iyi değerlendirmeler aldı; 9B, 4B ve 2B modelleri ise boyutlarına kıyasla son derece verimli
    • 27B ve 35B modelleri, 32GB/64GB Mac'lerde çalışabilecek seviyede olup kodlama görevlerini çok iyi yerine getiriyor
    • Özellikle 2B modeli, yalnızca 4.57GB (kuantize edildiğinde 1.27GB) olmasına rağmen çıkarım ve çok modlu (görsel) işlevleri birlikte destekliyor

Geleceğe dönük görünüm

  • Eğer Qwen ekibi dağılırsa, küçük modellerde yüksek kaliteli performans üretmeyi başaran araştırma çizgisinin kesintiye uğrama ihtimali var
  • Ekip üyeleri yeni bir araştırma laboratuvarı kurar ya da başka kurumlara katılırsa, takip eden araştırmalara dair beklenti sürüyor
  • Mevcut durum “henüz belirsiz” olarak görülüyor; Alibaba'nın bazı personeli elde tutma ihtimali de hâlâ var

Referans verilen dış kaynaklar

2 yorum

 
mammal 2026-03-05

Lin Junyang'ın istifası gerçekten şok edici. Qwen 3.5 35B-A3B'yi severek kullanıyordum, bu yüzden Qwen 4'ü bekliyordum ağlamaklı yüz ağlamaklı yüz

 
GN⁺ 2026-03-05
Hacker News yorumları
  • Umarım geliştirme fazla sekteye uğramaz. Simon'ın da dediği gibi Qwen3.5 gerçekten etkileyici
    Son birkaç gündür Qwen3.5-35B-A3B'yi test ediyorum; şu ana kadar kullandığım modeller arasında ajan tarzı kodlama konusunda en iyisi
    Pi harness ile Rust ve Elixir kodu yazdırdım; testleri kendi oluşturuyor ve geçip geçmediğini doğruluyor. Test ya da derleme hatası döngülerini iyi yönetirken hedefe doğru ilerliyor
    • GH200'de 3.5:122b çalıştırdım; Rust/React/TS işlerinde Sonnet'ten biraz geride ama küçük kapsamlı görevleri fazlasıyla iyi yapıyor
      Ancak arada bir “bu daha basit olur” diyerek talimatları görmezden gelip destek kodunu toptan silme eğilimi var
    • Ben de Rust ile test ettim; bazen sonsuz döngüye girip sonra kendi kendine çıkıyordu
      deadpool ve deadpool-r2d2'yi planlama aşamasında seçip kendi kendini karıştırdı. Yine de genel olarak kod iyi; sadece veritabanı katmanında biraz düzenleme gerekiyor gibi
      Şu ana kadar self-host edilebilen modeller arasında en istikrarlısı
    • Yoğun 27B modeli kullandığımda döngü ve gereksiz tekrarların çok daha az olduğunu gördüm
    • Acaba llama.cpp ile yerelde mi çalıştırıyorsun diye merak ediyorum. Varsayılan chat template ile araç çağrıları başarısız olmuştu ama bu şablonla çok daha iyi çalışıyor
    • Hangi donanımda çalıştırdığını merak ediyorum. Günlük kodlamada frontier modellerin yerini alabileceğini düşünüp düşünmediğini sormak isterim
  • Qwen araştırma ekibi ile Alibaba ürün ekibi arasında gerilim olduğu söyleniyor. Alibaba'nın yakın zamanda DAU'yu KPI olarak dayattığını duydum
    Şirket açısından strateji değişikliği anlaşılabilir ama neden çekirdek araştırmacıları gönderdiği soru işareti. Şu an model araştırmacısı kıtlığı yaşanan bir dönem değil mi?
    • Muhtemelen ileride Qwen modellerini kapalı ticari modellere dönüştürmek istediler ve araştırma ekibi bunu kabul etmedi
  • ABD laboratuvarlarının neden bu yeteneklere muazzam fonlar yatırmadığını merak ediyorum
    • Benim bölgemde (Ohio) ICE Çinlilere yönelik operasyonlar yapıyor. Yasal statüde olanlar bile sınır dışı edilme riski hissediyor
      Böyle bir ortamda ABD laboratuvarları ne kadar para harcarsa harcasın yetenek çekmek zor
    • ABD, yasal göçmenleri bile gözaltı riski altında bırakır hale geldi
    • Avrupa, ABD'deki siyasi kaosa karşı hazırlıklı olmak için rakip modeller yetiştirmeli
    • ABD sermayesine çekilenler zaten gitti ve Çin de zaten yeterince yatırım yapıyor
      Üstelik Çin şirketlerinde karar alma üzerinde daha fazla etki sahibi olunabiliyor
    • Mesele sadece NSF bütçe kesintileri değil. Sağlık sorunları, savaş riski ve yabancı araştırmacılara yönelik belirsizlik gibi nedenlerle ABD'nin cazibesi azaldı
      Trump yönetiminden beri yabancı lisansüstü öğrenci akışı zaten düşüyordu; şimdi ise ABD'de doktora yapmak neredeyse bir itibar riski olarak görülüyor
  • Yerel modeller kullanılırken insanlar deneme-yanılmaya daha hoşgörülü olma eğiliminde
    Bulut modeli token israf edince maliyet can sıkıyor ama yerel model döngüye girince “demek düşünüyor” gibi hissediliyor
    Qwen gibi modeller yerel kodlama için yeterince kullanışlı hale gelirse, değişim teknik olmaktan çok ekonomik olabilir
    • Yerel modelin token israfı hatta hoşuma gidiyor. Odamdaki GPU mainframe'i ısıtıcı görevi görüyor (İsviçre'nin dengesiz ısınma koşulları sayesinde)
  • 32B modeli yerelde birkaç gün çalıştırdım; ajan tarzı kodlama işini oldukça iyi yapıyor
    Boyutuna göre performansı çok güçlü ama uzun talimatların yaklaşık yarısını görmezden gelme eğilimi var. Bu boyutta kabul edilebilir bir ödünleşim
  • Bir matematikçi olarak Qwen ile makaleler arasındaki ilişkileri ve özetleri otomatikleştirmeyi denedim
    Hatta yanlış alıntı doğrulaması bile yaparak arXiv makalelerinde kullandım
    Çıktıları bu sayfada topladım
  • Umarım araştırma ekibi başka bir yerde yeniden açık ağırlıklı model rekabetini sürdürür
    Aslında bu tür araştırmaları devletin desteklemesi gerektiğini düşünürdüm ama şu anda bu rolü Çinli şirketler üstlenmiş görünüyor
  • Qwen3.5 gerçekten harika. 35B sürümünü Ada NextGen 24GB üzerinde easy-llm-cli ile çalıştırdım; Gemini 3 Pro ile neredeyse aynı seviyedeydi
    Hızı da oldukça iyiydi
    • q4 quant ayarında 175 tg ve 7K pp alabildim; çoğu bulut sağlayıcısından daha verimliydi
  • Son zamanlarda hava “AI insanın yerini alacak”tan “AI belli kişiler olmadan ölür” noktasına kaymış gibi. Gerçekten dramatik bir dönüş
    • Anthropic'in çalışma süresi 99.9999999% değil, sadece 90% civarında. Durum sayfasından görülebilir
      AI insanın yerini tamamen alabilseydi, CEO'ların böyle ikna çabası vermesi gerekmezdi
    • “AI belli kişiler olmadan ölür” sözü abartı. İnsanlar sadece Qwen model ailesinin geleceğini merak ediyor
    • AGI hedefinden reklam odaklı kısa vadeli stratejiye geçiş, mevcut durumu iyi özetliyor
    • Claude kendi başına yerel uygulama geliştiremiyor, web uygulaması bile kararsız; Anthropic'in Bun'u satın almasının sebebi de bu
  • Boş ver, burası Çin Mahallesi