- Alibaba'nın Qwen ekibindeki kilit araştırmacıların büyük bölümü istifa etti ve bu durum, kısa süre önce duyurulan Qwen 3.5 model serisinin geleceğini belirsiz hale getirdi
- Ekip lideri Lin Junyang istifasını açıkladı; ardından birçok kilit isim de ekipten ayrıldı
- Yakın zamanda yayımlanan Qwen 3.5 model ailesi, küçük modellerde bile güçlü performans gösterdiği için daha da fazla dikkat çekiyor
- Qwen ekibinin dağılması ihtimali, Çin çıkışlı açık kaynak yapay zeka araştırma ekosistemi için önemli bir dönüm noktası olabilir
Qwen ekibindeki personel değişimi
- Alibaba'nın Qwen 3.5 model serisi yayımlandıktan hemen sonra ekip lideri Lin Junyang, X'te (eski adıyla Twitter) “me stepping down. bye my beloved qwen.” mesajıyla istifasını duyurdu
- Lin, 2024'ten bu yana Qwen'in açık ağırlıklı modellerinin yayımlanmasına öncülük eden kilit araştırmacılardan biriydi ve Alibaba içindeki en genç P10 seviyesindeki kişilerden biriydi
- Çinli medya kuruluşu 36Kr'ın haberine göre, 4 Mart saat 13:00 civarında Alibaba'nın Tongyi Lab bir acil şirket geneli toplantısı düzenledi ve CEO Wu Yongming durumu doğrudan Qwen ekibine açıkladı
- Lin'in istifası bundan 12 saat önce, gece 00:11'de duyurulmuştu ve bunun ekip içinde de büyük bir şok yarattığı aktarıldı
- Lin, saat 14:00 civarında WeChat'te “Qwen'in kardeşleri, orijinal plana göre devam edin. Sorun yok.” mesajını bıraktı ancak geri dönüp dönmeyeceğini netleştirmedi
- Qwen ekip üyeleri, 36Kr'ya “rakiplere kıyasla çok daha az kaynakla mevcut sonuçlara ulaşılmasında Junyang'ın liderliğinin temel etken olduğunu” söyledi
- İstifanın tetikleyicilerinden biri olarak, Alibaba içindeki bir organizasyonel yeniden yapılanma kapsamında Google Gemini ekibinden gelen yeni bir araştırmacının Qwen'in sorumlusu olarak atanması gösteriliyor; ancak bu doğrulanmış değil
Kilit isimlerin peş peşe ayrılması
- Lin'in istifasının ardından birden fazla kilit üyenin de birlikte ayrıldığı doğrulandı
- Binyuan Hui: Qwen kod geliştirme lideri, Qwen-Coder serisinin sorumlusu, ajan eğitiminin tüm sürecinden sorumlu, son dönemde robotik araştırmalarında yer aldı
- Bowen Yu: Qwen sonrasındaki eğitim (post-training) lideri, Qwen-Instruct serisinin geliştirilmesine öncülük etti
- Kaixin Li: Qwen 3.5/VL/Coder'ın kilit katkıcılarından biri, Singapur Ulusal Üniversitesi doktora mezunu
- Bunların dışında da çok sayıda genç araştırmacının aynı gün istifa ettiği bildirildi
- Alibaba CEO'sunun toplantıya bizzat katılması, şirketin durumun ciddiyetinin farkında olduğunu gösteriyor
Qwen 3.5 modellerinin özellikleri
- Qwen 3.5, Alibaba Qwen ekibinin son birkaç haftada yayımladığı açık ağırlıklı model ailesi ve performansı oldukça güçlü
- 17 Şubat'ta duyurulan Qwen3.5-397B-A17B, 807GB büyüklüğünde dev bir modeldi
- Ardından 122B, 35B, 27B, 9B, 4B, 2B, 0.8B gibi farklı boyutlardaki modeller art arda yayımlandı
- 27B ve 35B modelleri kodlama tarafında iyi değerlendirmeler aldı; 9B, 4B ve 2B modelleri ise boyutlarına kıyasla son derece verimli
- 27B ve 35B modelleri, 32GB/64GB Mac'lerde çalışabilecek seviyede olup kodlama görevlerini çok iyi yerine getiriyor
- Özellikle 2B modeli, yalnızca 4.57GB (kuantize edildiğinde 1.27GB) olmasına rağmen çıkarım ve çok modlu (görsel) işlevleri birlikte destekliyor
Geleceğe dönük görünüm
- Eğer Qwen ekibi dağılırsa, küçük modellerde yüksek kaliteli performans üretmeyi başaran araştırma çizgisinin kesintiye uğrama ihtimali var
- Ekip üyeleri yeni bir araştırma laboratuvarı kurar ya da başka kurumlara katılırsa, takip eden araştırmalara dair beklenti sürüyor
- Mevcut durum “henüz belirsiz” olarak görülüyor; Alibaba'nın bazı personeli elde tutma ihtimali de hâlâ var
Referans verilen dış kaynaklar
2 yorum
Lin Junyang'ın istifası gerçekten şok edici. Qwen 3.5 35B-A3B'yi severek kullanıyordum, bu yüzden Qwen 4'ü bekliyordum ağlamaklı yüz ağlamaklı yüz
Hacker News yorumları
Son birkaç gündür Qwen3.5-35B-A3B'yi test ediyorum; şu ana kadar kullandığım modeller arasında ajan tarzı kodlama konusunda en iyisi
Pi harness ile Rust ve Elixir kodu yazdırdım; testleri kendi oluşturuyor ve geçip geçmediğini doğruluyor. Test ya da derleme hatası döngülerini iyi yönetirken hedefe doğru ilerliyor
Ancak arada bir “bu daha basit olur” diyerek talimatları görmezden gelip destek kodunu toptan silme eğilimi var
deadpool ve deadpool-r2d2'yi planlama aşamasında seçip kendi kendini karıştırdı. Yine de genel olarak kod iyi; sadece veritabanı katmanında biraz düzenleme gerekiyor gibi
Şu ana kadar self-host edilebilen modeller arasında en istikrarlısı
Şirket açısından strateji değişikliği anlaşılabilir ama neden çekirdek araştırmacıları gönderdiği soru işareti. Şu an model araştırmacısı kıtlığı yaşanan bir dönem değil mi?
Böyle bir ortamda ABD laboratuvarları ne kadar para harcarsa harcasın yetenek çekmek zor
Üstelik Çin şirketlerinde karar alma üzerinde daha fazla etki sahibi olunabiliyor
Trump yönetiminden beri yabancı lisansüstü öğrenci akışı zaten düşüyordu; şimdi ise ABD'de doktora yapmak neredeyse bir itibar riski olarak görülüyor
Bulut modeli token israf edince maliyet can sıkıyor ama yerel model döngüye girince “demek düşünüyor” gibi hissediliyor
Qwen gibi modeller yerel kodlama için yeterince kullanışlı hale gelirse, değişim teknik olmaktan çok ekonomik olabilir
Boyutuna göre performansı çok güçlü ama uzun talimatların yaklaşık yarısını görmezden gelme eğilimi var. Bu boyutta kabul edilebilir bir ödünleşim
Hatta yanlış alıntı doğrulaması bile yaparak arXiv makalelerinde kullandım
Çıktıları bu sayfada topladım
Aslında bu tür araştırmaları devletin desteklemesi gerektiğini düşünürdüm ama şu anda bu rolü Çinli şirketler üstlenmiş görünüyor
Hızı da oldukça iyiydi
AI insanın yerini tamamen alabilseydi, CEO'ların böyle ikna çabası vermesi gerekmezdi