Alibaba'nın Qwen ekibi, Qwen3.5 Small Model Serisi'ni tanıttı. Model serisinde Qwen3.5-0.8B, Qwen3.5-2B, Qwen3.5-4B ve Qwen3.5-9B yer alıyor. Küçük ve hızlı performans için optimize edilen Qwen3.5-0.8B ve Qwen3.5-0.2B modelleri, pil ömrünün çok önemli olduğu cihazlarda prototip oluşturma ve dağıtım amaçlı olarak kullanılabilir. Hafif ajanlar için güçlü bir multimodal taban olan Qwen3.5-4B, 262 bin 144 token bağlam penceresini yerel olarak destekliyor. Kompakt bir muhakeme modeli olan Qwen3.5-9B, önemli üçüncü taraf ölçütlerinde (benchmark) 13,5 kat daha büyük olan OpenAI'ın açık kaynaklı gpt-oss-120B modelini geride bırakıyor. Söz konusu ölçütlere çok dilli bilgi ve lisansüstü düzeyde muhakeme de dahil. Qwen3.5 Small serisinin teknik temeli, Verimli Hibrit Mimariye dayanıyor. Standart dönüştürücü (Transformer) mimarilerinden farklı olarak Alibaba, bu mimaride Gated Delta Networks (bir tür doğrusal dikkat) ile seyrek Mixture-of-Experts (MoE) birleştiriyor. Böylece şirket, genellikle küçük modelleri sınırlayan “bellek duvarını” ortadan kaldırmış oluyor. Gated Delta Networks kullanan modeller, daha yüksek verim ve önemli ölçüde daha düşük gecikme süresi elde ediyor. Ayrıca, doğal olarak çok modlu olan Qwen3.5 multimodal tokenlerde erken füzyon kullanılarak eğitildi. Bu sayede 4B ve 9B modelleri, daha önce on kat daha büyük modellerin gerektirdiği görsel anlama düzeyini sergileyebiliyor. Özellikle de arayüz öğelerini okumak veya bir videodaki nesneleri saymak gibi eylemler kolaylıkla gerçekleştirilebiliyor. MMMU-Pro görsel muhakeme ölçütünde, Qwen3.5-9B 70,1 puan alarak 59,7 puan alan Gemini 2.5 Flash-Lite ve 63,0 puan alan Qwen3-VL-30B-A3B modellerini geride bırakıyor. GPQA Diamond karşılaştırmasında, 9B modeli 81,7 puan alarak, 80,1 puan alan ve parametre sayısı on katından fazla olan gpt-oss-120b modelini ardında bırakıyor. Video-MME (altyazılı) ölçütünde, Qwen3.5-9B 84,5 puan alırken, 4B 83,5 puan aldı. Böylece modeller, 74,6 puan alan Gemini 2.5 Flash-Lite'tan önemli ölçüde yüksek performans sergiledi. HMMT Şubat 2025 (Harvard-MIT matematik turnuvası) değerlendirmesinde, 9B modeli 83,2 puan alırken, 4B varyantı 74,0 puan aldı. 9B varyantı, OmniDocBench v1.5'te 87,7 puanla belge tanıma alanında lider konuma yerleşti. Aynı zamanda, MMMLU'da 81,2 puanla en üst düzey çok dilli varlığını sürdürerek aynı değerlendirmede 78,2 puan alan gpt-oss-120b'yi geride bıraktı.Modellerin ağırlıkları şu anda Apache 2.0 lisansları altında Hugging Face ve ModelScope'da küresel olarak kullanıma sunuluyor. Modeller, gerektiğinde özelleştirme dahil olmak üzere kurumsal ve ticari kullanım için tercih edilebilir.