Il Modello Denso Qwen3.6-27B Supera il MoE di Punteggio nei Benchmark di Codifica
Qwen ha lanciato un nuovo modello chiamato Qwen3.6-27B, che vanta 27 miliardi di parametri e supera il precedente campione open-source, Qwen3.5-397B-A17B, con i suoi 397 miliardi di parametri e 17 miliardi di MoE attivi, in test di codifica cruciali. Questo ultimo modello è molto più efficiente, occupando solo 55,6 GB su Hugging Face rispetto agli 807 GB del suo predecessore. Simon Willison ha testato la versione quantizzata da 16,8 GB, Qwen3.6-27B-GGUF Q4_K_M, utilizzando llama-server e una tecnica di benob su Hacker News. È riuscito a creare un SVG di un pellicano in bicicletta, mentre un altro SVG di un opossum della Virginia del Nord su un e-scooter ha richiesto 6.575 token e 4 minuti e 25 secondi per essere generato, raggiungendo 24,74 token al secondo. L'annuncio è stato fatto il 22 aprile 2026.
Fatti principali
- 1. Qwen3.6-27B è un modello denso da 27B.
- 2. Supera Qwen3.5-397B-A17B in tutti i principali benchmark di codifica.
- 3. Qwen3.5-397B-A17B è 807 GB su Hugging Face.
- 4. Qwen3.6-27B è 55,6 GB su Hugging Face.
- 5. Simon Willison ha testato la versione quantizzata Unsloth Qwen3.6-27B-GGUF Q4_K_M da 16,8 GB.
- 6. Il test ha utilizzato llama-server e una ricetta di benob su Hacker News.
- 7. Il modello ha generato un SVG di un pellicano in bicicletta.
- 8. Un SVG di un opossum della Virginia del Nord su un e-scooter ha richiesto 6.575 token, 4 minuti e 25 secondi, 24,74 t/s.
- 9. Il post è stato pubblicato il 22 aprile 2026.
Entità
Istituzioni
- Qwen
- Hugging Face
- Unsloth
- Hacker News