ARTFEED — Contemporary Art Intelligence

Il Modello Denso Qwen3.6-27B Supera il MoE di Punteggio nei Benchmark di Codifica

ai-technology · 2026-04-24

Qwen ha lanciato un nuovo modello chiamato Qwen3.6-27B, che vanta 27 miliardi di parametri e supera il precedente campione open-source, Qwen3.5-397B-A17B, con i suoi 397 miliardi di parametri e 17 miliardi di MoE attivi, in test di codifica cruciali. Questo ultimo modello è molto più efficiente, occupando solo 55,6 GB su Hugging Face rispetto agli 807 GB del suo predecessore. Simon Willison ha testato la versione quantizzata da 16,8 GB, Qwen3.6-27B-GGUF Q4_K_M, utilizzando llama-server e una tecnica di benob su Hacker News. È riuscito a creare un SVG di un pellicano in bicicletta, mentre un altro SVG di un opossum della Virginia del Nord su un e-scooter ha richiesto 6.575 token e 4 minuti e 25 secondi per essere generato, raggiungendo 24,74 token al secondo. L'annuncio è stato fatto il 22 aprile 2026.

Fatti principali

  • 1. Qwen3.6-27B è un modello denso da 27B.
  • 2. Supera Qwen3.5-397B-A17B in tutti i principali benchmark di codifica.
  • 3. Qwen3.5-397B-A17B è 807 GB su Hugging Face.
  • 4. Qwen3.6-27B è 55,6 GB su Hugging Face.
  • 5. Simon Willison ha testato la versione quantizzata Unsloth Qwen3.6-27B-GGUF Q4_K_M da 16,8 GB.
  • 6. Il test ha utilizzato llama-server e una ricetta di benob su Hacker News.
  • 7. Il modello ha generato un SVG di un pellicano in bicicletta.
  • 8. Un SVG di un opossum della Virginia del Nord su un e-scooter ha richiesto 6.575 token, 4 minuti e 25 secondi, 24,74 t/s.
  • 9. Il post è stato pubblicato il 22 aprile 2026.

Entità

Istituzioni

  • Qwen
  • Hugging Face
  • Unsloth
  • Hacker News

Fonti