概要

Alibaba の Qwen チームが開発・公開する大規模言語モデルシリーズ。Apache 2.0 ライセンスで商用利用可能。コーディング性能、長コンテキスト対応、メモリ効率のバランスが優れており、ローカル LLM として実用性の高い選択肢。

Qwen3.5-27B の主要スペック

項目内容
パラメータ数27B
アーキテクチャDense(Gated Delta Net + FFN)
コンテキスト長262K トークン(最大 1M 拡張可)
対応言語201 言語
マルチモーダルビジョン(画像理解)
ライセンスApache 2.0
リリース2026年2月

ベンチマーク(Qwen3.5-27B)

ベンチマークスコア備考
SWE-bench Verified72.4%コーディング課題解決
LiveCodeBench80.7%コーディング性能
MMLU-Pro86.1%知識・推論
GPQA Diamond85.5%科学的推論

メモリ要件

量子化モデルサイズ必要メモリ
Q4_K_M(4bit)約 16.7 GB18 GB+
Q8_0(8bit)約 30 GB32 GB+
FP16約 54 GB56 GB+

4bit 量子化で 16.7GB と、24GB メモリ環境(RTX 4090 / M2 Mac 24GB)で余裕を持って動作する。

ローカル実行

1
2
# Ollama で実行
ollama run qwen3.5:27b

MLX(Apple Silicon)エコシステムのサポートが成熟しており、mlx-community の量子化モデルがすぐに利用できる。

Gemma 4 との使い分け

観点Qwen3.5-27BGemma 4 31B
コーディング優位(SWE-bench 72.4%)
推論・数学優位(AIME 89.2%)
マルチモーダル基本対応優位(OCR 含む)
メモリ効率優位(4bit: 16.7GB)4bit: 約 19GB
MLX サポート成熟発展途上

コーディング支援・メモリ効率・MLX 活用を重視するなら Qwen3.5、推論・数学・マルチモーダルを重視するなら Gemma 4 が適している。

関連ページ

ソース記事