Ollama で Qwen3 を動かす初心者ガイド — 日本語最強ローカルLLMを自分のPCで使う方法
Ollama で Qwen3 を動かす初心者ガイド — 日本語最強ローカル LLM を自分の PC で使う方法 「ChatGPT みたいな AI を、自分の PC だけで動かせたら」と思ったことはありませんか。Ollama と Qwen3 を使えば、それが実現できます。この記事では、Saiteki AI の解説記事をベースに、初心者でもわかるように Ollama と Qwen3 の導入手順をまとめました。 まず知っておきたい:LLM・ランタイム・エージェントの 3 層構造 AI の世界には、混同しやすい 3 つの概念があります。この記事で扱う Ollama と Qwen がどこに位置するかを最初に整理しましょう。 レストランに例えると お客さん(あなた) ↓ 「パスタを作って」 ウェイター(AI エージェント) ← 注文を聞き、判断し、段取りを組む ↓ 「この食材でこう調理して」 キッチン設備(ランタイム) ← オーブンや鍋。料理を物理的に実行する環境 ↓ シェフの腕=レシピの知識(LLM) ← 実際に「どう調理するか」を知っている頭脳 層 役割 具体例 自分で判断するか LLM(AI モデル) 言葉を理解し、回答を生成する「頭脳」 Qwen3, Llama3, Gemma2 しない(聞かれたことに答えるだけ) ランタイム LLM をメモリに読み込み、動かす「実行環境」 Ollama, vLLM, llama.cpp しない(言われた通り動かすだけ) AI エージェント LLM を使って自律的に「仕事」をこなすプログラム Claude Code, Devin, Dify する(目標に向かって複数ステップを自分で組み立てる) 3 つの関係 AI エージェント(Claude Code など) ↓ 「この質問を LLM に投げて」 ランタイム(Ollama など) ↓ モデルをメモリに読み込んで推論実行 LLM(Qwen3 など) ↓ 回答を生成 ランタイム → エージェントに結果を返す LLM は「頭脳」。質問されたら答えを返すが、自分からは何もしない ランタイム は「エンジン」。LLM を動かすが、何を質問するかは決めない エージェント は「ドライバー」。ランタイム経由で LLM を呼び出し、結果を見て次の行動を自分で決める この記事で扱うのは、LLM(Qwen3)とランタイム(Ollama)の 2 つです。 エージェントは含みませんが、Ollama で動かした Qwen3 を Claude Code や Dify などのエージェントのバックエンドとして使うことも可能です。 ...