概要
llama.cpp ベースで Mac/Linux/Windows で LLM をローカル実行。モデル管理・メモリ最適化を簡潔に実現。Ollama + Claude Code で無料 AI エージェント環境を構築可能。Kali Linux + MCP との統合でローカルペンテスト環境も構築可能。
関連ページ
- Claude Code — Ollama と組み合わせて無料環境構築
- MCP — Ollama を MCP 経由で利用
ソース記事
- Claude Code + Ollama ローカル無料環境 — 2026-03
- Kali × Ollama × MCP — 2026-03