概要

llama.cpp ベースで Mac/Linux/Windows で LLM をローカル実行。モデル管理・メモリ最適化を簡潔に実現。Ollama + Claude Code で無料 AI エージェント環境を構築可能。Kali Linux + MCP との統合でローカルペンテスト環境も構築可能。

関連ページ

  • Claude Code — Ollama と組み合わせて無料環境構築
  • MCP — Ollama を MCP 経由で利用

ソース記事