Ollama

概要 llama.cpp ベースで Mac/Linux/Windows で LLM をローカル実行。モデル管理・メモリ最適化を簡潔に実現。Ollama + Claude Code で無料 AI エージェント環境を構築可能。Kali Linux + MCP との統合でローカルペンテスト環境も構築可能。 関連ページ Claude Code — Ollama と組み合わせて無料環境構築 MCP — Ollama を MCP 経由で利用 ソース記事 Claude Code + Ollama ローカル無料環境 — 2026-03 Kali × Ollama × MCP — 2026-03

2026年4月6日 · 1 分

OpenClaw

概要 深圳で開発されたオープンソース AI エージェント基盤。複数の LLM(Claude、Grok、Ollama)に対応し、MCP 統合により任意のツール連携が可能。 セキュリティ上の注意 中国 CNCERT が緊急セキュリティ警告を発出。デフォルト設定でローカルファイルシステム・環境変数・シェルへの広範なアクセスが有効になっている問題。コンテナ隔離、ネットワーク制限が必須。 関連ページ AI エージェント — OpenClaw が実装するパターン MCP — OpenClaw が採用するプロトコル ソース記事 OpenClaw セットアップ — 2026-03 OpenClaw 概要 — 2026-03 OpenClaw セキュリティ警告 — 2026-03

2026年4月6日 · 1 分