Claude で YouTube チャンネルを 90 日で収益化する 7 つのプロンプト戦略 --- ニッチ分析からコミュニティ構築まで

Claude で YouTube チャンネルを 90 日で収益化する 7 つのプロンプト戦略 — ニッチ分析からコミュニティ構築まで @gudanglifehack 氏が X で投稿した、Claude を活用した YouTube 成長戦略が注目を集めています。 BREAKING: Claude can now build a complete YouTube growth strategy that takes channels from 0 to monetization in 90 days. 7 prompts to go from unknown creator to trusted authority in your niche. 37 万フォロワーを持つ @gudanglifehack 氏が紹介するのは、Claude に投げるだけで YouTube チャンネルの成長戦略を一気通貫で構築できる 7 つのプロンプトです。本記事では、各プロンプトの構造と背景にある YouTube 成長の仕組みを技術的に解説し、AI をコンテンツ戦略に活用する方法を整理します。 YouTube 収益化の現在地(2026 年) 2 段階の収益化要件 YouTube パートナープログラム(YPP)は 2 段階の収益化構造になっています。 ...

2026年3月4日 · 4 分

FinGPT 完全ガイド — オープンソース金融 LLM の仕組みと実践

FinGPT 完全ガイド — オープンソース金融 LLM の仕組みと実践 「ローカル LLM を金融取引の意思決定サポートに応用する」で紹介した FinGPT について、アーキテクチャから実践的な利用方法まで詳しく解説します。BloombergGPT の学習コストが約 270 万ドル(約 4 億円)だったのに対し、FinGPT は 17〜300 ドルで同等以上の精度を実現するオープンソースの金融特化 LLM フレームワークです。 FinGPT とは FinGPT は AI4Finance Foundation(米国 501(c)(3) 非営利法人)が開発・維持するオープンソースプロジェクトです。Columbia University と NYU Shanghai の研究者が中心となり、2023 年 6 月に初版論文(arXiv:2306.06031)を公開しました。 開発の背景 Bloomberg が 2023 年に公開した BloombergGPT(50B パラメータ)は、金融特化 LLM の可能性を示しました。しかし、モデルは非公開で、学習には 53 日間と約 270 万ドルが必要でした。 FinGPT はこの問題に対して「金融 AI の民主化」を掲げ、以下を実現しています。 オープンソース(Apache 2.0 / MIT ライセンス) LoRA によるパラメータ効率的なファインチューニング 1 台の GPU(RTX 3090)で学習可能 学習コスト 17〜300 ドル(BloombergGPT 比で約 1 万分の 1) 項目 BloombergGPT FinGPT パラメータ数 50B 7B〜13B(LoRA) 学習コスト 約 270 万ドル 17〜300 ドル 学習期間 53 日 数時間 公開状況 非公開 オープンソース 感情分析(FPB F1) 51.0% 88.2% 感情分析では FinGPT が BloombergGPT を大幅に上回っています。 これは LoRA によるタスク特化のファインチューニングが、大規模な事前学習よりも効率的にドメイン知識を獲得できることを示しています。 ...

2026年3月4日 · 7 分

GitHub Copilot CLI の /research コマンド --- コミットログも Actions 履歴も全部調べてくれるディープリサーチ

GitHub Copilot CLI の /research コマンド — コミットログも Actions 履歴も全部調べてくれるディープリサーチ @07JP27 氏が X で連続投稿し、GitHub Copilot CLI の /research コマンドの威力を紹介しています。 /research コマンドすげえ。Web を Deep Research してくれるのはもちろん、紐づくリポジトリのコミットログとか GitHub Actions の実行履歴まで全部見てくれて「お前のこのときのコミットのここが原因だぞ。Actions のログにもこう出てるだろ」みたいなことを言ってくる。 元の投稿では Qiita 記事(@shyamagu 氏の解説)も参照されており、MCP ツール連携や WorkIQ との統合例が紹介されています。本記事では、/research コマンドの技術的な仕組みと、Claude Code との比較を交えて解説します。 /research コマンドとは 概要 2026 年 2 月 25 日、GitHub Copilot CLI が全有料プラン向けに一般提供(GA)を開始しました。同日リリースの v0.0.417 で追加された /research コマンドは、ディープリサーチ専用のスラッシュコマンドです。 通常のチャットが速度重視なのに対し、/research は徹底性(thoroughness)を重視します。複数のツールを呼び出しながら情報を収集し、数百行に及ぶ Markdown レポートを生成します。 1 2 3 4 5 # 基本的な使い方 /research Azure App Service の 2026 年の新機能 # MCP ツールを明示的に指定 /research microsoft-docs ツールを使って Azure App Service の新機能を調査してください 3 つのクエリ分類 /research はクエリを自動分類し、回答形式を最適化します。 ...

2026年3月4日 · 3 分

labor-law-mcp — Claude の労務ハルシネーションを防ぐ MCP サーバーと「一次情報/二次情報」の設計思想

labor-law-mcp — Claude の労務ハルシネーションを防ぐ MCP サーバーと「一次情報 / 二次情報」の設計思想 sabaaji0113氏のポストが、労務法令の条文と通達を Claude に提供する MCP サーバー「labor-law-mcp」の公開を告知し、804いいね、143RT、937ブックマーク、約63,000表示と大きな反響を呼んでいます。 税務より苦労した!!労務MCPサーバー「labor-law-mcp」を公開しました。Claudeが労務の質問に答えるとき、条文や通達のハルシネーションを防ぐためのMCPサーバーです。 — sabaaji0113 このプロジェクトが注目される理由は3つあります。第一に、法律というハルシネーションが許されない領域で一次情報への直接アクセスを実現していること。第二に、先行する税法版(tax-law-mcp)のアーキテクチャを応用し、取得できない情報を「ごまかさない」設計を導入したこと。第三に、社労士・会計事務所という明確な実務ユーザーを想定していることです。 labor-law-mcp の全体像 基本情報 項目 内容 開発者 kentaroajisaka GitHub kentaroajisaka/labor-law-mcp npm labor-law-mcp ライセンス MIT 言語 TypeScript 99.4% Stars 35 対応法令数 45法令 6つのツール ツール データソース 機能 get_law e-Gov 法令API v2 法令名 + 条番号で条文を Markdown 形式で取得 search_law e-Gov 法令API v2 キーワードで法令を横断検索 search_mhlw_tsutatsu 厚労省法令等DB 厚労省通達をキーワード検索 get_mhlw_tsutatsu 厚労省法令等DB 通達本文を HTML→テキスト変換して取得 search_jaish_tsutatsu 安全衛生情報センター 安衛法関連通達を検索 get_jaish_tsutatsu 安全衛生情報センター 安衛通達本文を取得 対応法令(45法令・6カテゴリ) カテゴリ 主要法令 労働基準 労働基準法、労働契約法、最低賃金法、同施行令・規則 労働安全衛生 労働安全衛生法、じん肺法、同施行令・規則 労働保険 労災保険法、雇用保険法、労働保険料徴収法 雇用対策 職業安定法、労働者派遣法、障害者雇用促進法 均等・ワークライフバランス 育児介護休業法、男女雇用機会均等法、パート有期法 社会保険 健康保険法、厚生年金保険法、国民年金法、介護保険法 略称にも対応しています。「労基法」「安衛法」「育介法」「健保法」「パワハラ防止法」など12の略称で自然に質問できます。 ...

2026年3月4日 · 3 分

macOS Keychain で .env のシークレットを守る — 1Password 不要、無料で実現する AI エージェント時代の秘密管理

macOS Keychain で .env のシークレットを守る — 1Password 不要、無料で実現する AI エージェント時代の秘密管理 前回の記事で、@suin 氏の opx を紹介しました。1Password CLI をラップし、.env に op:// 参照だけを書くことで AI エージェントからシークレットを守るツールです。 しかし、opx には 1Password の契約(月額 $2.99〜)が前提という制約があります。実は macOS には Keychain という強力な秘密管理基盤が標準搭載されており、追加コストなしで同等の「プロセススコープ認証」を実現できます。本記事では、macOS 組み込み機能だけで .env の秘密を守る方法を、ツール選定から実践設定まで解説します。 なぜ macOS Keychain なのか 1Password との比較 項目 1Password + opx macOS Keychain コスト 月額 $2.99〜 無料(OS 標準) インストール 1Password アプリ + CLI + opx 不要(security コマンドが標準搭載) チーム共有 Vault 共有で容易 端末ローカル(共有には別の仕組みが必要) クラウド同期 1Password クラウド iCloud Keychain で Apple デバイス間は同期可能 Touch ID op run 時に認証 Keychain アクセス時に認証(設定が必要) Linux 対応 1Password CLI あり gnome-keyring / KeePassXC で代替 暗号化 1Password 独自(AES-256-GCM) macOS Keychain(AES-256) 個人開発やスモールチームなら、macOS Keychain で十分です。チーム全体でシークレットを共有したい場合は 1Password の Vault 共有が優位ですが、「AI エージェントに .env を読まれても安全にする」という目的だけなら無料で実現できます。 ...

2026年3月4日 · 6 分

Ollama で Qwen3 を動かす初心者ガイド — 日本語最強ローカルLLMを自分のPCで使う方法

Ollama で Qwen3 を動かす初心者ガイド — 日本語最強ローカル LLM を自分の PC で使う方法 「ChatGPT みたいな AI を、自分の PC だけで動かせたら」と思ったことはありませんか。Ollama と Qwen3 を使えば、それが実現できます。この記事では、Saiteki AI の解説記事をベースに、初心者でもわかるように Ollama と Qwen3 の導入手順をまとめました。 まず知っておきたい:LLM・ランタイム・エージェントの 3 層構造 AI の世界には、混同しやすい 3 つの概念があります。この記事で扱う Ollama と Qwen がどこに位置するかを最初に整理しましょう。 レストランに例えると お客さん(あなた) ↓ 「パスタを作って」 ウェイター(AI エージェント) ← 注文を聞き、判断し、段取りを組む ↓ 「この食材でこう調理して」 キッチン設備(ランタイム) ← オーブンや鍋。料理を物理的に実行する環境 ↓ シェフの腕=レシピの知識(LLM) ← 実際に「どう調理するか」を知っている頭脳 層 役割 具体例 自分で判断するか LLM(AI モデル) 言葉を理解し、回答を生成する「頭脳」 Qwen3, Llama3, Gemma2 しない(聞かれたことに答えるだけ) ランタイム LLM をメモリに読み込み、動かす「実行環境」 Ollama, vLLM, llama.cpp しない(言われた通り動かすだけ) AI エージェント LLM を使って自律的に「仕事」をこなすプログラム Claude Code, Devin, Dify する(目標に向かって複数ステップを自分で組み立てる) 3 つの関係 AI エージェント(Claude Code など) ↓ 「この質問を LLM に投げて」 ランタイム(Ollama など) ↓ モデルをメモリに読み込んで推論実行 LLM(Qwen3 など) ↓ 回答を生成 ランタイム → エージェントに結果を返す LLM は「頭脳」。質問されたら答えを返すが、自分からは何もしない ランタイム は「エンジン」。LLM を動かすが、何を質問するかは決めない エージェント は「ドライバー」。ランタイム経由で LLM を呼び出し、結果を見て次の行動を自分で決める この記事で扱うのは、LLM(Qwen3)とランタイム(Ollama)の 2 つです。 エージェントは含みませんが、Ollama で動かした Qwen3 を Claude Code や Dify などのエージェントのバックエンドとして使うことも可能です。 ...

2026年3月4日 · 5 分

OpenHands 入門ガイド — 無料・オープンソースの AI コーディングエージェントを自分の PC で動かす

OpenHands 入門ガイド — 無料・オープンソースの AI コーディングエージェントを自分の PC で動かす OpenHands とは OpenHands(旧 OpenDevin)は、AI が自律的にコードを書き、デバッグし、テストを実行するオープンソースのコーディングエージェントです。MIT ライセンスで完全無料、GitHub で 68,000 スター以上を獲得し、479 名以上のコントリビューターが参加しています。 簡単に言えば、「Claude Code や Devin のオープンソース版」です。自然言語で「この関数のテストを書いて」「このバグを直して」と指示するだけで、AI がファイルを読み、コードを編集し、ターミナルでコマンドを実行して、タスクを完了させます。 LLM・ランタイム・エージェントの 3 層構造における位置づけ AI ツールを理解する上で、3 つの層を区別することが重要です。 あなた ↓ 「このバグを直して」 エージェント(OpenHands) ← コードを読み、修正し、テストを実行する「ドライバー」 ↓ 「この質問を LLM に投げて」 ランタイム(Ollama 等) ← LLM を動かす「エンジン」 ↓ LLM(Qwen3, Claude 等) ← 回答を生成する「頭脳」 層 役割 OpenHands の場合 LLM 言語理解・コード生成 Claude, GPT, Qwen3 など(選択可能) ランタイム LLM の実行環境 Anthropic API / OpenAI API / Ollama エージェント 自律的にタスクを遂行 OpenHands がここ OpenHands の最大の特徴はモデル非依存であることです。クラウド API(Claude, GPT)でも、ローカル LLM(Ollama + Qwen3)でも動作します。 ...

2026年3月4日 · 3 分

QwenVoice --- Mac でボイスクローニング・感情表現・音声デザインを完全オフラインで実現する Qwen3-TTS アプリ

QwenVoice — Mac でボイスクローニング・感情表現・音声デザインを完全オフラインで実現する Qwen3-TTS アプリ @ai_hakase_ 氏が X で紹介した、Mac 向け音声生成アプリ「QwenVoice」が注目を集めています。 【Mac で革命】Qwen3-TTS 搭載の最強音声生成アプリ「QwenVoice」。ボイスクローニングや感情表現が Mac で爆速!Apple Silicon 最適化でオフライン動作も完璧です。面倒な設定なしでプロ級のナレーションを生成可能。 QwenVoice は、Alibaba Cloud の Qwen チームが開発したオープンソース TTS モデル「Qwen3-TTS」を Apple Silicon Mac でネイティブに動かす GUI アプリです。Python のインストールもターミナル操作も不要で、ドラッグ & ドロップだけで使い始められます。本記事では、QwenVoice の機能と Qwen3-TTS の技術的な仕組みを解説します。 QwenVoice の概要 何ができるのか QwenVoice は 3 つの音声生成モードを提供します。 モード 機能 使い方 Custom Voice プリセット音声で読み上げ 4 種類の英語話者(Ryan, Aiden, Serena, Vivian)から選択 Voice Design 自然言語で新しい声を作る 「落ち着いた男性の低い声」のようにテキストで指示 Voice Cloning 既存の声を複製 5〜10 秒の音声サンプルから声を再現 3 つのモードすべてが 100% オフラインで動作します。音声データがクラウドに送信されることはありません。 システム要件 要件 スペック OS macOS 14.0(Sonoma)以上 プロセッサ Apple Silicon(M1 / M2 / M3 / M4) メモリ 8 GB 以上推奨 インストール手順 1 2 3 4 5 # 1. GitHub Releases から QwenVoice.dmg をダウンロード # 2. /Applications にドラッグ # 3. 検疫属性を解除(署名なしのため) xattr -cr "/Applications/QwenVoice.app" # 4. アプリを起動 → Models タブ → モデルをダウンロード → 生成開始 Python 環境の構築やライブラリのインストールはアプリが自動で行います。ユーザーが触るのは GUI だけです。 ...

2026年3月4日 · 3 分

Rust の仕事が増えていく理由 — インフラコスト削減の圧力と LLM が学習コストを消し去る構造変化

Rust の仕事が増えていく理由 — インフラコスト削減の圧力と LLM が学習コストを消し去る構造変化 @helloyuki_ 氏のポストが、Zenn の記事を紹介し反響を呼んでいます(いいね 177、ブックマーク 124)。 前職の同僚がなんか書いてた。広告配信でRustを採用した際のインフラ費の話を聞いた気がするんだけど、たしかにRustにするとこんなに削減できるのかと思った記憶がある🤔 引用元は yukinarit 氏による Zenn 記事「Rustの仕事が増えていく理由」。地図・ゲーム・証券・広告・メッセージングと多様な業界で Rust を使ってきたエンジニアが、なぜ Rust の仕事が増えていくのかを構造的に分析した記事です。 本記事では、元記事の論点を整理し、企業の実績データとLLM時代の変化を加えて解説します。 Rust 採用の構造的理由 — 2軸モデル 性能要求 × 開発コストの2軸 元記事が提示するフレームワークは、言語選定を性能要求と開発コスト許容度の2軸で整理するものです。 高性能要求 ↑ 領域D | 領域C Rust / C++ | ML研究等 | ───────────────┼───────────────→ 高コスト許容 | 領域B | 領域A Go / Java | Ruby / Python | TypeScript 低性能要求 領域 言語 典型的なプロダクト A(低性能・低コスト) Ruby, Python, TypeScript Web アプリ、管理画面、MVP B(中性能・中コスト) Go, Java, C# マイクロサービス、API サーバー C(低性能・高コスト) Python + CUDA 機械学習研究 D(高性能・高コスト) Rust, C++ HFT、ゲームエンジン、広告配信 領域 B → D への圧力 重要なのは、クラウドの普及が領域 B のプロダクトを領域 D に押し上げていることです。オンプレミス時代はサーバーを買い切りだったため、CPU やメモリの使用効率が直接コストに響きにくかった。しかしクラウドでは CPU 時間・メモリ量が従量課金されるため、「Go/Java で十分」だったサービスがコスト削減のために Rust を検討するフェーズに入っています。 ...

2026年3月4日 · 4 分

Skills の自動最適化 — TextGrad を応用して提案書生成スキルを「学習」させる実験と過学習の発見

Skills の自動最適化 — TextGrad を応用して提案書生成スキルを「学習」させる実験と過学習の発見 @yusuke_post 氏が、Claude Code の Skills を深層学習の手法で自動最適化する実験を公開し、大きな反響を呼んでいます。 最初のポスト(いいね 1,226、ブックマーク 2,265)では TextGrad を応用した Skills 最適化の概念を紹介し、続報のポスト(いいね 126、ブックマーク 132)では追加実験の結果として以下の知見を報告しています。 わかったのは、 ・3イテレーションくらいで過学習する。 ・1回だけでなく、3回くらいイテレーションを回すことで徐々にスコアが改善する。 ・学習を始めて最初の方は、「提案書に何を書くか」を学び出して、最後の方では「提案書のそれぞれの項目をどう書くか」を自動で学習する。 特に「全体最適→局所最適の順番で AI が自動で学んだ」という発見は、深層学習の訓練過程と同様の振る舞いが Markdown のプロンプトでも起きることを示唆しています。本記事では、この実験の背景・手法・発見を解説します。 TextGrad とは何か 「テキスト版の誤差逆伝播」 TextGrad(論文: arXiv 2406.07496)は、Stanford 大学の Zou グループが開発し、Nature に掲載されたフレームワークです。深層学習における誤差逆伝播(backpropagation)の概念を、テキストに適用します。 [深層学習の最適化] 入力 → ニューラルネット → 出力 → 損失関数 → 勾配計算 → パラメータ更新 ↑ 数値の勾配 [TextGrad の最適化] 入力 → LLM → 出力 → 評価(LLM) → テキスト勾配 → プロンプト更新 ↑ 自然言語のフィードバック 従来の深層学習では数値的な勾配を計算してパラメータを更新しますが、TextGrad では LLM が自然言語で「どう改善すべきか」をフィードバックし、それを「テキスト勾配」としてプロンプトを更新します。 ...

2026年3月4日 · 3 分