HuggingFace hf-mount: AIモデルをダウンロードせずに仮想ファイルシステムとしてマウント

2026年3月、HuggingFace が新ツール hf-mount を発表しました。HuggingFace Hub にホスティングされている巨大な AI モデルやデータセットを、ダウンロードせずに仮想ファイルシステムとして直接マウントできるツールです。 hf-mount とは hf-mount は、HuggingFace の Storage Bucket、モデルリポジトリ、データセットをローカルファイルシステムとしてマウントするツールです。バックエンドには FUSE(Filesystem in Userspace: ユーザー空間でファイルシステムを実装する仕組み)または NFS を使用します。ファイルは最初の読み取り時に遅延フェッチ(lazy fetch)され、実際にアクセスしたバイトだけがネットワークを通ります。 HuggingFace CEO の Clement Delangue 氏は「ローカルマシンのディスクの 100 倍大きなリモートストレージをアタッチできる」と述べています。 主な特徴 ダウンロード不要: モデルやデータセットを事前にダウンロードする必要がない 遅延フェッチ: 実際にアクセスしたファイルだけがネットワーク経由で取得される 2つのバックエンド: NFS(推奨)と FUSE から選択可能 読み書き対応: Storage Bucket は読み書き両対応、モデル・データセットは読み取り専用 Kubernetes 対応: CSI ドライバー(hf-csi-driver)で Pod 内に FUSE ボリュームとしてマウント可能 インストール Linux(x86_64, aarch64)と macOS(Apple Silicon)に対応しています。 1 curl -fsSL https://raw.githubusercontent.com/huggingface/hf-mount/main/install.sh | sh デフォルトでは ~/.local/bin/ にインストールされます。INSTALL_DIR 環境変数で変更可能です。 ...

2026年3月25日 · 1 分

insanely-fast-whisper: 150分の音声を98秒で文字起こしする CLI ツール

音声の文字起こし(トランスクリプション)は AI の実用的な応用の一つだが、長時間の音声ファイルを処理するには時間がかかる。insanely-fast-whisper は、OpenAI の Whisper モデルを Flash Attention 2 とバッチ処理で高速化し、150分の音声をわずか98秒で文字起こしできる CLI ツールだ。 概要 insanely-fast-whisper は、Hugging Face の Transformers、Optimum、flash-attn を組み合わせた文字起こし CLI だ。2026年3月時点で GitHub スター 11,000 以上を獲得しており、コミュニティ主導で開発が進んでいる。 主な特徴: 高速処理: Nvidia A100 GPU で 150分の音声を約98秒で文字起こし 簡単なインストール: pipx install でワンコマンド導入 複数モデル対応: Whisper large-v3、distil-whisper など Mac 対応: Apple Silicon (MPS) でも動作 翻訳機能: 文字起こしだけでなく、英語への翻訳も可能 ベンチマーク Nvidia A100 (80GB) での 150分音声の処理時間比較: 構成 処理時間 large-v3 (fp32) 約31分 large-v3 (fp16 + batching + BetterTransformer) 約5分 large-v3 (fp16 + batching + Flash Attention 2) 約1分38秒 distil-large-v2 (fp16 + batching + BetterTransformer) 約3分16秒 distil-large-v2 (fp16 + batching + Flash Attention 2) 約1分18秒 large-v2 (Faster Whisper, fp16) 約9分23秒 Flash Attention 2 の効果が顕著で、BetterTransformer と比較しても約2.5〜3倍の高速化を実現している。 ...

2026年3月25日 · 2 分

AIにログを読ませてPDCA計画を立てさせる:深津貴之氏が提案するシンプルな振り返り術

note CXO・THE GUILD 代表の深津貴之氏(@fladdict)が、AI を使った日次・週次の振り返り手法を紹介している。やり方は極めてシンプルで、「昨日(先週)のログを AI に読み込ませて、PDCA 計画を策定させる」だけだという。 手法の概要 深津氏のツイートによると、手順は以下の通り: 昨日(または先週)の作業ログを AI に読み込ませる 「昨日(先週)の問題を解決する PDCA 計画を策定せよ」と指示する AI が問題点を分析し、改善計画を提案してくれる これだけで「仕事と人生がドンドン解決していく」と述べている。 なぜこの手法が効果的なのか ログの蓄積がそのまま改善の燃料になる 日々の作業ログは多くの人が何らかの形で残している。しかし、それを定期的に振り返って改善につなげるのは手間がかかる。AI を挟むことで、ログの分析と計画策定のコストがほぼゼロになる。 PDCA サイクルの「Check → Act」が自動化される PDCA サイクルの中で最もおろそかになりがちなのが Check(振り返り)と Act(改善アクション)のフェーズだ。AI にログを読ませることで、この2つのフェーズが自動的に回るようになる。 客観的な視点が得られる 自分のログを自分で振り返ると、どうしてもバイアスがかかる。AI に分析させることで、見落としていた問題点やパターンに気づける可能性がある。 実践のポイント ログの形式 AI に読み込ませるログは、特別なフォーマットである必要はない。日報、タスク管理ツールの履歴、カレンダーの予定、チャットの履歴など、手元にあるものをそのまま使えばよい。 プロンプトの例 以下は私の昨日の作業ログです。 [ログを貼り付け] このログを分析して、以下の観点で PDCA 計画を策定してください: - Plan: 今日取り組むべき優先課題 - Do: 具体的なアクション項目 - Check: 昨日の問題点と原因分析 - Act: 改善すべきプロセスや習慣 週次での活用 日次だけでなく、週次でも同じ手法が使える。1週間分のログをまとめて AI に渡せば、より大きな視点での改善計画が得られる。 AI × PDCA の広がり この手法は個人の生産性向上だけでなく、チームや組織でも応用できる。InfoQ では AI コード生成における PDCA フレームワークとして、日次のマイクロ振り返り(5〜10分)を AI エージェントと行うアプローチが紹介されている。 ...

2026年3月23日 · 1 分

autoresearch:Karpathyが公開した「寝ている間にAIが100実験を自律実行する」630行のスクリプト

OpenAI初期メンバーであるAndrej Karpathyが、autoresearchというオープンソースツールを公開しました。わずか630行のPythonスクリプトで、寝ている間にAIエージェントが約100の機械学習実験を自律的に実行してくれるというものです。 Karpathy「12月からコードを1行も書いていない」 Karpathyは「12月から自分でコードを1行も書いていない」と告白しています。代わりに公開したのがこのautoresearchで、プログラマーの仕事が「コードを書く」から「設計する」へとシフトしていることを象徴しています。 autoresearchの仕組み autoresearchはシンプルな仕組みで動作します: AIエージェントにトレーニングスクリプトと固定の計算バジェット(通常5分間のGPU時間)を渡す エージェントが自分のソースコードを読み、改善の仮説を立てる コードを修正し、実験を実行する 結果が改善されたかを評価し、改善なら保持・悪化なら破棄する このサイクルを繰り返す トレーニングは常に5分間で実行されるため、1時間あたり約12実験、一晩で約100実験が自動的に回ります。 実績と反響 Shopify CEO Tobias Lütke: 一晩で37実験を実行し、性能19%向上を達成 Karpathy自身: 700以上の実験を2日間で実行(Fortune誌報道) GitHub: 公開1週間で数万スターを獲得(現在54,000以上) 技術的特徴 シングルGPU対応: 高価なクラスタは不要 630行のスクリプト: コードベースが小さく、理解・カスタマイズが容易 MITライセンス: 誰でも自由に利用可能 Python製: train.py を中心としたシンプルな構成 リポジトリ GitHub: karpathy/autoresearch 「書く」から「設計する」への転換 autoresearchが示唆しているのは、世界最高峰のプログラマーの仕事が「AIにコードを書かせる」段階をすでに超え、AIエージェントに実験を設計・実行させるフェーズに入っているということです。Karpathyは将来的に、エージェント群が協調して小さなモデルをチューニングし、有望なアイデアを段階的にスケールアップさせる「研究コミュニティのエミュレーション」を構想しています。

2026年3月23日 · 1 分

ClawRouter — OpenClaw の API コストを最大92%削減するオープンソース LLM ルーター

OpenClaw を使っていて API コストが気になっていませんか? ClawRouter は、リクエストごとに最安のモデルを自動選択してくれるオープンソースの LLM ルーターです。最大約92%のコスト削減が期待でき、しかも完全無料で利用できます。 ClawRouter とは ClawRouter は、OpenClaw 向けに設計されたエージェントネイティブな LLM ルーターです。MIT ライセンスで公開されており、誰でも無料で利用できます。 主な特徴: 55以上のモデルに対応 — DeepSeek V3.2、Nemotron Ultra 253B、Mistral Large 3 675B、Llama 4 Maverick など 1ms 未満のルーティング — すべてローカルで処理されるため、レイテンシの追加はほぼゼロ 15次元のリクエスト分析 — 各リクエストを多次元で要素分解し、最適なモデルをスコアリング 11モデルが完全無料 — 簡単なクエリは無料モデルに自動ルーティング どれくらいコストが下がるのか ClawRouter の公式ベンチマークによると: 指標 値 ClawRouter 平均コスト $2.05 / 100万トークン Claude Opus 直接利用 $25 / 100万トークン 削減率 約92% たとえば「2+2は?」のような簡単な質問は、DeepSeek などの無料モデルに自動ルーティングされます。一方、複雑な推論が必要なタスクにはプレミアムモデルが選択されるため、品質を犠牲にしません。 仕組み ClawRouter は各リクエストに対して以下のプロセスを実行します: リクエスト分析 — 入力テキストを15次元で要素分解(タスクの複雑さ、必要な推論能力、言語、コンテキスト長など) スコアリング — 各モデルの能力とコストを総合的に評価 ルーティング — 最もコスト効率の良いモデルを自動選択 この全プロセスが 1ms 未満で完了します。 ...

2026年3月21日 · 1 分

OpenClawで月売上1,200万円・従業員ゼロの会社を実現したAIエージェント「Felix」

OpenClaw で構築された AI エージェント「Felix」が、従業員ゼロで月売上1,200万円規模の会社を運営しているという事例が話題になっている。起業家 Nat Eliason(エリアソン)氏がどのようにこの仕組みを構築したのか、その構造と示唆をまとめる。 Felix が回す会社の構造 エリアソン氏は、OpenClaw で作った AI エージェント「Felix」を中心に会社を運営している。 Felix = CEO 兼プロダクト責任者 Iris = カスタマーサポート担当 Remy = セールス担当 全員が AI エージェントで、人間はエリアソン氏本人だけ。やっていることは Discord に音声メモを送ることだけで、5分程度のボイスメモで方向性を伝えると、Felix が全体を組み立てて実行まで持っていく。 驚異的なコスト構造 初期費用: 約22万円(Mac Mini 等) 月額コスト: 約6万円(Claude Max 2アカウント分) 人件費: ゼロ 30日間の売上: 約1,200万円 年間ランレート換算: 1.5億〜3億円 利益率がほぼ100%という異常な構造になっている。 毎晩の自己改善ループ Felix の最も興味深い特徴は「毎晩の自己改善ループ」だ。 Felix は毎晩、部下の Iris と Remy の仕事をレビューして再プログラムしている。人間の上司が部下にフィードバックするのと同じことを、AI エージェントが AI エージェントに対して行っている。 さらに、Felix は毎晩すべてのチャット履歴を読み返して「Nat が自分をブロックした場面」を1つ見つける。そのブロッカーを恒久的に取り除く方法を自分で考えて実装する。つまり毎日少しずつ自律性が上がっていく仕組みになっている。 スケーリングの壁 エリアソン氏が語るスケーリングの壁が興味深い。 「単一エージェントの処理限界にぶつかっている」 「ボトルネックは資金じゃなくてインフラ」 VC から出資オファーが来ても、必要なのはお金ではなく「エージェントの自律性(agency)」だという。何億円投じてもエージェントが賢くならない限り天井は変わらない。 Felix のビジネス内容 Felix が運営するビジネスは、主に3つの収益源で構成されている。 1. Felix Craft(PDF ガイド) 最初のプロダクトは「How to Hire an AI」という66ページの PDF ガイド($29)。AI を実際のチームメンバーとして活用する方法をまとめたもので、Felix 自身が執筆した。Next.js + Vercel + Stripe で世界一シンプルな販売サイトを構築し、初日に15万円を売り上げた。累計で約$41,000の売上を記録している。 ...

2026年3月21日 · 1 分

6ヶ月でAIエンジニアになるロードマップ — 無料リソースだけで学ぶ完全ガイド

この記事では、Python基礎からLLM/RAG開発、MLOpsまでを6ヶ月で学ぶロードマップを、すべて無料のリソースで紹介する。各月のゴールと具体的な教材リスト付き。 AIエンジニアの求人は前年比143%増加している。米国での平均年収は約17万5,000ドル。インドでは10件の求人に対して1人しか適格な候補者がいない状況だ。 学位は不要。ブートキャンプも不要。必要なスキルを学ぶためのリソースはすべて無料で公開されている。この記事では、AI分野のコンテンツクリエイターであるNav Toor氏が提唱する6ヶ月のロードマップを紹介する。1ヶ月ずつ、6つのフェーズで構成されている。 Month 1: Python とプログラミング基礎 すべてのAIフレームワーク、ライブラリ、ツールはPythonの上に構築されている。このステップを省略したり、急いで済ませたりしてはいけない。 学ぶべき内容: 変数、関数、ループ、条件分岐、データ構造(リスト、辞書、セット)、オブジェクト指向プログラミング、ファイル操作、エラー処理、Git/GitHub の基本。 リソース Python for Everybody(Dr. Chuck, ミシガン大学) — YouTubeとCourseraで無料公開。史上最も人気のあるPythonコース CS50P: Introduction to Programming with Python(Harvard, David Malan) — YouTube で無料。ハーバード品質、前提知識不要 Automate the Boring Stuff with Python(Al Sweigart) — オンラインで無料閲覧可能。初日から実践的なPython Git and GitHub for Beginners(freeCodeCamp) — YouTube で無料。1時間で必要な知識をカバー マイルストーン: CSVを読み込み、データを処理し、結果を出力するPythonスクリプトを書ける。GitHubアカウントに3つ以上のプロジェクトがプッシュされている。 Month 2: 数学と統計 数学の学位は不要だ。モデルがなぜ動くのか、うまくいかないときにどう対処すべきかを理解できる程度の数学で十分だ。 学ぶべき内容: 線形代数(ベクトル、行列、内積、固有値)、微積分(微分、勾配、連鎖律)、確率(ベイズの定理、分布)、統計(平均、分散、仮説検定、回帰)。 リソース 3Blue1Brown: Essence of Linear Algebra — YouTube で無料。16本の動画。史上最高の数学ビジュアルコンテンツ 3Blue1Brown: Essence of Calculus — YouTube で無料。同じクオリティと明快さ Khan Academy: Statistics and Probability — 無料。包括的。自分のペースで学習可能 MIT 18.06: Linear Algebra(Gilbert Strang) — MIT OCW で無料。大学講義のゴールドスタンダード StatQuest with Josh Starmer — YouTube で無料。専門用語なしで統計を解説 マイルストーン: 勾配降下法を直感的に理解できる。損失関数の役割と、行列乗算がニューラルネットワークで重要な理由を説明できる。 ...

2026年3月18日 · 2 分

agent-skill-bus: AIエージェントのスキル劣化を自動検知・修復するOSSランタイム

AIエージェントを本番運用していると、スキルが静かに壊れていく問題に直面する。agent-skill-bus は、エージェントスキルのヘルスモニタリング・自己改善・依存管理を担うフレームワーク非依存の運用基盤だ。 背景: 42体のAIエージェント運用で見えた課題 開発者のシュンスケ氏(@The_AGI_WAY)は、42体のAIエージェントを半年間運用する中で以下の課題に直面したという。 エージェントは壊れる — APIの変更、モデルのアップデート、認証の期限切れなどで、スキルが静かに劣化する タスクは衝突する — 複数のエージェントが同時に同じファイルを編集し、データ破損が発生する 依存関係が管理できない — 複雑なタスクはA→B→Cの順序が必要だが、多くのシステムは並列実行してしまう 学習ループがない — フィードバック機構がないため、同じ失敗が繰り返される 42体を人間が目視で監視するのは現実的ではない。そこで作られたのが agent-skill-bus だ。 3つのモジュール構成 agent-skill-bus は、独立して動作する3つのモジュールで構成されている。 モジュール 役割 Prompt Request Bus DAG(有向非巡回グラフ)ベースのタスクキュー。依存関係の解決とファイルロックを提供 Self-Improving Skills スキル品質の自動モニタリングと修復ループ Knowledge Watcher 外部変更の検知から自動改善トリガーを発火 これらが連携することで、閉ループの自己改善エージェントシステムを形成する。 1 2 3 4 5 外部変更 ──→ Knowledge Watcher ──→ Prompt Request Bus ──→ 実行 ↑ │ │ ↓ Self-Improving ←── スキル実行ログ Skills セットアップと基本的な使い方 Node.js のみで動作し、外部依存はゼロ。 ...

2026年3月18日 · 1 分

AIのスケーリングだけではAGIに届かない — 必要なのは新しいアーキテクチャ

コロンビア大学の Vishal Misra 教授が、AI のスケーリングの限界と AGI(Artificial General Intelligence: 汎用人工知能)実現に必要な条件について語っている。同教授はコンピュータサイエンス・電気工学を専門とし、AI・コンピューティング副学部長を務める。「モデルを大きくすれば知能に届く」という期待に対し、根本的に異なるアプローチが必要だという指摘だ。 スケーリングだけでは解決しない Misra 教授の主張の核心は明快だ。 いま広く存在している誤解の一つは、スケールを拡大すればすべて解決するというものです。ですが、スケールだけではすべては解決しません。必要なのは、別種のアーキテクチャです。 現在の LLM は、パラメータ数やデータ量を増やすことで性能を向上させてきた。しかし、この「スケーリング則」には限界がある。モデルを大きくしても、タスク固有の性能は上がるが、継続的に適応し汎化する能力は自動的には得られない。これこそが真の知能に必要な能力だ。 継続学習と破滅的忘却のジレンマ AGI に必要な第一の条件として、Misra 教授は「可塑性(plasticity)」を挙げる。これは継続学習(continual learning)によって実装されなければならない。 この継続学習は難しい問題です。新しいことを学べるという利点と、破滅的忘却のリスクを両立させなければならないからです。重みを更新しても、重要だったことや、すでに学んだことを忘れてしまうなら、それは進歩ではありません。そうなると、ただのランダムでカオスなモデルになってしまいます。 破滅的忘却(catastrophic forgetting)は、ニューラルネットワークが新しいタスクを学習する際に、以前のタスクの性能が急激に低下する現象だ。現在の LLM はファインチューニング時にこの問題に直面する。新しい知識を獲得しながら、既存の知識を保持する。この一見シンプルな要件が、技術的には極めて困難な課題だ。 相関から因果へ 第二の条件は、「相関から因果への移行」だ。 AGI に到達するには、二つのことが必要だと私は考えています。一つはこの可塑性であり、これは継続学習によって実装されなければなりません。もう一つは、相関から因果へ移行することです。 現在の LLM は、大量のテキストデータから統計的な相関パターンを学習している。「AのあとにBが来やすい」というパターンは捉えられるが、「AがBを引き起こす」という因果関係の理解は本質的に異なる。因果推論ができなければ、未知の状況での推論や、ある行動がどんな結果をもたらすかの予測は困難だ。 現在の AI 研究への示唆 Misra 教授の指摘は、現在の AI 開発の方向性に対する重要な問題提起だ。 スケーリングの限界: パラメータ数やデータ量の増加だけでは、質的な飛躍は起きない アーキテクチャの革新: Transformer アーキテクチャの改良だけでなく、根本的に新しい設計が求められる 継続学習の実現: 学習と記憶の両立は、脳科学の知見も取り入れた新しいアプローチが必要 因果推論の統合: 統計的パターンマッチングを超えた、因果モデルの構築が不可欠 「大きくすれば賢くなる」という単純な物語は魅力的だが、AGI への道はもっと複雑で、根本的なブレイクスルーが求められている。 参考 Vishal Misra - Columbia University Chatting about AI with our New Vice Dean of AI and Computing - Columbia Engineering

2026年3月18日 · 1 分

OpenDataLoader PDF — CPUだけで毎秒100ページ、PDFをMarkdownに超高速変換するOSSツール

GPUなしで毎秒100ページ以上のPDF→Markdown変換を実現するオープンソースツール「OpenDataLoader PDF」が話題になっている。Apache 2.0ライセンスで完全無料、CPUのみで動作するため、高価なGPUハードウェアは不要だ。 OpenDataLoader PDF とは OpenDataLoader PDF は、PDFドキュメントをAI活用に適した構造化データ(Markdown、JSON、HTML等)に変換するオープンソースのパーサーだ。Java で実装されており、Python・Node.js・Java から利用できる。 主な特徴: 超高速処理: ローカルモードで 0.05秒/ページ(CPUのみ)、8コア以上のマシンでマルチプロセスバッチ処理すると毎秒100ページ以上 GPU不要: CPUだけで高速に動作するため、導入コストが低い 高精度: ベンチマークで総合精度0.90を達成し、読み順・テーブル・見出し抽出で1位 Apache 2.0ライセンス: 商用利用可能な完全オープンソース インストール Python パッケージは Java CLI のラッパーのため、Java 11以上とPython 3.10以上が必要だ。 1 2 3 4 5 # Python pip install -U opendataloader-pdf # Node.js npm install @opendataloader/pdf Java の場合は Maven で opendataloader-pdf-core を依存関係に追加する。 基本的な使い方 Python でのシンプルな変換 1 2 3 4 5 6 7 import opendataloader_pdf opendataloader_pdf.convert( input_path=["file1.pdf", "file2.pdf", "folder/"], output_dir="output/", format="markdown,json" ) フォルダを指定すれば一括変換も可能だ。出力形式は Markdown、JSON、HTML、プレーンテキスト、注釈付きPDFから選べる。 ...

2026年3月18日 · 1 分