DeepSeek-V4 Preview — Claude Opus 4.6 匹敵・100万トークン対応のオープンソース LLM が無償公開

DeepSeek-AI が 2026 年 4 月 24 日、100 万トークンのコンテキスト長に対応したオープンソース AI モデル「DeepSeek-V4 Preview」を公開した。コーディング競技プラットフォーム Codeforces では GPT-5.4 を上回るレーティングを記録。コーディングベンチマークでは Claude Opus 4.6 にほぼ匹敵する性能を持ちながら MIT ライセンスで無償公開されるという、衝撃的なリリースとなった。 DeepSeek-V4 の概要 DeepSeek-V4 Preview は Pro と Flash の 2 バリアントで構成される。 モデル 総パラメータ数 推論時アクティブパラメータ数 DeepSeek-V4-Pro 1 兆 6,000 億 490 億 DeepSeek-V4-Flash 2,840 億 130 億 いずれも Mixture-of-Experts(MoE)アーキテクチャを採用しており、推論時には全パラメータの一部のみを活性化することで高い効率を実現している。 アーキテクチャの革新:ハイブリッドアテンション DeepSeek-V4 の技術的な目玉は「ハイブリッドアテンション機構」だ。トークン単位の圧縮と DSA(DeepSeek Sparse Attention) を組み合わせることで、前世代と比較して: 推論演算量を約 73% 削減 KV キャッシュサイズを約 90% 削減 これにより、100 万トークンという非常に長いコンテキストをより少ないリソースで扱えるようになった。実用上は長い会話履歴・大きなコードベース・長文ドキュメントを一度のプロンプトに収められるため、エージェント系ユースケースとの相性が良い。 ベンチマーク性能 Codeforces で GPT-5.4 超え コーディング競技プラットフォーム Codeforces でのレーティングは 3,206(V4-Pro)を記録し、GPT-5.4 の 3,168 を上回るスコアを達成した。コーディング能力においてオープンソースモデルとして最先端の水準に到達した形だ。 ...

2026年4月25日 · 1 分

HuggingFace hf-mount: AIモデルをダウンロードせずに仮想ファイルシステムとしてマウント

2026年3月、HuggingFace が新ツール hf-mount を発表しました。HuggingFace Hub にホスティングされている巨大な AI モデルやデータセットを、ダウンロードせずに仮想ファイルシステムとして直接マウントできるツールです。 hf-mount とは hf-mount は、HuggingFace の Storage Bucket、モデルリポジトリ、データセットをローカルファイルシステムとしてマウントするツールです。バックエンドには FUSE(Filesystem in Userspace: ユーザー空間でファイルシステムを実装する仕組み)または NFS を使用します。ファイルは最初の読み取り時に遅延フェッチ(lazy fetch)され、実際にアクセスしたバイトだけがネットワークを通ります。 HuggingFace CEO の Clement Delangue 氏は「ローカルマシンのディスクの 100 倍大きなリモートストレージをアタッチできる」と述べています。 主な特徴 ダウンロード不要: モデルやデータセットを事前にダウンロードする必要がない 遅延フェッチ: 実際にアクセスしたファイルだけがネットワーク経由で取得される 2つのバックエンド: NFS(推奨)と FUSE から選択可能 読み書き対応: Storage Bucket は読み書き両対応、モデル・データセットは読み取り専用 Kubernetes 対応: CSI ドライバー(hf-csi-driver)で Pod 内に FUSE ボリュームとしてマウント可能 インストール Linux(x86_64, aarch64)と macOS(Apple Silicon)に対応しています。 1 curl -fsSL https://raw.githubusercontent.com/huggingface/hf-mount/main/install.sh | sh デフォルトでは ~/.local/bin/ にインストールされます。INSTALL_DIR 環境変数で変更可能です。 ...

2026年3月25日 · 1 分