Gemma 4

概要 Google DeepMind が 2026年4月にリリースしたオープンソース LLM シリーズ。Apache 2.0 ライセンスで商用利用可能。エッジデバイスからサーバー/ワークステーションまで対応する4サイズ展開で、API 経済の構造に変化をもたらすと注目されている。 ラインナップ モデル パラメータ 推論時アクティブ コンテキスト 用途 E2B(MoE) 〜8B 約2B 128K スマートフォン・オフライン E4B(MoE) 〜16B 約4B 128K エッジデバイス 27B Dense 27B 27B 256K ミッドレンジサーバー 31B Dense 31B 31B 256K サーバー/ワークステーション E2B モデルはスマートフォン上での完全オフライン動作が可能で、API 従量課金に依存しない自律型 AI の基盤となりうる。 主な特徴 マルチモーダル対応: テキスト、画像、音声(モデルにより異なる) Apache 2.0 ライセンス: 商用利用・改変・再配布が自由 Ollama / llama.cpp 対応: ローカル実行が容易 Gemma 4 31B vs Qwen3.5-27B ローカル LLM として競合する Qwen3.5-27B(Alibaba)との比較では、推論・マルチモーダル能力は Gemma 4 が優位、コーディング性能・長文コンテキスト(262K トークン)は Qwen3.5 が優位とされる。 ...

2026年4月14日 · 1 分

Googleが1000億の実データで学習した予測AI「TimesFM」をひっそり公開していた

Googleが時系列予測のための基盤モデル TimesFM(Time Series Foundation Model)をひっそりと公開していた。1000億以上の実データで学習済みで、自分のデータをファインチューニングすることなく(ゼロショットで)すぐに使える点が特徴だ。 TimesFM とは TimesFM は Google Research が開発した時系列予測に特化した基盤モデルだ。GPT-3 などの大規模言語モデルに着想を得たデコーダーのみのトランスフォーマーアーキテクチャを採用しており、テキストではなく「時系列データのパターン」を学習する。 パラメータ数: 2億パラメータ(TimesFM 2.5 では最適化済み) アーキテクチャ: デコーダーのみのトランスフォーマー コンテキスト長: TimesFM 2.5 で 16,384 タイムポイント(8倍に拡張) 何が予測できるのか TimesFM が得意とするユースケースは多岐にわたる。 売上・需要予測: 小売の週次売上、在庫需要、サプライチェーン計画 市場価格予測: 株式市場、コモディティ、仮想通貨の価格変動 電力需要予測: 電力負荷、エネルギー価格、スマートグリッド最適化 ユーザートラフィック予測: Web サイトのアクセス、API リクエスト量、サーバー負荷計画 ゼロショットで使えるのが最大の強み 従来の深層学習モデルは、予測したいデータセットに合わせて個別にトレーニングする必要があった。TimesFM はそれとは異なり、一切のファインチューニングなしに新しいデータセットに対して高精度な予測を実現する。 公式の評価によると、ゼロショット状態の TimesFM は多くの個別学習済み深層学習モデルを上回るパフォーマンスを示している。 学習データ TimesFM は以下のデータソースから 1000 億以上のデータポイントを使って学習されている。 データソース 内容 Wikipedia ページビュー 2012〜2023年の閲覧数時系列データ Google トレンド 22,000 件の検索関心度時系列データ(時間単位〜週単位) 公開データセット M4、電力、トラフィックなどのベンチマークデータ 合成データ ARMA 生成の 300 万件のシリーズ 最新バージョンでは 4000 億以上の実世界タイムポイントで学習されているとも報告されている。 使い方 インストール 1 pip install timesfm Python での基本的な使い方 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 import timesfm # モデルの初期化(Hugging Face からダウンロード) tfm = timesfm.TimesFm( hparams=timesfm.TimesFmHparams( backend="pytorch", per_core_batch_size=32, horizon_len=128, ), checkpoint=timesfm.TimesFmCheckpoint( huggingface_repo_id="google/timesfm-2.5-200m-pytorch" ), ) # 配列から予測 forecast_array, _ = tfm.forecast( inputs=[context_time_series], freq=[0], # 0: 高頻度(日次以下)、1: 週次・月次、2: 四半期・年次 ) # DataFrame から予測 forecast_df = tfm.forecast_on_df( inputs=df, freq="D", # 日次 value_name="target", num_jobs=-1, ) Hugging Face モデル 複数のバリアントが公開されている。 ...

2026年4月14日 · 2 分

TimesFM

概要 Google Research が開発した時系列予測専用の基盤モデル(Time Series Foundation Model)。デコーダーのみのトランスフォーマーアーキテクチャを採用し、1000億以上の実データで学習済み。自分のデータでファインチューニングすることなく(ゼロショットで)時系列予測が可能。 GitHub: google-research/timesfm Hugging Face: google/timesfm-2.5-200m-pytorch(最新推奨) パラメータ数: 2億(200M) ライセンス: Apache 2.0 主なユースケース ユースケース 説明 売上・需要予測 小売の週次売上、在庫需要、サプライチェーン計画 市場価格予測 株式・コモディティ・仮想通貨の価格変動 電力需要予測 電力負荷、エネルギー価格、スマートグリッド最適化 トラフィック予測 Web サイトアクセス、API リクエスト量、サーバー負荷 ゼロショット予測の強み 従来の深層学習モデルはデータセットごとに個別学習が必要だったが、TimesFM はゼロショットで新しいデータセットに対して高精度な予測を実現。公式評価では多くの個別学習済み深層学習モデルを上回るパフォーマンスを示している。 使い方 1 pip install timesfm 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 import timesfm tfm = timesfm.TimesFm( hparams=timesfm.TimesFmHparams( backend="pytorch", horizon_len=128, ), checkpoint=timesfm.TimesFmCheckpoint( huggingface_repo_id="google/timesfm-2.5-200m-pytorch" ), ) # 配列から予測 forecast, _ = tfm.forecast(inputs=[context_series], freq=[0]) # DataFrame から予測 forecast_df = tfm.forecast_on_df(inputs=df, freq="D", value_name="target") freq パラメータ: 0 = 高頻度(日次以下)、1 = 週次・月次、2 = 四半期・年次 ...

2026年4月14日 · 1 分

AIモデルは意図的に性能を低下させている? OpenAI・Google・Anthropicに共通するパターン

AIモデルのリリース後、時間が経つにつれてパフォーマンスが落ちた気がする——そんな経験をしたユーザーは少なくないだろう。最近、SNS上でこの「体感」に関する興味深い主張が話題になった。 「性能放血」戦略という仮説 中国のテック系アカウント「墓碑科技(mubeitech)」が2026年4月10日に投稿したツイートは、約21万回以上閲覧され、1,600件以上のいいねを集めた。 その内容はこうだ: OpenAI・Google・Anthropicは同様の戦略を採用している。新モデルのリリース初日には性能が最高(100%)に達し、その後「放血」と呼ぶ数ヶ月間の段階的な低下を経験し、最終的に約60%まで落ちる。この目的は、次世代製品リリース時に「劇的な改善」を強調するためだ。 このパターンを同氏は「放血(bloodletting)」と表現した。意図的に性能を落としておき、次世代モデルの登場時に比較対象を都合よく用意するという戦略的操作だという主張だ。 この主張の背景 同様の「体感」を持つユーザーはこれまでにも多く、特にGPT-4が登場直後より時間が経つにつれ「鈍くなった」「回答が短くなった」と感じるユーザーの声はX(Twitter)やRedditで繰り返し話題になってきた。 一方で、OpenAIは過去にGPT-4モデルへの変更内容を公開し、変化があったことを認めつつも「意図的な品質低下」は否定している。また、2023年に行われたスタンフォード大学の研究(“How Is ChatGPT’s Behavior Changing over Time?")では、GPT-4の一部タスクで時間的な性能変動が確認されたことも報告されている。 なぜこの主張が広がるのか ユーザーの体感との一致: モデルの応答品質の変化はユーザーが実感しやすく、「意図的」という説明が腑に落ちやすい 商業的インセンティブへの不信感: 次世代モデルの販促のために旧モデルを陳腐化させるというシナリオは、ビジネス的に合理的に見える 検証困難性: APIの内部変更は外部からの完全な検証が難しく、陰謀論的な解釈が入り込みやすい 実際のところはどうなのか 「意図的な性能低下」説については、現時点で公開情報による明確な裏付けはない。ただし、以下のような要因で性能変動が起きることは事実だ: モデルの量子化・最適化: コスト削減のためにより軽量な推論方法に移行することで、一部タスクの精度が変化する 安全性フィルタリングの調整: ガイドラインの変更により、出力の傾向が変わることがある プロンプト処理の変更: 内部のシステムプロンプトや前処理ロジックの変更が応答に影響する インフラのスケーリング: 急激なユーザー増加に対応する際の一時的なサービス品質の変化 まとめ 「意図的放血戦略」は現時点では未確認の仮説だが、AIモデルの品質管理と透明性に対するユーザーの関心の高さを示している。実際、リリース初期と数ヶ月後でモデルの挙動が変わることは多くの利用者が実感しており、各社がより詳細な変更履歴を公開することで、こうした不信感を払拭できる余地はあるだろう。 AI企業の透明性とユーザーの信頼構築は、今後ますます重要な課題となっていきそうだ。

2026年4月11日 · 1 分

Gemma 4

概要 Google DeepMind が 2026年4月にリリースした LLM シリーズ。Apache 2.0 ライセンスで商用利用に制限がなく、31B Dense から E2B(スマートフォン動作)まで4バリアントを提供。特に 26B MoE は総パラメータ数は 26B だが推論時アクティブは約 3.8B にとどまるため、一般的な GPU で実用的に動作する。 モデルラインナップ モデル パラメータ 推論時アクティブ コンテキスト 主な用途 31B Dense 31B 31B 256K サーバー/ワークステーション 26B MoE 26B 約 3.8B 256K サーバー/ワークステーション E4B — 約 4B 128K エッジデバイス E2B — 約 2.3B 128K スマートフォン 主な特徴 Apache 2.0 ライセンス: 商用利用・改変・再配布が自由 ネイティブ Function Calling: ツール呼び出しをモデルが意味的に理解 構造化 JSON 出力: API レスポンス向けの JSON 出力をネイティブサポート 256K コンテキスト: 長文書の処理やコードベース全体の分析に対応 140+ 言語対応: 日本語を含む多言語をサポート API 経済へのインパクト Gemma 4 は外部 LLM API に依存する SaaS のコスト構造を変える可能性を持つ。 ...

2026年4月7日 · 2 分