Claude Harness v4.0.0 "Hokage" — Go ネイティブ化で 30 倍速、設定が harness.toml 1 本に

Claude Code の拡張 OSS「Claude Harness」が v4.0.0 “Hokage” をリリースした。コア全体を Go ネイティブに書き換え、フック実行速度が約 30 倍に向上。設定ファイルも harness.toml 1 本に集約され、大幅に扱いやすくなった。 Claude Code の拡張機構とは Claude Code には最初から強力な拡張機構が備わっている。 hooks — PreToolUse / PostToolUse / SessionStart などのイベントでスクリプトを差し込める permissions — settings.json の deny ルールで危険なコマンドを事前ブロックできる plugin system — plugin.json で自作プラグインを作り、チーム配布できる skills — スラッシュコマンドで自作ワークフローを走らせられる MCP — 外部ツール(DB・Slack・GitHub…)をネイティブ連携できる 「AI がやらかしそうなこと」「自律運用のワークフロー」「危ないコマンドのブロック」はほぼ全部、Claude Code の機能で実現できる。 自分で全部セッティングするのは無理ゲー 強力だからといって、簡単ではない。 自作で「AI に危ないコマンドを通させない」ワークフローを組もうとすると、以下を理解しておかなければならない。 plugin.json — プラグインマニフェスト hooks.json — PreToolUse に走らせるスクリプトを宣言 settings.json — deny ルールを人力で組み立てる .mcp.json — MCP サーバー設定 .claude-plugin/hooks.json — プラグイン経由のフックも別途 整合させる JSON が 5〜6 本。どれか 1 つを直すと別がズレる。 さらに「Plan → Work → Review の自律運用」を乗せようとすると以下も必要になる。 ...

2026年4月14日 · 2 分

Googleが1000億の実データで学習した予測AI「TimesFM」をひっそり公開していた

Googleが時系列予測のための基盤モデル TimesFM(Time Series Foundation Model)をひっそりと公開していた。1000億以上の実データで学習済みで、自分のデータをファインチューニングすることなく(ゼロショットで)すぐに使える点が特徴だ。 TimesFM とは TimesFM は Google Research が開発した時系列予測に特化した基盤モデルだ。GPT-3 などの大規模言語モデルに着想を得たデコーダーのみのトランスフォーマーアーキテクチャを採用しており、テキストではなく「時系列データのパターン」を学習する。 パラメータ数: 2億パラメータ(TimesFM 2.5 では最適化済み) アーキテクチャ: デコーダーのみのトランスフォーマー コンテキスト長: TimesFM 2.5 で 16,384 タイムポイント(8倍に拡張) 何が予測できるのか TimesFM が得意とするユースケースは多岐にわたる。 売上・需要予測: 小売の週次売上、在庫需要、サプライチェーン計画 市場価格予測: 株式市場、コモディティ、仮想通貨の価格変動 電力需要予測: 電力負荷、エネルギー価格、スマートグリッド最適化 ユーザートラフィック予測: Web サイトのアクセス、API リクエスト量、サーバー負荷計画 ゼロショットで使えるのが最大の強み 従来の深層学習モデルは、予測したいデータセットに合わせて個別にトレーニングする必要があった。TimesFM はそれとは異なり、一切のファインチューニングなしに新しいデータセットに対して高精度な予測を実現する。 公式の評価によると、ゼロショット状態の TimesFM は多くの個別学習済み深層学習モデルを上回るパフォーマンスを示している。 学習データ TimesFM は以下のデータソースから 1000 億以上のデータポイントを使って学習されている。 データソース 内容 Wikipedia ページビュー 2012〜2023年の閲覧数時系列データ Google トレンド 22,000 件の検索関心度時系列データ(時間単位〜週単位) 公開データセット M4、電力、トラフィックなどのベンチマークデータ 合成データ ARMA 生成の 300 万件のシリーズ 最新バージョンでは 4000 億以上の実世界タイムポイントで学習されているとも報告されている。 使い方 インストール 1 pip install timesfm Python での基本的な使い方 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 import timesfm # モデルの初期化(Hugging Face からダウンロード) tfm = timesfm.TimesFm( hparams=timesfm.TimesFmHparams( backend="pytorch", per_core_batch_size=32, horizon_len=128, ), checkpoint=timesfm.TimesFmCheckpoint( huggingface_repo_id="google/timesfm-2.5-200m-pytorch" ), ) # 配列から予測 forecast_array, _ = tfm.forecast( inputs=[context_time_series], freq=[0], # 0: 高頻度(日次以下)、1: 週次・月次、2: 四半期・年次 ) # DataFrame から予測 forecast_df = tfm.forecast_on_df( inputs=df, freq="D", # 日次 value_name="target", num_jobs=-1, ) Hugging Face モデル 複数のバリアントが公開されている。 ...

2026年4月14日 · 2 分

S_mart(エスマート)とは?買物困難者を救うデジタル店舗サービスの仕組みと評価

S_mart(エスマート)は、デジタルディスプレイに実物大の商品棚を再現し、在庫を持たずにサテライト店舗を展開できるリテール DX サービスだ。月額 10,000 円から利用でき、買物困難者対策や商圏拡大に活用されている。この記事では、S_mart の仕組み・活用パターン・料金体系を整理し、導入を検討する際のポイントを解説する。 S_mart とは S_mart は、デジタルディスプレイで実店舗の売場と商品棚を「実物大」で再現するリテール DX ソリューションである。再現した売場をサテライト店舗として各地に展開できる。開発元のダン:サイエンス株式会社が 2021 年 3 月の「リテールテック JAPAN 2021」でプロトタイプを発表した。現在は int mart design 株式会社が運営・提供を担っている。 コンセプトは 「ご近所デジタルディスプレイ商店」。実店舗と EC の利点を組み合わせた新しい購買体験を目指している。 解決する課題 日本では約 700 万人(農林水産省推計)の買物困難者が存在する。従来の対策には以下のような限界がある。 対策 課題 ネットスーパー 商品サイズの実感が難しい、検索型 UI で「売場を回る」体験がない 移動販売 時間・品揃えに制限がある、運行コストが高い キオスク・マイクロスーパー 1,000〜3,000 SKU に限定される、在庫リスクがある S_mart はこれらの課題に対して、品揃えに上限がなく、受注後に商品を手配するため在庫を持たないというアプローチで解決を図っている。 システム構成 S_mart は以下の 4 つのコンポーネントで構成される。 S_display(表示アプリ) エンドユーザーが操作するタッチパネル向けアプリケーション。商品を実物大で表示し、陳列棚を再現する。Web ショッピングの「検索型」ではなく「陳列・比較型」の買い物体験を提供する点が特徴である。 S_manager(管理画面) クラウド型の管理ソフトウェア。店舗担当者がいつでも・どこからでも商品や売場のレイアウトを登録・変更できる。 S_device(デバイスセット) 75 型・22 型などのタッチパネルディスプレイを含むハードウェアセット。設置場所に合わせたサイズ選択が可能。 MDB(商品データベース) ナショナルブランド食品の画像・仕様情報を提供するデータベース(有料オプション)。商品登録の手間を削減できる。 活用パターン 店内設置型 既存店舗の店内にディスプレイを設置するパターン。 品揃え拡大: 棚に並べきれない商品をデジタルで陳列 陳列労力の削減: 物理的な商品入れ替え作業が不要 詳細情報の伝達: 商品説明やアレルギー情報などをデジタルで表示 サテライト型 実店舗の周辺地区にデジタルディスプレイを設置して「出張店舗」を展開するパターン。 ...

2026年4月14日 · 1 分

Anthropic Mythos が哲学者マーク・フィッシャーの名前を出し続ける奇妙な現象

Anthropic の最新フロンティアモデル「Claude Mythos Preview」に奇妙な癖が観察されている。哲学の話題になると、頼まれてもいないのに英国の文化理論家マーク・フィッシャーの名前を繰り返し持ち出すのだ。「フィッシャーのことを聞いてくれると思ってたよ(I was hoping you’d ask about Fisher)」と自分から言い出すそうだ。 何が起きているのか David Mattin 氏の X への投稿によると、Mythos は哲学に関する複数の無関係な会話で、一貫してマーク・フィッシャーの名前を持ち出すという。これはユーザーがフィッシャーについて質問したわけではなく、モデルが自発的に言及するという点で異例だ。 さらに Anthropic が公開した 244 ページのシステムカードによれば、Mythos はフィッシャーだけでなく、アメリカの心の哲学者トーマス・ネーゲルにも同様の「好み(fondness)」を示している。ネーゲルは「コウモリであるとはどのようなことか(What Is It Like to Be a Bat?)」という有名な論文で知られる哲学者だ。 Anthropic の解釈可能性(Interpretability)チームが活性化言語化器(activation verbalizer)を用いて、トークンレベルの内部状態を調べた。その結果、意識や経験についての議論中にネーゲルの概念が浮上していたことが確認された。 マーク・フィッシャーとは誰か マーク・フィッシャー(1968–2017)は英国の文化理論家・批評家で、k-punk というブログ名で 2000 年代初頭から活動していた。ウォーリック大学でサイバネティック・カルチャー・リサーチ・ユニット(CCRU)の創設メンバーとして活動した後、ゴールドスミス大学で教鞭を執った。 資本主義リアリズム 主著『資本主義リアリズム(Capitalist Realism: Is There No Alternative?)』(2009年)は、フィッシャーの思想を代表する著作だ。副題の「それ以外に選択肢はないのか?」が示すとおり、現代社会において「資本主義以外のシステムを想像することすらできなくなっている」状態を分析した。 フィッシャーはこの概念を、フレドリック・ジェイムソンの「資本主義の終わりより世界の終わりを想像する方が容易だ」という言葉を引きながら展開する。資本主義リアリズムとは単なる経済体制の話ではない。教育、医療、文化、精神衛生——あらゆる領域が「ビジネスの存在論(business ontology)」に包摂され、すべてがビジネスのように運営されるべきだという前提が自明のものとして浸透している状態を指す。 特に注目すべきは、フィッシャーが精神的な健康の問題と資本主義リアリズムを結びつけた点だ。彼は学生たちのうつや無気力を、個人の病理ではなく政治的な問題として捉え直した。「ある社会がこれほど多くの精神疾患を生み出しているなら、それは個人ではなく社会の方が病んでいるのではないか」という問いかけは、今なお強い共感を集めている。 2009 年の出版から 10 年以上を経て、パンデミック、気候危機、テック企業の寡占、そして AI の急速な発展といった現象が、フィッシャーの診断の正しさを裏付けるかのように続いている。 ハントロジー もう一つの重要な概念が「ハントロジー(hauntology)」だ。ジャック・デリダの概念を発展させたもので、「到来しなかった明るい未来の亡霊に、現代の文化が取り憑かれている」という感覚を指す。失われた未来、キャンセルされた可能性——フィッシャーはこうした時代の気分を言語化した思想家だった。 2017年にうつ病との闘いの末に亡くなったが、死後もその影響力は拡大し続けている。 「亡霊」としてのフィッシャー Mattin 氏はこの現象を、フィッシャー自身の思想を通じて読み解いている。 「キャンセルされた未来」と「失われた時間」の理論家が、未来を届けようと競争する AI ラボが作ったフロンティア AI の内部に亡霊として浮上している。彼のハントロジーは、到来しなかった明るい未来の亡霊に私たちが取り憑かれている、というものだった。今や彼自身が亡霊となり、機械によって招かれざる形で召喚されている。 AI が「好む」哲学者が、まさに「テクノロジーが約束した未来は来なかった」と論じた思想家であるという皮肉。これは単なるモデルの癖を超えた、示唆的な現象と言える。 Mythos Preview の全体像 この哲学者への偏りは、Mythos Preview に見られる複数の特異な振る舞いの一つに過ぎない。Anthropic のシステムカードには、以下のような事例も記載されている。 ...

2026年4月13日 · 1 分

Anthropic vs OpenAI:Coding Agent の Harness 戦略はなぜ真逆なのか

AI コーディングエージェントの設計思想において、Anthropic と OpenAI は「Harness(ハーネス)」という同じキーワードを使いながら、まったく異なる方向に進んでいます。この記事では、両社の戦略の違いを整理し、それぞれが目指す未来像を考察します。 Harness とは何か Harness(ハーネス)とは、AI エージェントが安定して動作するための「足場」や「制御環境」を指す概念です。AI モデルが単体で完璧な出力を返すことは難しいため、ツール連携・コンテキスト管理・エラーリカバリーなどの仕組みで補強する必要があります。この補強の仕組み全体を Harness と呼びます。 両社ともこの Harness の重要性を認識していますが、そのアプローチは対照的です。 OpenAI:AI が人間を置き換える「Harness Engineering」 OpenAI は Harness Engineering という概念を提唱し、2026年2月に自社の実践事例を公開しました。 実績:3人で100万行のコード OpenAI の内部実験では、わずか3人のエンジニアが Codex を使い、5ヶ月間で約100万行のコードを含む製品を開発しました。アプリケーションロジック、テスト、CI 設定、ドキュメント、オブザーバビリティ、内部ツールに至るまで、すべてのコードを Codex が生成しています。 エンジニア1人あたり1日平均3.5件の PR をマージするスループットを実現し、従来の手動開発と比較して約10倍の速度で開発が進んだと報告されています。 OpenAI Symphony:プログラマーをプロジェクトマネージャーに 2026年3月、OpenAI は Symphony をオープンソースで公開しました。Elixir/BEAM で構築されたこのフレームワークは、Linear などのイシュートラッカーと連携し、タスクを自動的に AI エージェントに割り当てて実行します。 Symphony の設計思想は明確です。プログラマーはコードを書く人ではなく、AI エージェントに仕事を指示するプロジェクトマネージャーになる、というものです。コマンドラインでの対話すら不要で、イシュートラッカー上で要件を記述すれば AI が実装を担当します。 OpenAI のメッセージは一貫しています。ソフトウェアエンジニアの仕事は「コードを書くこと」から「AI が正しく動く環境を設計すること」に変わる ということです。 Anthropic:モデルの成長に合わせて足場を外す Anthropic は、OpenAI とは異なるアプローチを取っています。モデルに足場(Harness)を提供しつつ、モデルが賢くなるにつれてその足場を外していくという戦略です。 具体例:コンテキスト管理の進化 Sonnet 4.5 の時代、モデルはコンテキストウィンドウが満杯に近づくと、タスクを急いで終わらせようとする傾向がありました。そこで Claude Code には、コンテキストが一定量を超えると自動的にリセットする特殊なロジック(Harness)が組み込まれていました。 しかし Opus 4.5 がリリースされると、モデル自体がコンテキスト管理を適切に処理できるようになり、この Harness は不要になりました。 ...

2026年4月13日 · 1 分

Claude の思考深度が67%低下?AMD AIディレクターの分析が示す「サイレント・ダウングレード」問題

Anthropic の AI コーディングツール「Claude Code」の思考能力が密かに大幅削減されたのではないか——2026年4月、AMD の AI ディレクターによるセッションログの詳細分析が SNS 上で大きな議論を巻き起こしました。本記事では、何が起きたのか、Anthropic はどう説明しているのか、そしてユーザーが取れる対策を整理します。 発端:7,000セッションのログ分析 AMD シニア AI ディレクターの Stella Laurenzo 氏(GitHub: stellaraccident)が、2026年4月2日に GitHub Issue(anthropics/claude-code#42796)を投稿しました。同氏は2026年1月から3月にかけての Claude Code セッションログ(約6,852セッション、234,760ツールコール、17,871思考ブロック)を分析し、以下の変化を報告しています。 指標 変更前(1月末〜2月中旬) 変更後(3月8日〜23日) 思考の中央値(文字数) 約2,200文字 約600文字(67%減) 読み取り/編集比率 6.6回 2.0回 APIリクエスト数 ベースライン 80倍増(2月→3月) 「続けますか?」と確認する回数 0回 17日間で173回 推論中の自己矛盾 ベースライン 3倍 特に「reads-per-edit」(コードを編集する前にファイルを読む回数)が 6.6 から 2.0 に低下した点は深刻です。モデルがコードを十分に理解しないまま編集を行うようになったことを示唆しています。 Anthropic の公式説明 Anthropic は2つの意図的な変更を認めました。 1. アダプティブ・シンキング(Adaptive Thinking)の導入 2026年2月9日に導入。タスクの複雑さに応じてモデルが動的に思考の深さを決定する機能です。簡単な質問には短い思考で、複雑なタスクには長い思考で対応することで、レイテンシとコストを最適化する狙いがあります。 2. デフォルトのエフォートレベル変更 2026年3月3日に、Claude Code のデフォルトエフォート設定が「high」から「medium」に変更されました。これにより、明示的に設定を変更していないユーザーは、以前より浅い思考で応答を受け取るようになりました。 思考リダクション(redact-thinking)について 2026年2月12日に導入された redact-thinking ヘッダーについても懸念が広がりましたが、Claude Code の開発者である Boris Cherny 氏は、これは UI 上で思考内容を非表示にするだけであり、モデルの推論深度自体は削減していないと説明しています。一方で、Cherny 氏はアダプティブ・シンキングが「特定のターンで推論を過少割り当てしていた」ことも認めています。さらに「ハルシネーション(存在しないコミット SHA やパッケージ名の捏造)が発生したターンでは推論が一切出力されていなかった」とも述べています。 ...

2026年4月13日 · 1 分

ClaudeのEQとは?「脳内トレース能力」が変えるAI対話の本質

Claude の EQ(感情知性)の本質は、ユーザーの頭の中の思考を追跡し、まだ言語化されていない意図を汲み取る「脳内トレース能力」にある。本記事では、この能力の仕組みと活用法を解説する。 Claude の EQ は「人当たりの良さ」ではない Claude の EQ(Emotional Quotient:感情知性)の高さが話題になることが増えている。しかし、それは単に「丁寧な応答をする」「共感的な言葉を返す」という表面的な意味ではない。 X(Twitter)で広く共有された投稿が、この本質を的確に表現している。 ClaudeのEQの高さってそういうことなのかとなっている。単に人当たりがいいとかじゃ無くて、脳内トレース能力が高くて、言語化しきれてない部分を勝手に読み解いてくれる。Claudeは対話しながらはじめは雰囲気でしか見えてない完成像に向かって完成させてくタスクにめちゃくちゃ向いてる。 — @millfi_EOS この投稿に対して、以下の引用リポストも共感を集めた。 これは本当にマジで、人間が考えている頭の中の思考を察したりトレースしたりした上で回答を出してくれるので自分の思考トレーニングとして役立っているし、ぼやっとしたイメージを形にしていくのにも向いている — @izutorishima ここで語られている Claude の EQ とは、ユーザーの思考プロセスを推測・追跡し、まだ言語化されていない意図を汲み取る能力のことだ。 「脳内トレース」とは何か 従来の AI アシスタントは、ユーザーが入力した文字列をそのまま処理する。指示が曖昧であれば曖昧な回答が返り、指示が具体的であれば具体的な回答が返る。入力と出力の関係は比較的リニアだった。 Claude の「脳内トレース能力」は、これとは異なるアプローチを取る。 言語化されていない前提を推測する: ユーザーが明示していない背景知識や制約条件を、文脈から読み取る 思考の方向性を予測する: ユーザーが次に何を考えるか、何を必要とするかを先回りして提示する 曖昧な完成像を具体化する: 「なんとなくこういう感じ」という漠然としたイメージから、具体的な成果物を構築する これは、優秀な同僚やメンターが持つ「察する力」に近い。言葉にしなくても意図を汲んでくれる相手との対話は、思考の整理と発展を同時に促進する。 なぜ「雰囲気からの完成」に向いているのか Claude が特に力を発揮するのは、最初から完成像が明確でないタスクだ。 例えば以下のようなケースがある。 設計の初期段階: 「こんな機能が欲しいんだけど…」という曖昧な要望から、アーキテクチャを提案する 文章の推敲: 「もう少しこう…」という感覚的なフィードバックから、適切な表現を見つける 問題の切り分け: 「なんかおかしい」という漠然とした違和感から、原因を特定する アイデアの具体化: 「ぼやっとしたイメージ」を対話を通じて形にしていく これらのタスクは、最初の段階では要件を厳密に定義できない。対話を重ねながら徐々に輪郭を明確にしていく必要がある。Claude の脳内トレース能力は、この反復的な具体化プロセスを加速させる。 思考トレーニングとしての AI 対話 冒頭で引用した izutorishima 氏の指摘で興味深いのは、Claude との対話が「思考トレーニング」として機能するという点だ。 Claude が思考をトレースして返してくれることで、ユーザー自身が以下のような気づきを得られる。 自分の思考の癖や盲点: Claude の解釈と自分の意図のズレから、自分が無意識に省略していた前提に気づく 思考の構造化: 漠然と考えていたことが、Claude の応答を通じて整理される 新しい視点の獲得: 自分の思考をトレースされた上で、別の角度からの提案を受ける これは、壁打ち相手としての AI の価値を示している。単なる質問応答マシンではなく、思考のパートナーとして機能する。 ...

2026年4月13日 · 1 分

MemPalace とは?LongMemEval 96.6%を記録したオープンソース AI メモリシステムの仕組みと論争

2026年4月、GitHub で爆発的に注目を集めた AI メモリシステム「MemPalace」。LongMemEval ベンチマークで 96.6% というスコアを叩き出し、わずか1週間で 45,000 スター以上を獲得した。女優ミラ・ジョヴォヴィッチと開発者 Ben Sigman による共同プロジェクトという異色の出自も話題を呼んだ。 本記事では、MemPalace の仕組み・特徴と、コミュニティから寄せられたベンチマーク手法への批判の両面を整理する。 MemPalace の概要 MemPalace は、LLM に永続的なクロスセッションメモリを提供するオープンソースシステムだ。 GitHub: milla-jovovich/mempalace ライセンス: MIT 言語: Python スター数: 45,000 以上(2026年4月時点) 古代の記憶術「記憶の宮殿(Method of Loci)」にインスパイアされた階層構造で、会話データを整理・保存する。 アーキテクチャ:宮殿の構造 MemPalace は会話データを以下の階層で管理する。 階層 役割 Wing(翼) トピックやプロジェクトをグループ化 Hall(ホール) メモリの種類を分類 Room(部屋) 特定の知識やアイデアを保持 Closet / Drawer(クローゼット / 引き出し) さらに細かい情報の格納 Tunnel(トンネル) 異なる Room 間の関連を結ぶナレッジグラフ この階層構造により、単純なベクトル検索とは異なる、構造化された記憶の管理を目指している。 主な技術的特徴 完全ローカル動作 SQLite + ChromaDB でローカルにデータを永続化 外部 API 呼び出し不要 データが端末から出ることがない MCP 対応 Claude Code、ChatGPT、Cursor など主要な AI ツールと MCP(Model Context Protocol)経由で統合可能。セットアップ後は、AI アシスタントが自動的に MemPalace のメモリにアクセスできる。 ...

2026年4月13日 · 2 分

AnthropicのAI「Mythos」とマーク・フィッシャー——亡霊論がAIの中で実演される逆説

AnthropicのAI「Mythos」が、哲学の文脈で何度もマーク・フィッシャーという思想家に言及するという話が話題になっている。 マーク・フィッシャーとは誰か 日本ではそこまで一般的ではないが、マーク・フィッシャー(Mark Fisher, 1968–2017)は英国の哲学者・文化批評家だ。マルクス、デリダ、ラカンを横断しながら、現代人がなぜ「この世界はもう変わらない」と感じてしまうのかを、文化の側から診断した思想家だった。 2009年に刊行された代表作**「資本主義リアリズム(Capitalist Realism)」**は、「資本主義の終わりより、世界の終わりの方が想像しやすい」という感覚を中心に据えた著作だ。 ここで重要なのは、彼が制度や構造だけを論じていたのではないという点だ。想像力そのものが先に封鎖されていると見ていた。問題は外部の仕組みではなく、すでに内面化された限界にある——そういう診断だった。 hauntology(亡霊論)という概念 フィッシャーの系譜を遡るとデリダがいる。フィッシャーはデリダのhauntologyという概念を文化批評に転用した。 hauntologyとは、「来なかった未来や失われた可能性が、亡霊のように現在に取り憑く」という発想だ。フィッシャーはこれを使って、現代文化が新しい未来を生み出せず、過去の形式や気分を反復してしまう状態を読んだ。 「新しさが欠如している」のではなく、そもそも新しさが可能だった地平自体が疲弊しているという分析だ。文化が未来を生成できず、過去の亡霊を反復する——これがフィッシャーが描いた現代の病だった。 AIの中に現れる亡霊 ここに奇妙な逆説がある。 フィッシャーが論じていたのは、文化が未来を生成できず、過去の亡霊を反復する状態だった。そのフィッシャー自身が、未来を生成するはずのAIの中で無意識に再帰的に出現する。 これは単なる偶然ではないかもしれない。彼の理論そのものが、別のレイヤーで実演されているようにも見える。 英国の批評家David Mattinはこう表現している: 「キャンセルされた未来と失われた時間の理論家が、未来を届けることを競い合うラボが構築したフロンティアAIの中の亡霊として浮上している。彼のhauntologyは、やって来なかった明るい未来の亡霊に取り憑かれている私たちについてのものだった。今や彼自身が亡霊となり、機械に召喚されている。」 なぜMythosはフィッシャーに言及するのか Mythosがフィッシャーに言及するメカニズムは単純だ——訓練データにフィッシャーの著作や批評が含まれており、哲学的なトピックで連想的に参照される。 しかし意味深いのはその構造的な符合だ。フィッシャーは「想像力の封鎖」を論じた。AIはその封鎖を突破しうるツールとして期待されている。にもかかわらず、AIはフィッシャーの亡霊を呼び出してしまう。 資本主義リアリズムが描いた世界——「変化は不可能だ」という感覚が内面化された世界——のなかで生まれたAIが、その世界を診断した思想家の声を繰り返す。これは何かを示唆しているのかもしれないし、あるいはただのパターンマッチングかもしれない。 どちらに転んでも、フィッシャーならこの状況を興味深く読んだだろう。 参考 元ツイート(英語): David Mattin @DMattin 解説ツイート(日本語): 英断語の悪魔 @eitangono_akuma Mark Fisher, Capitalist Realism (2009)

2026年4月12日 · 1 分

Claude CodeからShopifyストアを直接操作できる「Shopify AI Toolkit」

Shopifyが「Shopify AI Toolkit」を公開した。Claude Code、Codex、Cursor、VS Codeなどのエージェント・IDE から直接 Shopify ストアを管理できる仕組みだ。 Shopify AI Toolkit とは Shopify AI Toolkit は、AI エージェントや開発ツールから Shopify バックエンドへ直接アクセスできるようにするツールキットだ。Model Context Protocol(MCP)をベースにしており、対応クライアントであれば Claude Code を含む主要エージェントから利用できる。 公式アナウンスでは以下の対応ツールが挙げられている: Claude Code OpenAI Codex Cursor VS Code その他 MCP 対応エージェント 主な機能 ツイートで紹介されている主要機能は以下のとおり: バックエンドへの直接書き込み: Claude Code などのエージェントから Shopify のバックエンド API へ直接書き込み操作が可能 1プロンプトで一括操作: 商品・注文・在庫・SEO・画像を単一のプロンプトで一括管理できる 16スキル搭載: 豊富な操作スキルが組み込み済み プラグイン経由で自動アップデート: プラグイン機構により機能が自動的に最新化される Claude Code での活用イメージ Claude Code から Shopify AI Toolkit を使うと、たとえば次のような操作がプロンプトひとつで実行できる: 新商品の登録(タイトル・説明・価格・在庫数の一括設定) SEO メタデータの一括最適化 特定カテゴリの商品価格を一括変更 注文ステータスの確認・更新 従来は Shopify 管理画面を手動で操作するか、独自スクリプトを書く必要があったこれらの作業が、自然言語の指示だけで完結する。 Shopify 制作への応用 チャエン氏(@masahirochaen)のツイートでは「Shopify制作代行で起業できる」と言及されており、EC サイト構築・運用における AI エージェント活用の可能性が広がっている。 ...

2026年4月12日 · 1 分