黄仁勋点名?SN3 月涨5倍、実際のところ何をしたか?

2026年3月20日、All-In創投ポッドキャストの中で、異例の会話があった。

ベンチャーキャピタル界の大物Chamath Palihapitiyaは、NVIDIAのCEO黄仁勋に話を振った。Bittensor上のあるプロジェクトが「非常にクレイジーな技術的成果を達成した」とし、分散型の計算資源を用いてインターネット上で大規模言語モデルを訓練し、その過程は完全に非中央集権的で、中央のデータセンターは関与していないと語った。

黄仁勋はこれに否定的な反応を示さず、「Folding@homeの現代版」と例えた。2000年代に一般ユーザーの余剰計算資源を活用し、タンパク質折りたたみ問題に取り組んだ分散型プロジェクトだ。

その4日前の3月16日、Anthropicの共同創設者Jack ClarkはAI研究の進展レポートの中で、このブレークスルーを大きく取り上げ、引用した。Bittensorエコシステムのサブネット、Templar(SN3)が720億パラメータの大規模モデルCovenant 72Bを分散訓練し、その性能はMetaが2023年にリリースしたLLaMA-2に匹敵すると。

Clarkはこの章を「分散訓練を通じたAI政治経済学への挑戦」と名付け、分析の中でこの技術は今後も注視すべきだと強調した。彼は未来を想像している:デバイス側のAIが大量に非中央集権的に訓練されたモデルを採用し、クラウド側のAIは引き続き独自の大規模モデルを稼働させる。

市場の反応はやや遅れつつも激烈だった。SN3は過去1ヶ月で440%以上上昇し、直近2週間では340%以上の上昇を見せ、市場価値は1.3億ドルに達した。サブネットのナarrative爆発はTAOの買い圧力に直結し、TAOは急騰、最高377ドルを記録し、1ヶ月で倍増、FDVは約75億ドルに。

では、SN3は一体何をしたのか?なぜ注目を浴びているのか?分散訓練と非中央集権AIの価値の物語はどう進化するのか?

あの72Bモデル

この疑問に答えるには、まずSN3の実績を正確に理解する必要がある。

2026年3月10日、Covenant AIチームはarXivに技術報告を公開し、Covenant-72Bの訓練完了を正式に発表した。これは720億パラメータの大規模言語モデルで、70以上の独立したノード(各ラウンド約20ノードが同期、各ノードは8枚のB200を搭載)を用いて、約1.1兆トークンのコーパス上で事前訓練を完了した。

Templarはベンチマーク結果も示している。比較対象はMetaの2023年リリースLLaMA-2-70B。Clarkは、「2026年の時点ではやや時代遅れかもしれない」と述べつつ、MMLUスコア67.1はLLaMA-2-70Bの65.6に相当すると示した。

ただし、2026年の最先端モデル—GPTシリーズ、Claude、Geminiなど—は、すでに数十万GPUを用いて1000億超のパラメータを訓練済みであり、推論やコード、数学能力の差は「桁」の問題であり、単なるパーセンテージの差ではない。この現実的なギャップは市場の感情に埋もれるべきではない。

しかし、「インターネット上の分散計算資源を用いて訓練された」という前提に立てば、その意味合いはまったく異なる。

比較例を挙げると、同じく非中央集権的訓練のINTELLECT-1(Prime Intellectチーム製、100億パラメータ)はMMLUスコア32.7、もう一つの分散訓練プロジェクトPsyche Consilience(400億パラメータ)は24.2。Covenant-72Bは72B規模で、67.1のスコアは、非中央集権訓練の中では目立つ数字だ。

さらに重要なのは、この訓練は「ノーリミット」だった点だ。誰でも参加可能で、事前の審査やホワイトリストは不要。70以上の独立ノードが参加し、世界中から計算資源を提供した。

黄仁勋の発言とその意図

このポッドキャストのやりとりの詳細を振り返ると、外部の解釈を正す助けになる。

ChamathはBittensorの技術的成果を示し、分散計算資源を用いてLlamaモデルを訓練したと語った。過程は「完全に分散的で、状態も保持」していると。

黄仁勋はこれを「現代版のFolding@home」と例え、オープンソースとクローズドソースのモデルの共存の必要性について議論した。

注目すべきは、黄仁勋はBittensorのトークンや投資の話には触れず、非中央集権AI訓練についても深く掘り下げなかった点だ。

BittensorサブネットとSN3の理解

SN3のブレークスルーを理解するには、まずBittensorとそのサブネットの仕組みを理解する必要がある。

BittensorはAIのパブリックブロックチェーン・プラットフォームと考えられ、各サブネットは「AI生産ライン」のようなものだ。各サブネットは明確な目的とインセンティブ設計を持ち、非中央集権的なエコシステムを形成している。

運用は透明で分散的:サブネットの所有者が目標と報酬モデルを設定し、マイナーが計算資源を提供し、AIタスク(推論、訓練、保存等)を行う。検証者はマイナーの貢献を評価し、そのスコアをBittensorの合意層にアップロード。最終的にYuma合意アルゴリズムが、サブネットの報酬を集計し、参加者に分配する。

現在、128のサブネットがあり、推論、サーバーレスAIクラウド、画像、データアノテーション、強化学習、ストレージ、計算など多岐にわたるAIタスクをカバーしている。

SN3はその一つ。アプリケーション層のラップや既存の大モデルAPIのレンタルは行わず、むしろAI産業の最も高価で閉鎖的な部分、すなわち大規模モデルの事前訓練に直接アプローチしている。

SN3は、Bittensorネットワークを活用し、異種計算資源の分散訓練を調整し、インセンティブを伴う分散大規模モデル訓練を実現し、中央集権的なスーパーコンピュータ群を使わずとも強力な基盤モデルを訓練できることを証明しようとしている。ポイントは「平等」だ。資源の独占を打破し、個人や中小機関も大規模モデル訓練に参加できるようにし、分散計算資源のコスト低減を狙う。

推進の中心はTemplarで、その研究チームはCovenant Labs。彼らはまた、Basilica(SN39、計算サービスに特化)やGrail(SN81、RL後訓練とモデル評価)といった他のサブネットも運営している。これらは垂直統合し、事前訓練から整列・最適化までの全工程をカバーし、非中央集権的な大規模モデル訓練のエコシステムを構築している。

具体的には、マイナーは計算資源を提供し、勾配(モデルパラメータの更新方向と大きさ)をアップロード。検証者は各マイナーの貢献度を評価し、誤差改善度に応じてスコア付け。これにより報酬の重み付けが行われ、信頼を置かずとも自動的に分配される。

インセンティブ設計のポイントは、「モデルの性能向上にどれだけ貢献したか」に直接連動させること。これにより、資源の浪費や不正行為を防ぐ仕組みとなっている。

Covenant-72Bは通信効率とインセンティブ整合性をどう解決したのか?

信頼できない複数のノードが協調して同一モデルを訓練するには、二つの課題がある。一つは通信効率。もう一つはインセンティブの整合性だ。

SN3はこれらを、SparseLoCoとGauntletという二つのコアコンポーネントで解決している。

SparseLoCoは通信効率の問題を解決。従来の分散訓練は全ての勾配を同期しなければならず、大量のデータをやり取りする。これに対し、各ノードは30ステップの内部最適化(AdamW)を行い、その「擬似勾配」を圧縮して他ノードに送る。圧縮方法は、Top-kの疎化、誤差フィードバック、2ビット量子化を組み合わせ、最終的な圧縮率は146倍超。

結果、100MBのデータを送る代わりに1MB未満で済む。これにより、普通のインターネット回線(上り110Mbps、下り500Mbps)でも、20ノード、各8B200、1ラウンド70秒の通信で、計算効率は94.5%を維持できる。

Gauntletはインセンティブ整合性を担保。Bittensorのブロックチェーン上で動作し、各ノードの擬似勾配の質を検証。具体的には、「このノードの勾配を使った場合、モデルの損失がどれだけ下がったか」を測るLossScoreを算出。さらに、ノードが割り当てられたデータ以外のデータで訓練していないかもチェック。もし、ランダムデータでの損失改善が割り当てデータより良い場合は、負のスコアを付与。

最終的に、各ラウンドで最も高いスコアの勾配だけが集約に使われ、それ以外は除外される。参加者は随時補充され、システムは安定運用される。平均して一ラウンドあたり16.9ノードの勾配が集約され、70以上のノードIDが参加した。

非中央集権AIの価値観の根本的変化

技術的・業界的観点から見ると、Covenant-72Bはいくつかの重要な意味を持つ。

第一に、「分散訓練は小規模モデルだけ」という前提を打ち破った。まだ最先端には遠いが、拡張性の証明となった。

第二に、無許可参加が実現可能であること。これまでの分散訓練はホワイトリスト制で、事前審査を経た者だけが参加できたが、SN3は誰でも参加でき、検証メカニズムで悪意ある貢献を排除できる。

第三に、BittensorのdTAOメカニズムにより、サブネットの価値を市場で発見できる仕組みが整った。各サブネットは独自のAlphaトークンを発行し、AMMを通じてTAOの配分を市場に委ねる。これにより、SN3のような具体的成果を出したサブネットの価値捕捉が可能となる。ただし、訓練の質や結果の評価は難しい。

第四に、非中央集権的AI訓練の政治経済的意義。Clarkは「誰がAIの未来を所有するのか」という問題にまで高めている。現状、最先端モデルの訓練は少数の大規模データセンターを持つ企業に集中し、これは商業だけでなく権力構造の問題でもある。分散訓練が進展すれば、特定分野の小規模最先端モデルにおいて、真の非中央集権的開発エコシステムが形成される可能性もあるが、これはまだ遠い未来だ。

まとめ:一つの里程標と、多くの課題

黄仁勋は、「これを『現代版のFolding@home』」と表現した。Folding@homeは分子シミュレーションに貢献したが、製薬業界のコア研究を脅かすものではなかった。この例えは的確だ。

SN3はプロトコルを実証し、分散訓練の可能性を示した。ただし、その背後には、いくつかの未解決の問題も存在する。

まず、MMLUは学界でも議論の多い指標であり、訓練データのリークリスクもある。比較基準のLLaMA-2-70BやLLM360 K2は2023-2024年の古いモデルであり、最新のモデルと比べると性能は中下位レベルと見なされる。これを新たな基準や抗汚染設計のランキングに置き換えれば、結論は変わる可能性がある。

次に、モデルの能力を決める高品質なデータ—対話、コード、数学推論、科学文献—は、今も大手企業や学術機関に集中している。計算資源の民主化は進む一方、データの寡占は変わらない。

安全性の観点では、無許可参加は、誰がノードの背後にいるのか、どんなデータを使っているのか不明な点を意味する。Gauntletは明らかな異常を検知できるが、微細なデータ投毒には対応できない。特に金融、医療、法務といった高規制分野では、匿名ノードと不透明なデータ源のモデル使用にはリスクが伴う。

また、Covenant-72BはApache 2.0でオープンソース化されているが、SN3トークンはモデルの直接的な収益ではなく、未来のモデル排出から得られる配当を享受する仕組みだ。これも、訓練の継続とネットワークの健全性に依存している。

これらの課題を挙げるのは、否定のためではなく、Covenant-72Bの意義を正しく理解するためだ。実現した事実は確かに重要だが、その意味や未来は別問題だ。

SN3のトークンは過去1ヶ月で440%上昇したが、その背後には単なる投機だけでなく、叙事的な側面もある。今後の展望は、Covenant AIチームが次に何を示すかにかかっている。

注目すべきは、Grayscaleが2026年1月にTAO ETFの申請を提出したこと。これは機関投資家の参入シグナルだ。さらに、2025年12月にはBittensorのTAO排出が半減し、供給側の構造的引き締めも進行中だ。

TAO-1.19%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン