AIの現状には非常に魅力的な動きがあり、正直なところ、多くの人にはあまり注目されていません。 この分野は奇妙な転換点にあり、技術は高速で進化している一方、コントロールに関する議論はそれ以上に加速しています。 一方には、巨大なテック企業がますます強力なモデルを構築している状況があり、もう一方には、開発者、研究者、ユーザーたちがこの先どうなるのか本当に懸念しています。 彼らは問いかける:この技術は誰が所有しているのか?私の行動を誰が監視しているのか?そして、自分のデータはどこに行くのかを信頼できるのか?



そして2026年初頭、ある出来事がこの緊張を鮮明にしました。OpenAIがオープンソースのAIエージェントプラットフォームであるOpenClawを10億ドルで買収したのです。見出しは自律エージェントについて—メールの管理、カレンダーの調整、ワークフローの自動化ができるAIについてでした。しかし、面白くなったのはその次の展開です。OpenClawのドキュメントには、Venice AIがプライバシーのニーズに最適な推奨モデル提供者として記載されていました。そして、その一言がきっかけで連鎖反応が起きました。Veniceのトークン、VVVは1ヶ月で300%以上跳ね上がったのです。市場は何かを確実に聞いていたのです。

その瞬間、業界の深い変化が露わになったと思います。AIはもはやチャットボットだけではありません。私たちは自律型ソフトウェアエージェントの時代に突入しています—インターネットを閲覧し、コードを書き、ファイルを管理し、APIを叩き、さらにはあなたに代わって意思決定も行うシステムです。あなたのメール、カレンダー、ドキュメント、金融データ、プライベートな会話をAIが読む時代になった今、それは単なる生産性向上ツールではなくなっています。インフラです。非常にセンシティブなインフラです。そこに、検閲されていないAIやプライバシー重視の代替手段が突然重要になってきます。

Venice AIはまさにそのギャップを埋めるために登場しました。ShapeShiftの背後にいるErik Voorheesによって設立され、2024年5月に自己資金で立ち上げられたプロジェクトです。Voorheesは2014年から非カストディアルの暗号ツールを構築してきたため、プロジェクトのDNAは中央集権リスクを避けることにあります。大規模なVCラウンドも、機関投資家からの圧力もありません。ユーザーがBig Techの監視なしにAIを使いたいというニーズに応えることに集中しています。2026年初頭には、プラットフォームは毎日何十億ものトークンを処理していました。

ここでVeniceがChatGPTやClaudeの公式インターフェースと異なる点を紹介します。ほとんどの主流AIプラットフォームはすべてを記録します。会話を保存し、やりとりを分析し、データを学習に利用します。これは中央集権的です。一方、Veniceは全く異なるアプローチを取っています。アーキテクチャは、会話を一切保持しないように設計されています。あなたのプロンプトはブラウザ内で暗号化されたままです。データは暗号化されたチャネルを通じて分散GPUプールに送信され、処理され、すぐに消去されます。チャット履歴を保持する中央データベースはありません。キャッシュをクリアすれば、履歴は消えます。

これは技術的には難しそうに見えますが、プライバシーの観点からは実質的に大きな違いです。まるで封印された手紙を盲目的なリレーを通じて郵送するようなものです。郵便局は内容を読まず、コピーも保存しません。インフラはリクエストを処理するために存在しますが、保存するためではありません。

Veniceは二つのプライバシーモードを提供します。プライベートモードは、散在するコンピュートノード上で動作するオープンソースモデル(Qwen3、DeepSeekなど)を使用します。GPUはあなたのプロンプトを一時的に見ますが、あなたの身元とは一切関係ありません。匿名化モードは、ClaudeやGrokのような独自モデルにアクセスできますが、メタデータやIPアドレス、利用履歴を除去するプロキシ層を通じて行います。まるで中間者があなたの正体を隠しながら大規模モデル提供者に見せない仕組みです。

面白いのは、Veniceは単一の独自モデルを構築しようとしない点です。むしろ、モデルのマーケットプレイスとルーティング層の役割を果たしています。必要に応じて100以上のモデルにアクセス可能です。日常的なクエリには高速モデル、大規模推論にはより強力なモデル、画像解析にはビジョンモデル、アートや動画には生成モデル—といった具合に、異なるタスクに応じてモデルを動的に選択できるモジュール式のアプローチです。

技術スタックは非常に洗練されています。開発者向けには、APIエンドポイントがOpenAIの仕様に合わせてあり、統合もスムーズです。ストリーミングや特定モデルの関数呼び出し、ビジョン機能もサポート。レートリミットはフェアユースに基づき、ハードキャップはありません。一般ユーザーはウェブサイトにアクセスし、モデルを選び、プロンプトを入力し、応答を得るだけです。Proプランは月額$18 、または100 VVVトークンをステークして無制限のプロンプトや高度なモデルにアクセス可能です。無料ユーザーは1日10のテキストプロンプトを利用できます。

この仕組みを支える経済モデルも重要です。VVVは資産の一つです。総供給量は1億ですが、未請求のエアドロップや発行削減により42.7%が焼却済みです。現在の流通量は約44.34Mで、そのうち38.8%がステークされています。ステーキングの年利は19%とかなり高いです。ただし、面白いのは、単に利回りを得るだけでなく、DIEMという永続的なクレジットトークンをミントできる点です。ステークしたVVVをロックすると、DIEMが発行され、APIアクセスのクレジットとして毎日一定量得られます。まるで変動する担保を安定した計算資源に変えるような仕組みです。

ミントの計算式は指数関数的で、少しずつ低い状態から始まり、より多くのDIEMが発行されるとともに自然とバランスが取れる仕組みです。あるユーザーは56 DIEM(約$37K相当)をClaude Opusの完全アクセスにステークしました。他のユーザーは無料枠を利用しています。経済的には、Veniceは暗号担保付きの計算サブスクリプションシステムに変貌しています。呼び出しごとに支払うのではなく、大口ユーザーは資本をロックし、継続的な推論クレジットを受け取る仕組みです。Render Networkの仕組みに似ていますが、消費者向けアプリとしての側面も持ちます—Veniceには2百万人のユーザーがいます。

この仕組みの回転メカニズムも理解しておくべきです。VVVをステークして19%の利回りとProアクセスを得る。ステークしたVVVをロックしてDIEMをミントする。DIEMを使ったり取引したりしてAPIクレジットを得る。エージェントはDIEMを買って運用に使う。プラットフォームは収益を使って毎月VVVを買い戻し、焼却します。これにより成長と希少性が直結します。2025年10月には収益が最初の焼却を支え、その後も継続しています。エアドロップでは供給の50%をユーザーに配布し、そのうち35%が請求済み、残りは焼却済みです—およそ$1 価値に相当します。

なぜこれが急騰したのか?一因はOpenClawの言及です。(買収後、OpenAIのエージェントプラットフォームが検閲されていないAIの代替を推奨しているという事実は…興味深いものでした。市場はそれをシグナルと解釈し、VVVはその日35%上昇し$4.28になりました。ドキュメントが更新され、推奨が削除された後も—「見落とし」と呼ばれましたが—そのセンチメントは根強く残りました。「VPN for AI agents」というストーリーが生まれ、X(旧Twitter)ではVVVをエージェントのためのインフラ投資と呼ぶ投稿も出てきました。

しかし、私が考えるに、もっと大きな背景にはAI検閲への不満の蓄積があります。2024年、GoogleのGeminiは偏った画像出力で大きな反発を受けました。OpenAIのコンテンツフィルターは、敏感なトピックに関する事実のクエリさえもブロックします。ユーザーは過剰なモデレーションに不満を募らせていました。これらの事件は、強力なAIにはコントロールが伴うという根本的な緊張を露呈させました。人々はログや制限のない代替を求め始め、Veniceのノーログ・ローカルストレージのアプローチはその文脈に響きます。

その証拠に、指標もそれを裏付けています。2026年3月までにAPIユーザーは2万5千を超え、OpenClaw言及後に急増しました。毎日のLLMトークン処理数は450億に達しました。VVVは市場回復期にAIセクターの15.5%の上昇を牽引しました。検索数も急増し、CoinGeckoではトップ15のアルトコインにランクインしています。実際に採用が進んでいるのです。

Veniceが象徴するのは、プライバシー重視のAIをめぐる大きなムーブメントの一部です。AIが日常ツールに浸透するにつれ、所有権、プライバシー、コントロールに関する問いは避けられなくなります。現在、競合するモデルは三つあります。大手企業の中央集権型AI(OpenAI、Google DeepMind、Anthropic)—最高品質で最速のイノベーション、安全性も高いが、検閲やデータ収集の懸念も伴う。オープンソースAI—透明性が高く柔軟で検閲耐性もあるが、最先端モデルと比べて性能は劣り、ローカル運用はコストが高い。最後に、Veniceのような分散型AIネットワーク—堅牢でプライバシー重視、許可不要だが、インフラや経済設計の課題もあります。

Veniceはその中間に位置します。オープンソースモデルと分散コンピュート、暗号経済を組み合わせ、中央モデルへのアクセスも匿名化層を通じて可能にしています。パフォーマンスとプライバシーの間を巧みに縫い合わせたハイブリッドアプローチです。

今後、プライベートで検閲されていないAIへの需要は確実に高まるでしょう。AIエージェントがより自律的になり、あなたの個人データを扱い、あなたに代わって意思決定を行うようになるにつれ、その需要はさらに増す一方です。問題は、プライバシー重視の代替手段がスケールし、そのプライバシーの約束を維持できるかどうかです。Veniceの早期の成功は、確かな需要があることを示しています。長期的に経済モデルが持続できるか、技術インフラがプライバシーを損なわずに拡大できるか—これが次の注目点です。ただ一つ確かなのは、大手テック企業が作るものをただ受け入れる時代は終わったということです。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン