العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
هل وجه جنسن هوانج الإشارة؟ ارتفع SN3 بمقدار 5 أضعاف في الشهر، فماذا فعل بالضبط؟
2026年3月20日,在All-In创投播客中出现了一段不同寻常的对话。
风险投资大佬Chamath Palihapitiya将话题递给英伟达CEO黄仁勋,称Bittensor上有一个项目“完成了一项相当疯狂的技术成就”,用分布式算力在互联网上训练了一个大型语言模型,整个过程完全去中心化,没有任何中心化的数据中心参与。
黄仁勋没有回避。他将此比作“现代版的Folding@home”,那个在2000年代让普通用户贡献闲置算力、共同对抗蛋白质折叠难题的分布式项目。
在此之前的4天前,即3月16日,Anthropic联合创始人Jack Clark在发布一份AI研究进展报告时,也用大量篇幅重点介绍和引用了这项突破:Bittensor生态子网Templar(SN3)完成了720亿参数大模型(Covenant 72B)的分布式训练,模型性能与Meta在2023年发布的LLaMA-2相当。
Jack Clark将这一章节命名为“通过分布式训练挑战AI政治经济学”,并在分析中强调,这是一项值得持续追踪的技术——他能想象未来:设备端AI大量采用去中心化训练产出的模型,而云端AI则继续运行专有大模型。
市场反应略显滞后但极为剧烈:SN3过去一个月涨逾440%,过去两周涨逾340%,市值达到1.3亿美元。子网的爆发式叙事,直接带动TAO的购买压力。因此,TAO快速上涨,一度达到377美元,过去一个月翻倍,FDV(完全稀释市值)约为75亿美元。
问题来了:SN3到底做了什么?为何会被推至聚光灯下?分布式训练和去中心化AI的价值叙事又将如何演变?
那个72B的模型
要回答这个问题,首先要看清SN3的成绩单。
2026年3月10日,Covenant AI团队在arXiv上发布技术报告,正式宣布Covenant-72B完成训练。这是一个720亿参数的大型语言模型,超过70个独立节点(每轮约20个节点同步,每个节点配备8张B200显卡),在约1.1万亿tokens的语料上完成了720亿参数模型的预训练。
Templar提供了在基准测试方面的一些数据,当然,对比的基准模型是Meta在2023年发布的LLaMA-2-70B。正如Anthropic联合创始人Jack Clark所说,Covenant-72B在2026年可能有些过时。Covenant-72B在MMLU上的得分为67.1,大致对应Meta2023年发布的LLaMA-2-70B(65.6分)。
而2026年的前沿模型——无论是GPT系列、Claude还是Gemini——早已在数十万块GPU上完成了参数量远超1000亿的训练,推理、代码、数学能力的差距是数量级而非百分比的问题。这个现实差距不应被市场情绪所淹没。
但换算到“用开放互联网上的分布式算力训练出来”这个前提下,意义就完全不同了。
做个比较:同为去中心化训练的INTELLECT-1(Prime Intellect团队出品,100亿参数)在MMLU上的得分为32.7;另一个在白名单参与者中进行的分布式训练项目Psyche Consilience(400亿参数)得分24.2。Covenant-72B以72B规模、67.1的MMLU分数,在去中心化训练赛道中是个显眼的数字。
更关键的是,这次训练是“无需许可”的。任何人都可以接入成为参与节点,无需事先审核,无需白名单。超过70个独立节点参与模型更新,从全球各地连接贡献算力。
黄仁勋说了什么,没说什么
还原那场播客对话的细节,有助于校正外界对这次“背书”的解读。
Chamath Palihapitiya在对话中将Bittensor的技术成就展现给黄仁勋,并描述为用分布式算力训练了一个Llama模型,过程“完全分布式,同时保持状态”。黄仁勋回应将其比作“现代版的Folding@home”,并展开讨论了开源与专有模型并行共存的必要性。
值得注意的是,黄仁勋没有直接提到Bittensor的代币或任何投资含义,也没有进一步讨论去中心化AI训练。
理解Bittensor子网和SN3
要理解SN3的突破,首先需明确Bittensor及其子网的运作逻辑。简单来说,Bittensor可看作是一条AI公链和平台,而每个子网就相当于一条独立的“AI生产流水线”,各自明确核心任务、设计激励机制,协同构建去中心化AI生态。
其运作流程清晰且去中心化:子网所有者定义子网目标并编写激励模型;矿工在子网中提供算力、完成AI相关任务(如推理、训练、存储等);验证者对矿工的贡献进行打分,并将评分上传至Bittensor共识层;最终,Bittensor的Yuma共识算法会根据各子网累积的奖励,向子网参与者分配相应收益。
目前Bittensor上有128个子网,涵盖推理、无服务器AI云服务、图像、数据标注、强化学习、存储、计算等多类AI任务。
而SN3就是其中的一个子网。它不做应用层套壳,不租用现成的大模型API,而是直接瞄准了整个AI产业链中最昂贵、最封闭的核心环节之一:大模型预训练。
SN3希望利用Bittensor网络协调异构计算资源的分布式训练,通过激励式分布式大模型训练,证明无需昂贵的中心化超级计算机集群,同样可以训练出强大的基础模型。核心吸引力在于“平权”——打破中心化训练的资源垄断,让普通个人或中小机构也能参与大模型训练,同时借助分布式算力降低训练成本。
推动SN3发展的核心力量是Templar,其背后的研究团队为Covenant Labs。该团队还同时运营着另外两个子网:Basilica(SN39,专注计算服务)和Grail(SN81,专注RL后训练与模型评估)。三者形成垂直整合,完整覆盖大模型从预训练到对齐优化的全流程,构建去中心化大模型训练的完整生态。
具体而言,矿工贡献计算资源,将梯度更新(模型参数的调整方向和力度)上传至网络;验证者评估每个矿工的贡献质量,按照误差改善幅度给予链上评分。结果决定奖励权重,自动分配,无需信任任何第三方。
激励机制的关键在于,奖励直接挂钩“你的贡献让模型变好了多少”,而非单纯的算力出勤。这从根本上解决了去中心化场景中最难的问题:如何防止矿工摸鱼。
那么Covenant-72B如何解决通信效率和激励相容问题?
让几十个互不信任、硬件各异、网络质量参差不齐的节点协同训练同一模型,面临两个挑战:一是通信效率,标准的分布式训练方案要求节点间高带宽、低延迟的互联;二是激励相容,如何防止恶意节点提交错误梯度?如何确保每个参与者都在老老实实训练,而不是抄袭他人的结果?
SN3用两个核心组件解决了这两个问题:SparseLoCo和Gauntlet。
SparseLoCo解决通信效率问题。传统的分布式训练每一步都要同步完整梯度,数据量巨大。SparseLoCo采用的方案是:每个节点在本地跑完30步的内部优化(AdamW),然后将产生的“伪梯度”压缩后再上传给其他节点。压缩方式包括Top-k稀疏化(只保留最关键的梯度分量)、误差反馈(将被丢弃的部分存起来累积到下一轮)、以及2位量化。最终压缩比超过146倍。
换句话说,原本需要传输100MB的内容,现在不到1MB就够了。
这让系统在普通互联网(上行110Mbps,下行500Mbps)的带宽限制下,将计算利用率维持在约94.5%——20个节点、每节点8块B200、每轮通信耗时仅70秒。
Gauntlet解决激励相容问题。它运行在Bittensor区块链(子网3)上,负责验证每个节点提交的伪梯度质量。具体方式是:用一小批数据测试“用上这个节点的梯度后,模型损失降低了多少”,结果称为LossScore。同时,系统还检查节点是否在用自己分配到的数据训练——如果一个节点在随机数据上的损失改善比在自己分配数据上还好,会被打负分。
最终,每轮训练只选取评分最高的节点的梯度参与聚合,其余节点被淘汰出这一轮。超出的参与者会随时补位,使系统保持稳健。整个训练过程中,平均每轮有16.9个节点的梯度被纳入聚合,累计参与过的唯一节点ID超过70个。
去中心化AI的价值叙事,正在发生根本性转变
从技术和行业角度看,Covenant-72B代表的方向具有几个重要意义。
第一,打破了“分布式训练只适合小模型”的预设。虽然与最前沿模型仍有差距,但证明了这个方向的可扩展性。
第二,无许可参与是真实可行的。这一点被低估了。此前的分布式训练项目依赖白名单——只有经过审核的参与者才能贡献算力。SN3这次训练中,任何拥有足够算力的人都可以接入,验证机制负责过滤恶意贡献。这是向“真正去中心化”迈出的实质性一步。
第三,Bittensor的dTAO机制使子网价值的市场发现成为可能。dTAO允许每个子网发行自己的Alpha代币,通过AMM机制让市场决定哪些子网获得更多TAO排放。这为像SN3这样产出具体成果的子网提供了一套粗糙但有效的价值捕获机制。当然,这套机制也容易被叙事和情绪干扰,LLM训练成果的质量很难被普通市场参与者独立评估。
第四,去中心化AI训练的政治经济意义。Jack Clark在Import AI中将此问题提升到“谁拥有AI的未来”层面。目前,前沿模型训练被少数拥有大规模数据中心的机构垄断,这不仅是商业问题,也是权力结构问题。若分布式训练能持续取得技术突破,有望在某些模型(如特定领域的小规模前沿模型)上形成真正去中心化的开发生态。当然,这一前景目前还远。
总结:一个真正的里程碑,以及一系列真实的问题
黄仁勋表示,这像“现代版的Folding@home”。Folding@home在分子模拟领域做出了实际贡献,但没有威胁到大型制药公司的核心研发地位。这个比喻非常贴切。
SN3验证了协议,证明了分布式训练的可行性。但从技术和行业角度看,这份成绩单背后,还存在一些少有人愿意深入讨论的问题:
MMLU本身在学界争议较大,公开基准题目和答案存在泄露训练集的风险。更值得关注的是,论文所对标的LLaMA-2-70B和LLM360 K2都是2023-2024年的老模型,而在问及Grok、豆包时,这些模型的得分被归为中下游或入门级水平。若用更动态或抗污染的基准,结论或许会更真实。
决定模型能力上限的高质量数据——对话、代码、数学推导、科学文献——大概率掌握在各大公司、出版机构和学术数据库手中。算力民主化了,数据端仍是寡头结构,这个矛盾尚未被充分讨论。
关于安全性,无许可参与意味着你不知道那70多个节点背后是谁,也不知道他们用什么数据训练。Gauntlet能过滤明显异常的梯度,但无法防范微妙的数据投毒——如果某个节点系统性地在某类有害内容上多训练几轮,可能会产生偏移,影响模型行为。
Covenant-72B以Apache 2.0开源,不使用SN3代币。持有SN3代币,分享的是未来持续产出模型的排放收益,而非模型使用的直接收益。这个价值链依赖于持续的训练产出和网络排放机制的健康运转。如果未来训练停滞或成果不达预期,代币估值就会动摇。
列出这些问题,并非否定Covenant-72B的意义。它证明了曾被认为不可能的事情可以实现,这一事实不会消失。但“做到了”与“意味着什么”是两回事。
过去一个月,SN3代币上涨了440%。这中间的距离,可能并非纯粹炒作,而是叙事速度快于现实。未来,这段距离会被市场逐步填平,还是被市场修正消化,取决于Covenant AI团队接下来交出的实际成果。
值得关注的是,Grayscale已于2026年1月提交TAO ETF申请,显示机构资本对这条赛道的兴趣。此外,2025年12月,Bittensor将每日TAO排放减半,供给端的结构性收紧也在酝酿中。
参考链接: