"FT TOKEN"的搜索结果
今天
04:05

蚂蚁集团 Ling-2.6-flash 模型开源:1040B 参数、7.4B 有效参数,达成多项 SOTA 基准

Gate 新闻简报,4月29日——蚂蚁集团的 Ling-2.6-flash 模型权重现已开源;此前这些权重仅通过 API 提供。该模型总参数量为 1040 亿,单次推理激活为 74 亿,拥有 256K 上下文窗口,并采用 MIT 许可。提供 BF16、FP8 和 INT4 精度版本,现已在 HuggingFace 与 ModelScope 上提供。 Ling-2.6-flash 相较 Ling 2.0 引入了混合线性注意力改进:将原始的 GQA 升级为 1:7 MLA,并结合 Lightning Linear 的混合架构,同时配合高度稀疏的 MoE。推理效率显著超过同类模型:在 4x H20 GPU 上,峰值生成速度达到 340 tokens/s;在可比的开源模型上,prefill 与 decode 的吞吐量约高出 4 倍。与智能体相关的基准测试显示出强劲表现:BFCL-V4、TAU2-bench、SWE-bench Verified 61.2%、Claw-Eval 以及 PinchBench 达到或接近 SOTA 水平。在完整的 Artificial Analysis 基准测试套件中,总 token 消耗仅为 1500 万。在 AIME 2026 上,该模型得分为 73.85%。 蚂蚁集团的官方网站同样列出了 Ling-2.6-1T 万亿参数旗舰版本 以及 Ling-2.6-mini 轻量版本 ;不过截至发布,权重仍未在 HuggingFace 上发布,当前仅提供 flash 系列下载。
展开
12:02

EXIO Group 与 Finoverse AI 发布 Token Planet:面向早期项目的 AI 驱动 RWA 孵化平台

Gate 新闻消息,4月28日——EXIO Group,一家全链条数字资产解决方案提供商,以及 Finoverse AI,一个全球技术生态网络,今日宣布正式启动 Token Planet。Token Planet 被定位为全球首个由人工智能驱动的现实世界资产 (RWA) 孵化平台,专为早期创业公司打造;Token Planet 旨在结合传统私募股权投资与区块链技术,为新兴资产注入流动性。
05:21

DeepSeek V4 引发美国争论:智库质疑芯片使用,Replit CEO 为开放创新辩护

Gate News 消息,4 月 24 日——围绕 DeepSeek V4 的技术能力与合规性,美国爆发了一场争论。Chris McGuire 是外交关系委员会 (CFR) 的资深研究员,曾任白宫国家安全委员会以及国防部官员,发表了分析文章,称 V4 并未改变美中 AI 的竞争格局。根据 McGuire 的说法,DeepSeek 自己的 V4 报告承认,其推理能力比前沿模型大约落后 3 到 6 个月,并以发布于六个月前的 GPT-5.2 与 Gemini 3.0 Pro 作为基准。 McGuire 提出担忧:尽管 V4 报告披露了在推理阶段对 NVIDIA GPU 以及华为 Ascend NPU 的适配,但并未公开说明开发过程中所使用的 GPU 型号或训练成本。他质疑这种沉默是否意味着使用了受出口管制的 NVIDIA Blackwell 芯片,并指出 V3 先前曾声称使用了 2,000 张 H800 GPU,成本为 5.57 million 美元。DeepSeek 已否认使用 Blackwell,表示该模型是在 NVIDIA H800 与华为 Ascend 910C 处理器上训练的。 Replit 首席执行官 Amjad Masad 反驳了 McGuire 的分析,认为中国科学家正在公开分享真正的 AI 突破,而美国政策制定者与游说者则放大“China distillation”(中国蒸馏)的担忧。Masad 强调了 DeepSeek 在官方声明中披露的架构创新,包括 DeepSeek 稀疏注意力 的按 token 级别注意力压缩,以及针对长上下文计算的显著效率提升。他指出,V4-Pro 在 1M 上下文长度下,展现出比 V3.2 更低得多的按 token 推理计算量与 KV 缓存需求,并强调这些架构进展与训练数据蒸馏无关,所有研究人员——包括美国的实验室——都可以从开源发展中获益。
展开
03:21

DeepSeek V4 训练数据翻倍至 33T,导致不稳定性并延迟了发布

Gate News 消息,4月24日——DeepSeek 的 V4 技术报告显示,V4-Flash 和 V4-Pro 分别在 32T 和 33T token 上进行了预训练,相较于 V3 使用的约 15T token 翻了一倍。该报告承认在训练过程中遇到了“显著的不稳定性挑战”,损失尖峰反复出现,是由于 Mixture-of-Experts MoE 层中的异常;路由机制本身会加剧这些异常,而简单的回滚也无法解决问题。
展开
15:31

OpenAI 发布开源隐私过滤器模型,用于检测与脱敏 PII

摘要:OpenAI 的隐私过滤器是一种开源、可在本地运行的模型,用于检测并在文本中脱敏个人身份信息(PII)。它支持大上下文,识别多种 PII 类型,并旨在用于注重隐私的工作流程,例如数据准备、索引、日志记录和内容审核。 OpenAI 的隐私过滤器是一种在本地运行的开源模型 (128k-token 上下文),可检测并在文本中脱敏个人身份信息(PII),用于隐私工作流程,涵盖联系方式、金融和凭据数据。
展开