Tether 推出全球首個手機端「十億級 AI 訓練框架」,iPhone、Samsung 都能跑 LoRA

動區BlockTempo

Tether 旗下數據與 AI 部門 QVAC 於 3 月 17 日發布重大技術突破,推出全球首款支持微軟 BitNet(1-bit LLM)架構的跨平台 LoRA 微調框架。這項整合進 QVAC Fabric 的技術大幅降低了內存與運算需求,讓十億級參數模型不再是企業級 GPU 的專利,實現了在一般手機與筆電上的「本地化、全隱私」訓練。
(前情提要:Tether 投資 Axiym 擴大支付基礎設施佈局:推動 USDT 融入全球合規支付網路)
(背景補充:Tether 跨界投資 AI 睡眠科技!領投 Eight Sleep 5000 萬美元,估值衝上 15 億鎂)

本文目錄

Toggle

  • 1-bit 架構魔力:讓手機性能「以小博大」
  • 實測數據曝光:Samsung S25 與 iPhone 16 的驚人速度
  • 告別 API 密鑰,打造 100% 隱私的個人 AI

在人工智慧(AI)領域,訓練強大模型向來被視為「燒錢」的代名詞,高度依賴昂貴的 NVIDIA 系統或雲端算力。然而,穩定幣巨頭 Tether 正試圖用技術改寫這個規則。Tether 旗下的技術部門「Tether Data」於 3 月 17 日宣布,正式為其 QVAC(QuantumVerse Automatic Computer)平台推出全球首個跨平台 BitNet LoRA 微調框架。

這項技術的核心價值在於:它能讓具備「十億參數規模(Billion-parameter)」的 AI 模型,在每個人口袋裡的手機上直接進行個性化學習。

1-bit 架構魔力:讓手機性能「以小博大」

這項突破性進展建基於微軟(Microsoft)推出的 BitNet 1-bit LLM 架構。透過 QVAC Fabric 的優化,BitNet 模型的內存占用與計算壓力被降至極低水準。根據公告,該框架不僅支持常見的 NVIDIA GPU,更實現了對 Intel、AMD、Apple M 系列晶片以及行動裝置端 Adreno (Android)、Mali、Apple Bionic GPU 的全面兼容。

這意味著,原本只能在數據中心跑的 AI,現在可以在你的手機上進行「Low-Rank Adaptation(LoRA)」微調。Tether 指出,這種技術能讓邊緣設備處理比傳統 Q4 量化模型「大 2 倍」的模型,展現出極致的記憶體優勢。

實測數據曝光:Samsung S25 與 iPhone 16 的驚人速度

Tether 工程團隊在公告中分享了令人振奮的實測數據,展示了該框架在現代手機上的實戰能力:

  • **1.25 億參數模型:**在 Samsung S25 上微調一個包含 300 份生物醫學文件的資料集,僅需約 10 分鐘
  • **10 億(1B)參數模型:**完成同樣的微調任務,在 Samsung S25 上耗時 1 小時 18 分鐘,而在 iPhone 16 上則為 1 小時 45 分鐘。
  • **極限挑戰:**開發團隊成功在 iPhone 16 上運行高達 130 億(13B)參數 模型進行微調,推向了行動裝置的物理極限。

告別 API 密鑰,打造 100% 隱私的個人 AI

Tether 執行長 Paolo Ardoino 一直強調:「如果你需要 API 密鑰才能使用 AI,那它就不真正屬於你。」QVAC 的核心理念即是「本地優先(Local-first)」。

透過 BitNet LoRA 框架,使用者可以讓 AI 直接學習本地的郵件、筆記與訊息,而無需將任何數據上傳至雲端伺服器。這不僅消除了企業對機敏數據被濫用的疑慮,更打破了 AI 開發僅侷限於少數巨頭壟斷的現狀。目前,QVAC Fabric LLM 已作為開源軟體(Apache 2.0 授權)發布,並在 Hugging Face 提供預選適配器,讓全球開發者能即刻啟動這場邊緣運算的革命。

免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
留言
0/400
暫無留言