Tether 剛剛公布了一個新的人工智慧訓練框架,允許在消費者設備如智慧型手機和非 Nvidia GPU 上微調大型語言模型。這個系統屬於 QVAC 平台,利用微軟的 BitNet 架構結合 LoRA 技術,顯著降低記憶體需求和計算成本。
根據 Tether 的說法,該框架支持多平台,與 AMD、Intel、Apple Silicon 以及 Qualcomm 行動 GPU 相容。工程師可以在智慧型手機上在兩小時內微調高達 10 億參數的模型,甚至將範圍擴展到 13 億參數。
BitNet 技術幫助將 VRAM 降低多達 77.8%(相較於 16 位模型),同時加快行動 GPU 上的推論速度。Tether 也強調其在聯邦學習(federated learning)等應用中的潛力,減少對雲端的依賴。
此舉反映出加密貨幣公司擴展至人工智慧與計算基礎設施的趨勢,與 AI 代理人在行業中的發展同步。