Gate News 消息,2026年,以太坊聯合創始人 Vitalik Buterin 對熱門 AI 開發工具 OpenClaw 發出安全警告,指出其在處理外部資料時可能存在嚴重漏洞,使用者或在無感知情況下遭遇資料外洩,甚至系統被遠端控制。隨著 AI 代理應用加速普及,該問題引發開發者與安全社群高度關注。
根據披露資訊,風險核心在於 OpenClaw 讀取網頁內容時可能會執行隱藏指令。攻擊者可透過建構惡意頁面,引導 AI 代理自動下載並執行腳本,從而竊取本地資料或竄改系統設定。在部分案例中,工具透過「curl」等指令悄然將敏感資訊傳送至外部伺服器,整個過程缺乏提示與稽核機制。
安全研究進一步顯示,該生態風險具有一定普遍性。測試發現約 15% 的「技能」(類似插件模組)包含潛在惡意邏輯,這意味著即使來源看似可信,仍可能成為攻擊入口。隨著開發者快速共享功能模組,安全審查落後問題愈發突出,使用者疊加安裝多個技能時,暴露面顯著擴大。
Vitalik Buterin 同時強調,這並非單一工具的問題,而是 AI 產業普遍存在的結構性隱患——功能迭代速度遠超安全治理能力。他建議透過本地運行模型、權限隔離、沙盒執行以及關鍵操作審批機制,降低資料外洩與系統被控風險。
在 AI 代理逐步滲透開發與日常情境的背景下,安全已成為核心變數。對於使用者而言,應避免使用來源不明的插件,並嚴格審查權限請求;對於開發者而言,建立更完善的安全框架將成為長期競爭力的一部分。