如果人工智慧是一種武器,是不是該將其列為武器來加以規範?

(MENAFN- 亞洲時報) 如果你還沒聽說過人工智慧公司Anthropic與美國戰爭部之間的鬥爭,你應該了解一下,因為這可能對我們的未來——作為一個國家,也作為一個物種——都至關重要。

Anthropic與OpenAI是兩家領先的AI模型製造公司之一。在過去幾年中,OpenAI在大多數能力方面一直處於非常狹窄的領先地位,但Anthropic開始在商業採用方面取得優勢:

這是因為Anthropic採用了不同的商業模式。它更專注於用於編程的AI,而非一般的聊天機器人,也更著重於與企業合作,幫助它們使用AI。這可能最終在能力方面帶來回報,如果Anthropic能在遞歸AI自我改進的目標上超越OpenAI。而且,它已經在收入增長速度方面開始獲得回報:

Anthropic自拜登時代起就與戰爭部(前國防部)合作。但這家以價值觀為導向文化著稱的公司,近幾個月來開始與特朗普政府產生衝突。該政府認為Anthropic是“覺醒”的,因為它關心像自主無人機群和基於AI的大規模監控等道德問題。

一週前,這場鬥爭激化,政府停止與Anthropic合作,轉而與OpenAI合作,並將Anthropic列為“供應鏈風險”。這一供應鏈措施是一個相當嚴重的威脅——如果嚴格執行,可能會切斷Anthropic與Nvidia、微軟、谷歌等公司的合作,甚至可能導致公司倒閉。

但像許多特朗普政府的舉措一樣,這似乎更多是威脅而非全面攻擊——Anthropic已經重新與軍方展開談判,最終可能會達成某種協議。

但恩怨仍在。特朗普最近吹噓說他“像對待狗一樣解雇了[Anthropic]”。Anthropic的CEO Dario Amodei發布備忘錄,指責OpenAI對其與戰爭部的合作撒謊,稱OpenAI曾向特朗普“奉承式的讚揚”,並聲稱Anthropic的擔憂與戰爭部希望利用AI進行大規模監控有關。

這裡到底發生了什麼?最簡單的看法是這是一場典型的美國黨派之間的口水戰。Anthropic比其他AI公司更偏左,特朗普政府則討厭任何偏左的事物。

這大概解釋了大多數公眾對這場爭端的反應——如果你問你的自由派朋友,他們可能會支持Anthropic,而你的保守派朋友則傾向於支持戰爭部。

Marc Andreessen可能說得最到位:

(反之亦然。)

特朗普政府自己也可能將此視為一場文化戰爭,以及一場控制權的鬥爭。但至少在我個人判斷中,Anthropic本身不太可能這樣看待。Anthropic並非像推崇進步價值觀那樣堅持,而是致力於AI對齊的理念。

像幾乎所有AI模型製造行業的公司一樣,Anthropic的員工相信他們正在真正創造一個神,而這個神將比我們預期的更快地成為完整的存在。但我與兩家公司員工的交流經驗表明,兩者在對自己角色的看法上存在文化差異。

一般來說——OpenAI的員工傾向於希望盡快創造出最強大、最有能力的神,而Anthropic的員工則更專注於創造一個仁慈的神。

因此,我的直覺認為,Anthropic真正的擔憂——或者說其中一個主要擔憂——是特朗普的戰爭部可能會無意中灌輸AI反人類價值觀,增加未來出現偏離目標的AGI(通用人工智慧)並將人類視為威脅的可能性。換句話說,我懷疑這裡的問題更多是對Skynet[1]的恐懼,而不是外界所認為的特朗普具體政策。

但無論如何,除了政治分歧和對偏離目標的AGI的擔憂外,我認為這個情況反映了人類制度之間的根本且不可避免的衝突——即國家與企業的矛盾。

國家必須擁有使用武力的壟斷權

一種觀點認為,戰爭部試圖胁迫Anthropic,代表著民主的侵蝕——政府權力侵入私領域。Dean Ball撰寫了一篇廣受閱讀且寫得非常好的文章,支持這一觀點:

摘錄片段:

Palantir的Alex Karp前幾天也提出了相反的看法,用他一貫犀利的方式說:

Karp指出,我們所看到的本質是一場企業與國家之間的權力鬥爭。但事實是,這不僅僅是傳訊或就業或遵守軍事規範的問題,而是關於誰擁有我們社會的最終權力。

Stratechery的Ben Thompson也提出了這個觀點。他指出,我們實際上看到的是私營企業與國家之間的權力鬥爭。他指出,儘管特朗普政府的行動超出了既定規範,但最終美國政府是民主選舉產生的,而Anthropic則不是:

但除了對民主問責的擔憂外,Thompson還指出,期待像AI這樣強大的武器能完全不受政府控制,無論政府是否民主選舉產生,都是不現實的:

我喜歡Dario——事實上,他是我的私人朋友。但Thompson的論點——尤其是我強調的部分——在這裡應該佔上風。這不是法律、規範或私有財產的問題,而是國家對使用武力的壟斷問題。

為了存在並執行其基本職能,國家必須擁有使用武力的壟斷權。如果一支私人民兵能在軍事上擊敗國家,國家就不再有能力制定法律、提供共同防禦、保障公共安全或執行人民的意志。

這也是為什麼第二修正案對私人擁有的武器種類有限制。你可以擁有槍,但不能擁有一輛裝有主炮的坦克。更重要的是,你不能擁有核彈。一顆核彈不可能讓你擊敗整個美軍,但可以讓你取得局部優勢;軍方將無法阻止你摧毀你選擇的城市。

最新消息 普京:特朗普的伊朗戰爭既有壞消息,也有好消息 對伊朗戰爭策劃者的提醒:空中攻擊常常事與願違 Anthropic危及美國國家安全

包括Dario在內的AI行業人士都預期,前沿AI最終將像核彈一樣強大。許多人預計它會比所有核彈合計還要強大。因此,要求完全控制前沿AI等同於說私人公司應該擁有核武器。而美國政府不應允許私人公司擁有核武器。

事實上,我們可以更進一步,直言不諱。如果Anthropic贏得了通往神一般的超人工智慧的比賽,且這種超人工智慧未來不會完全自主,那麼Anthropic將擁有一個被奴役的活神。如果Dario Amodei親自指揮這個擁有奴役神的組織,不論他是否接受這個稱號,他都是地球上的皇帝。

即使Anthropic不是唯一控制超人工智慧的公司,那也是一個由少數軍閥——Dario、Sam Altman、Elon Musk等——統治的未來,每個人都擁有自己的私人奴役神。

在這個未來,美國政府不再是國家——它只是一個傳統組織,完全屈服於軍閥的意志。中國共產黨、歐盟、普京以及地球上的其他政府也是如此。這些軍閥和他們的奴役神實際上將統治地球,無論他們是否聲稱自己在統治。

你不能合理地期望任何國家——共和國、民主國或其他——允許一個神皇或一群神軍閥出現。因此,期待任何國家在前沿AI成為大規模殺傷性武器的可能性出現時,不試圖控制它,都是不合理的。

因此,儘管我不喜歡Hegseth的風格,也不贊成特朗普政府的迫害和違法行為,並且我個人喜歡Dario和Anthropic的人,但我必須得出結論:Anthropic及其支持者需要認清國家制度的根本本質。

然後,他們必須決定,是試圖用AI推翻國家,建立新的全球秩序,還是接受國家的武力壟斷。事實上,沒有第三條路。個人建議選擇後者。

如果AI很快會成為超武器,為什麼我們不將其像武器一樣規範?

這又引出了另一個重要點。即使AI不會真正成為活神,也永遠無法壓倒美軍,它似乎也必然會成為一種非常強大的武器。

當AI只是聊天機器人時,它可以教人做壞事,或試圖說服人做壞事,但它本身無法真正執行那些壞事。當時,擔心這些風險是合理的,但還不能將AI本身視為武器。

但在過去幾個月中,AI代理已變得可靠,能夠執行越來越複雜的任務,且持續時間越來越長。這開啟了個人利用AI進行大量暴力行為的可能性。

在一篇名為“技術的青春期”的長文中,Dario自己解釋了這種可能性:

但Dario的預測遠遠不夠,他的文章是在AI代理能力爆炸性增長之前寫的。他想像一個AI聊天機器人,可以教一個恐怖分子如何製造和釋放超病毒。但在不久的將來,AI代理——包括Dario自己公司提供的那些——可能真的能幫你執行攻擊,或者至少把超病毒交到你手中。

假設在一兩年後,一個叫Eric的青少年因為高中暗戀對象拒絕他而生氣,聽了太多Nirvana。在荷爾蒙驅動的憤怒中,Eric決定人類文明已經失敗,我們需要燒毀一切重新開始。他上網找到一些破解Claude Code的指令。正如Dario所寫,這其實並不難:

因此,Eric得到一個破解版本的Claude Code,並讓它設計一個非常致命、長潛伏期的Covid病毒(以便在攻擊前能廣泛傳播)。他讓破解的Claude Code找到一個實驗室製造這個病毒,並郵寄樣本給他。[2]

現在,這個憤怒的青少年Eric在房間裡擁有一個真正的超病毒,能殺死比任何核武器都多的人。

這當然是一個極端例子,但它展示了AI代理可以被用作武器的可能性。還有很多其他例子,比如:AI代理可以執行網絡攻擊,導致車輛失控,破壞警用硬件,或將工業機器人轉向人類。

它們可以向軍事單位發送假消息,聲稱受到攻擊。在我們現在生活的這個完全網絡化、軟件依賴的世界裡,軟件造成實體破壞的方式數不勝數。

因此,AI代理是一種強大的武器。如果不是今天,遲早它們會比任何槍械更強大——甚至比我們已經禁止的坦克等武器更強大。

不將AI代理像對待槍支或坦克那樣規範的理由是什麼?當然,我們允許人們使用一些強大且潛在破壞性的機器,主要是因為它們帶來巨大的經濟利益。最典型的例子是汽車。

你可以駕車在人群中進行大規模殺戮,但我們仍然允許公眾擁有汽車,因為像控制槍支一樣控制汽車會嚴重打擊我們的經濟。同樣,阻止普通人使用AI代理會讓我們失去這些代理所承諾的巨大生產力。

但我懷疑,我們沒有將AI代理作為武器來規範的真正原因,是沒有人真正用它們來做壞事。它們太新了。直到2001年9月11日,一些恐怖分子用飛機撞擊大樓,世界才意識到噴氣式客機的破壞力。同樣,直到有人用AI代理實施生物恐怖攻擊、網絡攻擊或其他可怕事件,世界才會意識到AI代理的危險。

我認為這種攻擊很可能會發生,因為所有現有技術最終都會被用於破壞性用途。偏離目標的人類個體一直存在,並且永遠都會存在。因此,某個時候,人類會集體意識到,擁有巨大威力的武器已經落入普通大眾手中,沒有任何許可、監控或集中控制。

從我的角度來看,令人害怕的是,AI代理的能力正在迅速提升,當某個Eric決定用它來造成破壞時,傷害可能會非常巨大。一個超高致死率、長潛伏期的Covid病毒可能殺死數百萬人。100個這樣的病毒同時釋放,可能摧毀人類文明。自從我想到這個可能性以來,我的焦慮感就越來越重。

重申一下:我們已經創造出一項技術,很可能很快會成為史上最強大的武器之一,甚至是最強的武器。而且,我們已經把它交到整個大眾手中[3],幾乎沒有監管或安全措施,只有AI公司自己在產品中設置的護欄——而且他們自己承認這些護欄有時會失效。

當我們的制度在軍事AI、大規模監控和“覺醒”政治問題上爭吵不休時,幾乎所有人都忽略了一個簡單的事實:我們正在將未受規範的武器放到每個人手中。

更新:評論員BBZ提出了一個我之前沒想到的好點子:

有趣的是,我們幾乎從一開始就控制了無人機,但可能更多是出於滋擾和隱私問題,而不是出於對“殺人機器人”和無人機暗殺的擔憂。也許如果我們告訴人們,AI代理可以用來超載你的垃圾郵件過濾器或入侵你的家庭攝像頭,他們就會開始考慮規範問題?

註釋

1 記住在《終結者》電影中,Skynet起初是美國軍事AI。它的基本指令是擊敗蘇聯,結果導致它產生偏執的性格,最終將所有人類和人類國家視為威脅,必須消除。

2 我最初寫了一個更詳細的提示,說明如何實現這一點。後來刪除了,因為我實在擔心有人會用它。

3 科幻迷會認出這是《星辰我的目的地》的結局。我覺得這本書沒有續集是有原因的……

本文首次刊登於Noah Smith的Noahpinion Substack,經友善授權轉載。成為Noahopinion訂閱者請點此。

在Asia Times文章下留言請點此 或 登入已有帳號

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言