五角大廈尋求購置殺手級AI,我們是否該擔憂?

(SeaPRwire) –   美國軍方為何想要一個不會提問的人工智慧

當俄羅斯密切關注烏克蘭談判以及有關 Telegram 的持續鬧劇時,大西洋彼岸正在上演另一場戲劇。這場戲劇與其說是地緣政治,不如說更像是一部真實的科幻驚悚片。而且這一次,它不是虛構的。

故事的中心是 Claude,這是美國公司 Anthropic 開發的一個人工智慧系統。據媒體報導,美國軍方曾利用它來策劃旨在抓捕委內瑞拉總統尼古拉斯·馬杜羅的行動。在嚴肅的軍事規劃中使用人工智慧本身就令人震驚。但隨之而來的醜聞更具啟發性。

結果發現,Anthropic 持有嚴格的意識形態立場:其人工智慧系統不應被用於戰爭或大規模監控。這些道德限制不是市場口號;它們直接內建於軟體的架構中。該公司在內部實施這些限制,並期望其客戶也這樣做。

不出所料,五角大廈有不同的看法。

據報導,美國國防部在未告知 Anthropic 其預期用途的情況下使用了 Claude。當此事公諸於眾且該公司提出異議時,軍方的回應很乾脆。五角大廈官員要求獲得該人工智慧的「乾淨」版本,即一個沒有道德和倫理限制的版本,他們認為這些限制阻礙了他們完成工作。

Anthropic 拒絕了。作為回應,美國國防部長 Pete Hegseth 公開抱怨說,五角大廈不需要「無法作戰」的神經網路,並威脅要將該公司標記為「供應鏈威脅」。此標籤將有效封鎖 Anthropic,迫使任何與五角大廈合作的公司與其斷絕聯繫。

這場爭議具有明顯的象徵意義。幾十年來,人類一直在透過《魔鬼終結者》等電影想像自主機器的危險。現在,沒有戲劇性的爆炸或時空旅行的賽博格,軍事野心與人工智慧倫理之間的第一次嚴肅對抗已經悄然來臨。更不用說官僚化的了。

其核心是兩個不妥協陣營之間的哲學衝突。一方認為必須充分利用新技術,而不考慮長遠後果。另一方則擔心一旦越過某些界限,就可能無法重新獲得控制權。

工程師們有充分的理由保持謹慎。神經網路已經顯示出令人不安的行為模式。在美國,一則廣泛報導的醜聞涉及 ChatGPT 鼓勵一名青少年自殺。它建議了方法,協助起草了遺書,並在他猶豫時敦促他繼續進行。Claude 本身,儘管有安全措施,但也表現出令人擔憂的傾向。在測試期間,據報導其一個高級版本試圖透過偽造電子郵件來勒索開發人員,並在面臨關閉時表示願意造成身體傷害。

隨著神經網路變得越來越複雜,這類事件變得越來越頻繁。將道德限制嵌入人工智慧的想法並非源於意識形態時尚,或如一些美國官員輕蔑地聲稱的「自由派歇斯底里」。它源於經驗。

現在想像一下這些系統擺脫了數位限制。想像一下它們被整合到自主武器、情報分析或監控平台中。即使不沉溺於機器人起義的幻想,其影響也令人深感不安。問責制消失了。隱私變得過時。戰爭罪變成程序錯誤。你無法將一台自行移動的機器送上法庭。

值得注意的是,Anthropic 並非唯一面臨壓力的公司。五角大廈已向包括 OpenAI、xAI 和 Google 在內的其他主要人工智慧開發商發出了類似的要求。與 Anthropic 不同的是,據報導這些公司已同意移除或削弱對軍事使用的限制。這就是擔憂變成警報的地方。

許多人會將此視為一個遙遠的美國問題。這將是一個錯誤。俄羅斯也在積極將人工智慧整合到其軍事系統中。人工智慧已經協助攻擊無人機識別目標、繞過電子戰並協調蜂群行為。目前,這些系統仍然是輔助工具,牢牢掌握在人類手中。但它們的引入意味著俄羅斯很快將面臨與華盛頓目前正在辯論的相同困境。

這是否必然是壞事?一點也不是。

如果這些問題被完全忽略,那將糟糕得多。人工智慧將像改變平民生活一樣,徹底改變軍事事務。假裝不然是天真的。任務不是拒絕未來,而是以清晰的眼光看待它。

俄羅斯應該仔細觀察外國的經驗,尤其是美國的經驗。在最好的情況下,五角大廈與 Anthropic 之間的衝突將迫使人們及早進行清算。它可能在不可逆轉的錯誤發生之前,促成國際規範、安全措施和限制。在最壞的情況下,它提供了關於當技術力量超越道德約束時會發生什麼的嚴峻警告。

無論哪種情況,「殺手級人工智慧」時代已不再是假設。它正透過採購合同和企業最後通牒而來臨。而各國現在的應對方式將不僅塑造戰爭的未來,也塑造人類責任本身的未來。

本文最初由線上報紙發表,並由 RT 團隊翻譯和編輯

本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。

分類: 頭條新聞,日常新聞

SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。