【政局】美國國防部長(戰爭部長)海格塞斯周二(24日)向過往皆稱堅守負責任使用人工智能(AI)的AI初創公司Anthropic發出最後通牒,催逼該公司於美東時間周五(27日)傍晚之前,撤除其AI模型Claude的安全限制(紅線),允許軍方「無限制使用」,包括開發「度身訂做」版本,否則軍方將動用冷戰年代的《國防生產法》強行徵用該模型,或把該公司標註為「供應鏈風險」。
美國網媒Axios、《華盛頓郵報》等引述知情人士報道,五角大樓官員周二與Anthropic行政總裁阿莫迪等高管人員開會。海格塞斯當面誇讚Claude,表示想繼續跟該公司合作,惟逼迫Anthropic於美東時間周五下午5時01分(香港周六早上6時01分)前答應軍方要求,否則將要面對一連串嚴峻後果,包括可能引用1950年《國防生產法》,強迫Anthropic讓軍方徵用其技術,或把該公司排除在五角大樓的供應鏈以外,而這可能導致Anthropic一切政府合約受到威脅。
《國防生產法》讓總統有權強制私企接受及優先履行國防需要的合約。拜登執政時曾為加速獲取口罩等應對新冠疫情所需物資而引用過。
官員證雙方就洲際導彈「交流」
知情人士透露,這次會議「一點都不融洽」。阿莫迪在會上申明,美軍不得把產品用到自主鎖定敵方作戰人員或對美國公民執行大規模監視,又謂公司劃定的紅線既不妨礙五角大樓的工作,亦不影響前線人員。海格塞斯表示,他不會縱容任何公司所訂條款制約五角大樓的作戰決策或反對個別使用情况。另有國防官員駁斥擔憂,強調國防部依法行事。官員又向法新社證實雙方在會上在洲際導彈問題上「交流」,突顯了Claude模型應用的敏感程度。
Anthropic會後表示將繼續就使用政策作真誠對話,確保該公司繼續支持政府的國安使命,並使其AI模型能夠「可靠兼負責任地發揮作用」。
Claude除了被用於美軍的廣泛行政工作,是目前唯一應用於美軍敏感工作的AI模型。Anthropic去年夏天與五角大樓簽訂了為一系列軍事應用提供AI模型的2億美元(約15.6億港元)合約後,雙方卻未能彌合應用上的分歧。
公司不願Claude用於監控及自主武器
Anthropic即使表示願意為五角大樓調整其使用政策,始終拒讓軍方利用Claude大規模監視美國公民和用於完全自主武器系統。不過,五角大樓認為那些限制沒必要。
軍方亦日益關注Anthropic不支持美軍的問題,稱Anthropic對美軍1月初擄走委內瑞拉總統馬杜羅的行動中,通過其生意伙伴、AI軍事企業Palantir使用Claude(有報道指涉及實時數據分析及輔助行動決策)提出過憂慮。
然而軍方同時不想失去Claude。一名國防部官員告訴Axios,國防部因為需要Claude,才續與Anthropic談判。
同業競爭劇烈 Anthropic放寬安全承諾
標榜人工智能(AI)研發會以安全為導向的美國AI初創公司Anthropic PBC周二(24日)宣布,面對同業強大競爭,放寬「會為潛在危險而暫緩開發」此一核心安全承諾。
過往標榜負責任應用AI 寧暫緩開發
Anthropic在網誌宣布更新安全政策,當公司認為不再大幅領先同儕,即使所研究中的AI項目潛在危險,亦不會再放慢開發步伐。Anthropic說:「儘管過去3年AI能力快速推進,政府在AI安全上的行動仍緩慢。政策環境已轉向AI競爭和經濟增長為優先,而以安全為導向的討論卻仍未能在聯邦層面取得有意義的進展。」
Anthropic正跟OpenAI、Alphabet的Google、馬斯克的xAI競逐AI主導地位。Anthropic公司自2021年由阿莫迪兄弟創立,一直標榜「負責任應用人工智能」,目標是避免AI技術造成災難。其2023年「負責任擴展政策」表明,若AI發展可能帶來危險,將暫緩開發。
AI發展一直使人擔心潛存偏頗、資訊誤導和造假,乃至人類存亡等風險。有「AI教父」之稱的AI先驅辛頓(Geoffrey Hinton)曾警告,如果AI缺乏適當護欄,AI的快速發展「可能很快就會超越人類智慧」,導致人類滅絕。
愛丁堡大學國際法教授布塔(Nehal Bhuta)便主張把AI納入國際法規管,尤其在研發和部署AI自主武器方面說:「如果主權國家採取未能確保人為判斷合法的不負責任做法,局勢升級和意外衝突風險可能很高。」
