美國防官員透露:AI已用於軍事打擊決策

由 DeepTech深科技 發佈於 科技

'26-03-13

(來源:麻省理工科技評論)


據一位知情的國防部官員透露,美國軍方可能正在使用生成式 AI 系統對打擊目標列表進行排序,並就優先打擊對象作出建議,這些建議將經由人工審覈。此次披露發生之際,五角大樓正因一次對伊朗一所女子學校的打擊行動而承受外界的審視——該事件目前仍在調查之中,造成逾百名兒童死亡。


據這位要求以背景方式接受《麻省理工科技評論》採訪的官員介紹,可能的目標列表將被輸入五角大樓爲涉密環境部署的生成式 AI 系統,隨後由人工指示系統分析相關信息,並在綜合考量飛機當前位置等因素的基礎上,對目標進行優先級排序。最終,人工負責覈查和評估系統給出的結果與建議。從理論上說,OpenAI 的 ChatGPT 和 xAI 的 Grok 未來都可能被用於此類場景,兩家公司近期均已與五角大樓達成協議,允許其模型在涉密環境中使用。


這位官員將上述情況描述爲一種可能的運作方式示例,但不願證實或否認這是否代表 AI 系統當前的實際使用方式。


其他媒體此前已報道 Anthropic 的 Claude 被整合進現有軍事 AI 系統,並已在伊朗和委內瑞拉的行動中投入使用,而這位官員的表態則進一步揭示了聊天機器人可能扮演的具體角色,尤其是在加速目標搜索方面。相關表態也闡明瞭軍方部署兩種不同 AI 技術的方式,以及兩者各自的侷限性。


至少從 2017 年起,美國軍方便開始推進一項名爲 Maven 的“大數據”計劃。該計劃運用例如計算機視覺等更早期的 AI 技術對五角大樓採集的海量數據和圖像進行分析。以無人機航拍素材爲例,Maven 可通過算法從數千小時的畫面中自動識別目標。喬治城大學 2024 年發佈的一份報告顯示,士兵可利用該系統篩選和審覈目標,大幅縮短了目標審批所需的時間。士兵通過一套包含戰場地圖和儀表盤的界面與 Maven 交互,界面可能以不同顏色分別標註潛在目標與友方力量。


這位官員的表態表明,生成式 AI 正以對話式聊天機器人的形態被疊加其上,軍方可能借此在作出目標優先級等決策時,更快速地檢索和分析數據。


支撐 ChatGPT、Claude 和 Grok 的生成式 AI 系統,在技術上與驅動 Maven 的 AI 存在根本差異。生成式 AI 建立在大語言模型之上,經受實戰檢驗的程度遠不及前者。Maven 的交互界面要求用戶直接審視和解讀地圖數據,而生成式 AI 模型的輸出結果雖然更易獲取,卻更難覈實。


這位官員補充說,將生成式 AI 用於此類決策,壓縮了目標規劃流程所需的時間,但在被問及在要求人工花時間覈查模型輸出結果的前提下,究竟能加快多少時,他未予作答。


軍用 AI 系統的使用正面臨日益增強的公衆審視。近期對伊朗一所女子學校的打擊行動造成逾百名兒童死亡,多家媒體報道該導彈來自美國,但五角大樓表示事件仍在調查中。《華盛頓郵報》報道稱 Claude 和 Maven 均參與了伊朗的打擊目標決策,然而目前尚無證據說明生成式 AI 系統在其中究竟扮演了何種角色。《紐約時報》週三報道,初步調查發現,過時的目標數據是此次打擊的部分責任所在。


近幾個月來,五角大樓正在大力推進 AI 在各項行動中的應用。去年 12 月,通過一項名爲 GenAI.mil 的計劃,五角大樓已開始向數百萬軍事人員提供非涉密的生成式 AI 模型使用權限,用於分析合同、撰寫報告等任務。然而,獲得五角大樓批准用於涉密用途的生成式 AI 模型目前僅有少數幾個。


首個獲批的是 Anthropic 的 Claude。除在伊朗的使用外,據報道它還曾在今年 1 月協助捕獲委內瑞拉領導人尼古拉斯·馬杜羅(Nicolas Maduro)的行動中發揮作用。然而,在五角大樓與 Anthropic 就軍方能否不受限制地使用其 AI 產生分歧後,國防部將該公司列爲供應鏈風險,特朗普總統隨即在社交媒體上要求政府在六個月內停止使用其 AI 產品。Anthropic 目前正就這一定性提起訴訟。


OpenAI 於 2 月 28 日宣佈與軍方達成協議,允許其技術在涉密環境中使用。埃隆·馬斯克旗下的 xAI 也已與五角大樓簽署協議,允許其模型 Grok 用於涉密場景。OpenAI 表示,與五角大樓的協議附有限制條款,但這些限制在實踐中的效力尚不明朗。


原文鏈接:

https://www.technologyreview.com/2026/03/12/1134243/defense-official-military-use-ai-chatbots-targeting-decisions/

Scroll to Top