近日,美以联手空袭伊朗。
据报道,在此次行动中,美国和以色列首次投入了黑色“战斧”巡航导弹、“卢卡斯”自杀无人机和新一代“精确打击导弹”等众多新型武器。
从情报分析到目标识别,从自主无人机到“会思考”的导弹,甚至能精准预言袭击日期,算法正在决定生死,AI已深度介入现代战争。
美以投下炸弹的同时,也投下了一个疑问:当95%的AI兵棋推演指向核升级,当AI系统开始深度影响谁是敌人、何时开战的决定,人类还剩多少掌控权?
联合国秘书长古特雷斯此前就表示,生与死的决定不应该委托给冰冷的算法。一些国际组织则提出,AI需要新的法律工具,确保人为控制和问责是至关重要的。
美以对伊空袭
AI投入战场
据央视援引《华尔街日报》报道,在中东地区冲突中,美国中央司令部使用了人工智能(AI)科技公司Anthropic的大模型克劳德(Claude),用于关键作战场景支持。这些“关键场景”令人咋舌:情报评估、目标识别和模拟战斗场景。据称,“克劳德”在行动中扮演的角色并非直接操控武器,而是处理海量的非结构化战争数据。
针对伊朗最高领袖哈梅内伊的致命打击,《纽约时报》援引熟悉此次行动的人士称,美国中情局数月来一直在追踪哈梅内伊的行踪,对其所在地和活动规律掌握得越来越有把握。美军在2026年初针对马杜罗的行动中,就首次大规模使用了“克劳德”进行“情报合成”。
美国中央司令部的LUCAS无人机。图片来源:环球网
美军在此次行动中首次投入了黑色“战斧”巡航导弹、“卢卡斯”(LUCAS)自杀无人机和新一代“精确打击导弹”(PrSM)。“卢卡斯”是由AI控制的自杀式无人机,由伊朗的沙赫德-136仿制而来,旨在为美军提供一款“比导弹便宜得多的超视距武器”。“卢卡斯”生产成本约3.5万美元,远低于造价动辄几百万乃至上千万美元的高端无人机,其最大航程超700公里,最长续航6小时,有效载荷18公斤。
以色列也不例外。在袭击伊朗的过程中,以色列使用了“破冰者”导弹。该型导弹融合了人工智能算法,具备了大场景匹配和分析判断能力,可以在一定程度上“像人那样思考”,确定飞行“路径”、辨别真假目标,与其他导弹“沟通交流”。
值得注意的是,在局势升级前夕,以色列《耶路撒冷邮报》向多款热门大语言模型询问可能对伊朗发动袭击的日期。Claude给出了3月7日至8日的预测。“双子座”(Gemini)模型没有立即回应,但随后给出了3月4日至6日的预测。ChatGPT先是指出3月1日存在袭击威胁,紧张局势将持续一周,随后又将“窗口期”缩至3月3日夜间至4日凌晨。埃隆·马斯克的聊天机器人“格罗克”(Grok)最接近真实情况,它曾两次给出了2月28日这个日期。
以军发射“破冰者”导弹。图片来源:央视新闻
因拒做“战争帮凶”
AI企业此前遭美国封杀
在对伊朗发动袭击的前几天,Anthropic首席执行官达里奥·阿莫代伊表示,公司在AI的使用方面有自己的“红线”。特别是信息技术专家强烈反对将AI整合到致命武器中,但允许将其应用于其他国防领域。
而Anthropic与美国政府闹翻的导火索,是此前美军袭击委内瑞拉的行动。当时Anthropic就提出异议,认为提供Claude的条款是不允许将其使用于暴力目的、武器研发和监视用途。
此后该公司与特朗普政府的关系持续恶化,双方围绕安全问题进行多轮谈判后,美国防部向Anthropic下达“最后通牒”:Anthropic必须在2月27日前签署协议,授予军方完全访问权限,否则将面临合同终止及被列入“供应链风险名单”的风险。
2月26日,Anthropic的首席执行官达里奥在公开声明中明确拒绝了国防部的要求,公司无法“违背良知”达成协议。
2月27日,美国国防部长赫格塞思在社交媒体上发长文,指责Anthropic“傲慢自大、背信弃义”,并称“美国的战士绝不会被大型科技公司的意识形态攫取”。
同一天,就在美以空袭伊朗几小时前,美国总统特朗普宣布全面封杀Anthropic,要求联邦政府所有机构在六个月内完成过渡退出。他还在自创的社交媒体平台“真实社交”上称该公司为“一家激进左翼的人工智能公司,其运营人员对真实世界一无所知”。
AI成“隐形指挥官”
人类最后底线守得住吗?
越来越多迹象表明,AI技术正在深度介入中东局势。从情报判断到末端打击,AI正在渗透战争的每一个毛孔。网上甚至有文章称,Claude和Palantir成了战争终结者。更夸张的说法是,最高领袖哈梅内伊死于一行行代码。
中关村信息消费联盟理事长项立刚表示,真正值得警惕的是,未来战争的底层逻辑,正在发生改变。从俄乌冲突,到印巴空战,从加沙到波斯湾,AI已深度介入现代战争。
具有讽刺意味的是,即便是定下条款、限制美国军方访问的权限,美国政府在2个月的时间内,依然通过Claude完成了两项侵犯其他主权国家的军事行动。看似坚守底线的说辞,在美国政府的强盗作风面前,显得不堪一击。美国科技公司在向美军方推销产品时,既要提高五角大楼的效率,又不能让人工智能杀人的说辞,更像是给自己的一种心理安慰。
据澎湃新闻报道,在伦敦国王学院一项应用AI大语言模型的兵棋推演实验中,95%的对局最终走向了战术核武器的部署,86%的冲突中发生了意外升级。其原因在于技术故障或沟通失误,使得AI模型驱动的行动超出了预期。AI不懂恐惧,这让核武器退化成一个普通的博弈筹码。
这种担忧早已超出实验室,引发各国政府对AI军事应用风险的关注。联合国大会2025年6月发布的报告显示,各国强调了军事领域与AI有关的关切,包括“观察-判断-决策-行动”环加速,因此可用于决策的时间缩短;自主能力不断提升,失去人类控制,尤其是在使用武力的情况下;可能被误用或恶意使用等。
更深层次的担忧在于,当AI系统开始深度影响谁是敌人、何时开战的决定,人类还能守住那条最后的底线吗?
联合国秘书长古特雷斯此前就表示,生与死的决定不应该委托给冰冷的算法。
欧洲和美国防务官员表示,没有其他国家像以色列这样在实时战斗中大规模试验AI工具,这也预示了未来战争中类似技术的使用方式及潜在风险。不少科技人士提醒“算法战争”的内在风险,尤其是模型幻觉或偏见问题。有专家指出,“如果系统在提供信息时加入自身偏见,就会引发信息可靠性的疑问。”
一些国际组织认为,AI需要新的法律工具,他们指出,随着AI武器系统变得更先进,确保人为控制和问责是至关重要的。
综合来源:央视新闻、新华社、环球网、澎湃新闻、红星新闻、参考消息、中新网等
上游新闻综合 编辑 杨雁琳
编辑:杨雁琳 责编:吴光亮 审核:张松涛
【免责声明】上游新闻客户端未标有“来源:上游新闻”或“上游新闻LOGO、水印的文字、图片、音频、视频”等稿件均为转载稿。如转载稿涉及版权等问题,请 联系上游 。 举报