
【编者按】在人工智能与军事应用日益交织的今天,科技企业的抉择往往牵动着国际局势的神经。Anthropic公司近日陷入了一场地缘政治与商业伦理的漩涡:一边是美国政府矛盾重重的政策限制,要求其逐步终止与国防部的合作;另一边却是其AI系统正实时参与美军对伊朗的空袭目标决策。这种“官方切割”与“实战应用”并存的荒诞局面,折射出人工智能军事化进程中监管的滞后性与复杂性。更值得深思的是,当众多国防承包商已开始紧急替换其系统时,这套技术却在战场前线持续运转。这不仅是商业与政治的角力,更预示着AI技术伦理将面临前所未有的拷问——当算法掌握生死决策权时,我们究竟该如何划定技术的红线?
Anthropic公司与美国国防部的纠纷余波,让这家公司陷入了尴尬境地——它既被积极运用于美伊持续冲突中,又正与众多国防工业客户脱钩。
部分混乱源于美国政府重叠且矛盾的限制措施。特朗普总统已指示文职机构停用Anthropic产品,但该公司获得了六个月时间逐步结束与国防部的合作。次日,美以两国对德黑兰发动突袭,在特朗普指令尚未完全执行前便进入了持续冲突状态。
结果是,当美国持续对伊朗进行空袭时,Anthropic模型正被用于多项目标决策。尽管国防部长皮特·赫格塞斯承诺将把该公司列为供应链风险,但目前尚未采取正式措施,因此使用该系统不存在法律障碍。
《华盛顿邮报》周三的文章披露了Anthropic系统如何与Palantir的Maven系统协同使用的新细节。据该报报道,五角大楼官员策划空袭时,这些系统“提出了数百个攻击目标,发布精确坐标,并按重要性对目标进行优先级排序”。文章将该系统的功能描述为“实时目标锁定与优先级判定”。
与此同时,许多国防相关企业已用竞争对手产品替换了Anthropic模型。路透社报道称,洛克希德·马丁等国防承包商本周已开始更换该公司的模型。许多分包商也陷入类似困境:J2 Ventures管理合伙人向CNBC透露,其投资组合中10家公司“已停止在国防用例中使用Claude,并正在积极寻找替代服务”。
目前最大的悬念是赫格塞斯是否会落实供应链风险认定,这可能引发激烈的法律诉讼。但在此期间,这家领先的AI实验室正迅速被排除在军事技术体系之外——尽管它正在活跃的战区被使用。
本文由万更网原创发布,未经许可,不得转载!
本文链接:https://m.fdsil.com/b/124169.html




