
【编者按】在人工智能技术飞速发展的今天,其应用边界与伦理准则成为全球关注的焦点。近日,OpenAI首席执行官山姆·阿尔特曼公开透露,公司正与美国国防部调整合作协议,明确禁止将AI技术用于战争情报领域。这一举动不仅折射出科技巨头在军事合作中的审慎姿态,更引发了关于“AI向善”与国家安全平衡的深层思考。当算法力量融入国防体系,如何在创新与约束间划清红线?OpenAI的“自我设限”能否成为行业范式?本文将解析合作细节,探讨技术伦理的未来走向。
3月2日:OpenAI首席执行官山姆·阿尔特曼周一表示,这家ChatGPT制造商正与美国国防部合作,对双方协议进行若干调整。
阿尔特曼在X平台发帖称:“我们已与战争部协作,在协议中增补条款,以明确我们的核心原则。”
阿尔特曼指出,新增条款之一规定五角大楼已确认,OpenAI服务不会被战争部情报机构(例如国家安全局)使用。若需向这些机构提供服务,必须对我们的合同进行后续修订。
上周,这家AI公司刚宣布了一项协议,将在国防部机密网络中部署其技术。





