报道:AI军事用途存分歧,美国国防部接近与Anthropic切断关系
摘要:报道称,双方关系破裂源于数月来围绕美国军方如何使用Claude工具的激烈谈判。Anthropic特别希望确保其人工智能不会被用于大规模监控公民,或用于开发无需人类参与即可部署的武器。美国政府方面则希望能够将Claude用于“所有合法用途”。
据Axios报道,美国五角大楼正接近与Anthropic断绝关系,并可能将Anthropic公司列为“供应链风险”,原因是其对如何使用该技术的限制让五角大楼感到不满。
报道称,双方关系破裂源于数月来围绕美国军方如何使用Claude工具的激烈谈判。Anthropic特别希望确保其人工智能不会被用于大规模监控公民,或用于开发无需人类参与即可部署的武器。美国政府方面则希望能够将Claude用于“所有合法用途”。
报道称,如果Anthropic被认定为供应链风险,那么任何想与军方开展业务的公司都必须切断与Anthropic的关系。
Anthropic发言人向Axios表示,公司正与五角大楼进行“富有成效且本着诚信的对话”,并称公司致力于将人工智能用于国家安全。
去年,Anthropic与五角大楼签署了一项为期两年的协议,涉及其人工智能Claude Gov模型原型和Claude for Enterprise。围绕Anthropic的谈判可能会为与OpenAI、Google和xAI的谈判定下基调,这些公司目前尚未被用于机密工作。
Anthropic由前OpenAI研究人员创立,将自己定位为一家更负责任的人工智能公司,旨在避免先进技术带来的任何灾难性危害。
风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
收藏 分享
0条评论
