OpenAI员工力挺Anthropic,Sam Altman紧急介入缓和与五角大楼紧张关系

【编者按】在人工智能技术突飞猛进的今天,科技巨头与政府机构的合作日益紧密,但随之而来的伦理边界问题也愈发尖锐。近日,OpenAI与Anthropic两大AI领军企业,因美国国防部的合作条款陷入舆论漩涡。一边是国家安全与军事现代化的迫切需求,另一边是企业坚守的“不作恶”底线——禁止将AI用于大规模监控或自主致命武器。这场博弈不仅是商业合约的拉扯,更是关乎人类未来技术应用方向的深刻抉择。当硅谷的理想主义碰上五角大楼的现实主义,我们看到的不仅是一场商业谈判,更是一次关于技术伦理的集体反思。以下是事件详情:OpenAI首席执行官萨姆·阿尔特曼周四晚间向员工表示,他希望公司能“尝试帮助缓和”竞争对手Anthropic与美国国防部之间的紧张局势。阿尔特曼在一份被CNBC查阅的备忘录中写道:“我们长期认为,人工智能不应被用于大规模监控或自主致命武器,高风险自动化决策必须保持人类参与。这些是我们的核心底线。”Anthropic必须在美东时间周五下午5:01前决定,是否同意国防部无限制地在其所有合法用例中使用其人工智能模型。这家初创企业要求获得技术不会被用于全自主武器或针对美国人的国内大规模监控的保证,但国防部至今未作让步。阿尔特曼周四的内部信函旨在表明OpenAI与Anthropic持有相同的边界。《华尔街日报》最先报道了这份备忘录。在阿尔特曼发布备忘录前,OpenAI员工已开始在社交媒体上发声支持Anthropic。约70名现任员工签署了题为《我们不会被分裂》的公开信,据其网站表述,这封信旨在面对国防部压力时建立“共同理解与团结”。“尽管我与Anthropic存在诸多分歧,但我基本信任这家公司,认为他们真正关心安全问题,”阿尔特曼周五接受CNBC采访时表示,“我很高兴他们一直在支持我们的作战人员,但不确定事态将如何发展。”OpenAI去年获得了国防部2亿美元的合同,允许该机构在非机密用例中开始使用其模型。而Anthropic是首个将模型集成到机密网络任务工作流程中的AI实验室。阿尔特曼表示,他将探讨OpenAI能否与国防部达成协议,以“符合我们原则”的方式在机密环境中部署模型。他称公司将建立技术保障措施并部署人员“确保一切正常运作”。“我们将要求合同涵盖所有用途,除了非法或不适合云端部署的用途,例如国内监控和自主进攻性武器,”阿尔特曼写道。阿尔特曼透露,OpenAI近日已就该议题举行多次会议,公司尚未就行动方案作出决定。他表示周五还将与OpenAI安全团队进行更多磋商。“在这种情况下,重要的是我们要做正确的事,而不是看似强硬却虚伪的简单选择,”阿尔特曼写道,“但我意识到短期内这可能让我们‘看起来不够好’,其中存在大量细微差别和背景因素。”

本文由极观网原创发布,未经许可,不得转载!
本文链接:http://huioj.com/pp/14629.html

联系我们

在线咨询:

邮件:sooting2000@qq.com