拥抱美国军方后,ChatGPT 为什么会被卸载?

Wait 5 sec.

3月初,一起极具戏剧性的商业决策,将 AI 行业的伦理分歧摆上了台面。在竞争对手 Anthropic 因拒绝放宽军事应用红线,被美国政府下令停用并贴上“供应链风险”标签仅数小时后,OpenAI 宣布与五角大楼(国防部)达成合作,将其大模型接入军方网络。这一举动在用户端引发了直观的连锁反应。社交网络上“取消 ChatGPT 订阅”的声量上涨,而坚守底线受挫的 Anthropic 却在消费市场获得了更多的下载与关注。这场风波反映出,当 AI 技术切实深入国防采购体系时,用户对企业的信任基础正在发生微妙的转移。OpenAI 与五角大楼的合作,核心争议在于 AI 技术的军事化边界。面对外部质疑,OpenAI CEO 萨姆·奥特曼在声明中强调,合作仍保留了“禁止用于国内大规模监控”和“禁止直接控制全自动武器系统”的条款。他指出,OpenAI 将通过“安全栈(Safety Stack)”和纯云端部署,试图在技术层面规避 AI 直接参与攻击的可能。但这种技术辩护面临着严密的审视。 合同中“用于所有合法目的”的宽泛表述,被部分业内人士认为缺乏实质约束力。前 OpenAI 地缘政治团队负责人 Sarah Shoker 指出,自 2021 年以来,头部 AI 公司的军事政策语言一直在趋向模糊化,以保留合作的灵活性。当服务对象变为军方时,书面的合规边界在实际落地中往往难以被精准界定。外部争议之外,硅谷从业者内部的意见分化也在加剧。在这份合同宣布前,超过 550 名来自 Google 和 OpenAI 的员工联合签署了公开信,明确声援 Anthropic 的立场,呼吁行业警惕“无限制军事用途”的风险。Anthropic 的遭遇,构成了这次事件的另一面。这家由前 OpenAI 核心团队出走创立的公司,选择放弃庞大的国防合同,并在监控与武器自动化等议题上拒绝让步。这种明确的底线设定,让其产品 Claude 在部分消费者眼中建立了更高的信任度,也让 OpenAI 长期塑造的“负责任 AI”形象面临更为严苛的公众考量。对 OpenAI 而言,拓展政府军工订单是商业化层面的理性选择。在算力成本高昂、C端增长面临挑战的当下,国防预算意味着稳定的资金流与算力支撑。但 AI 赛道的切换成本极低。 用户从卸载 ChatGPT 到安装替代品,几乎没有门槛。当 C 端消费者与全球政企客户对数据隐私和中立性敏感时,OpenAI 目前的品牌架构正面临挑战。它并未将“大众应用”与“军方合作”进行明确的物理与品牌隔离。这种重合的身份,不仅可能引发消费者的抵触情绪,也会实质性增加其在欧洲及其他非美市场的合规成本,并提高获取当地政企客户信任的难度。2026年3月的这场风波表明,大模型赛道的竞争维度正在延伸。随着技术能力的跃升,头部企业必然会进入更复杂的政商协作网络。Anthropic 选择了通过商业让步来维持伦理边界的清晰,而 OpenAI 则尝试在国防大单与公众形象之间寻找平衡。这场信任危机提示整个行业:技术优势固然重要,但公众对品牌伦理底线的认知,同样是维持长期商业竞争力的关键变量。(本文首发钛媒体App , 作者|硅谷Tech news,编辑|秦聪慧) 更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App