OpenAI的国防合同:70万用户用脚投票,内部先炸了

Wait 5 sec.

文 | 舒书2026年3月,OpenAI接连放出两大重磅动作,本想为IPO之路筑牢筹码,却瞬间引爆舆论与内部危机:一边牵手亚马逊AWS,拿下面向美国政府乃至国防部的AI服务合约;一边抛出激进扩员计划,年底前要将员工规模从4500人猛增至8000人,相当于日均招录12人。消息官宣当天,市场给出了最直白的回应——ChatGPT用户删除率飙升295%,超70万订阅用户果断取消服务,用实际行动完成了一场用脚投票。可用户流失还只是表层麻烦,真正击穿OpenAI防线的,是自己人也开始集体投票。一场围绕伦理红线、企业使命的撕裂,正在这家AI巨头内部彻底爆发。一、一份合同,两条红线:两家巨头的截然选择这场风波的导火索,要追溯到2026年2月的国防部招标。彼时美国国防部率先找上OpenAI的头号竞争对手Anthropic,寻求AI技术合作。谈判桌上,Anthropic寸步不让,直接划出两道不可逾越的伦理红线,并要求白纸黑字写入合同:第一,技术严禁用于针对美国公民的大规模国内监控;第二,技术不得应用于完全自主的致命武器系统。国防部的回应同样强硬:只接受所有合法用途的无限制访问,绝不接受任何附加的伦理限制。2月26日,国防部直接下达24小时最后通牒,逼Anthropic妥协。面对军方施压,Anthropic选择坚守底线,拒绝让步。短短几小时后,Anthropic就被贴上国家安全供应链风险标签,所有军方合作承包商一律禁止使用其产品,不仅丢了国防大单,更被彻底踢出美国国防生态圈。而就在Anthropic被断粮的窗口期,OpenAI火速接盘,与国防部顺利签约。对比Anthropic的刚性条款,OpenAI的合作条件宽松得多:名义上接受所有合法用途,仅通过合同约定和技术手段嵌入模糊的安全原则,承诺禁止大规模国内监控、保障武力使用的人类责任。这一瞬间,两家AI巨头彻底走向分水岭:一个为坚守伦理红线舍弃巨额订单,一个为拿下国防合约弱化底线约束。但代价,才刚刚开始。二、内部炸锅:高管离职、创始人流失,理想主义彻底崩塌国防合约官宣后,OpenAI内部第一时间响起反声,首位站出来决裂的是Caitlin Kalinowski——OpenAI机器人业务负责人,拥有苹果、Meta资深从业背景的核心高管,,AI安全领域的标志性人物。她在辞职信中直言不讳:“这是原则问题,无关个人恩怨。这份合约在技术安全护栏尚未明确界定的情况下,被仓促官宣。”她坚守的底线,和Anthropic完全一致:缺乏司法监督的国内监视、未经人类授权的自主致命武器系统,绝不是可以妥协的细节,而是科技企业不可触碰的底线。Kalinowski绝非个例,而是OpenAI核心团队流失的缩影。在此之前,公司安全体系已经历两次毁灭性调整:2024年,肩负AI安全管控重任的超级对齐团队解散;2026年2月,负责使命把控的使命协调团队解散。两次调整均伴随核心安全人员大批量出走,原本独立的安全职能被打散、嵌入各产品线,意味着OpenAI再也没有一个专门说不的独立部门,安全约束彻底沦为附庸。更刺眼的是创始团队的流失:11位联合创始人,如今仅剩奥特曼和布罗克曼两人,Ilya Sutskever、John Schulman、Mira Murati等AI领域顶尖大牛,悉数出现在离职名单中。公开数据显示,过去一年,超50名资深研究员集体跳槽至Meta、Anthropic等竞品公司。内部矛盾也摆上了台面,员工公开信大范围流出,集体要求公司拒绝将AI用于大规模监视和自主致命武器研发。面对舆论和内部压力,奥特曼公开道歉,承认这份短期合约对公司品牌造成了极其负面的影响,但依旧坚持核心立场:AI能否用于国防领域,应由民选政府决定,而非企业高管。他随后承诺修改合约,追加禁止对美国国民国内监视的条款,可对于已经离开的核心人才、仍在犹豫的在职员工,这份迟来的承诺早已无力挽回人心。三、战略急转弯:从造福人类到服务国防,IPO野心驱动一切看懂OpenAI的冒险抉择,必须拆解其背后的战略野心。2025年12月,奥特曼内部发布红色代码,定下核心基调:全速冲刺、聚焦核心,暂停所有非核心项目,资源全面向产品开发和商业销售倾斜。2026年,OpenAI的目标清晰且激进:启动IPO,冲刺5000亿美元估值;企业客户收入占比从40%提升至50%。而拿下美国国防部合约,正是这盘资本大棋的关键一步——政府订单不仅是稳定的收入来源,更是顶级的信任背书,在企业客户眼中,被政府选用就是技术实力与合规性的最佳证明。至此,OpenAI完成了彻底的战略转向:从一家以科研为核心、靠API接口盈利的技术公司,急速转型为深度嵌入美国国防与行政体系、以政府和企业大客户为核心的规模化商业服务商。可战略转向的速度太快,组织根基根本来不及跟上,一场结构性危机已然埋下。四、组织承压:能力缺口难补,文化冲突致命要支撑全新的国防+政企战略,OpenAI必须快速补齐三大核心能力,可每一项都面临巨大缺口:1. 合规与安全能力:底子空虚,人才断层国防部合作要求严苛:模型必须部署至机密网络、员工需通过涉密安全许可、数据全程隔离运行,这需要具备FedRAMP、IL级别涉密合规经验的专业团队。但OpenAI安全团队刚经历两次解散,核心安全人才流失殆尽,安全管控体系形同虚设。2. 政府事务能力:从零起步,借道求生政府采购流程繁琐、决策周期漫长、问责机制复杂,必须组建专门的联邦业务团队,精通政府运作逻辑。OpenAI只能选择与AWS合作,借道政府云服务渠道曲线入局,自身政企服务能力几乎为零。3. 定制化交付能力:岗位新设,尚未验证政企客户需要的不是简单的API调用,而是全套解决方案、落地培训、长期运维支持。为此OpenAI新设技术大使岗位,意图让员工嵌入客户内部,对接需求、推动产品优化,但这套模式尚未经过市场验证,大概率只是高级客服的换皮操作。为填补能力缺口,OpenAI祭出激进扩员计划,但岗位分布早已暴露重心转移:工程类占比40%-50%、产品类20%-30%、销售类15%-20%、研究类仅10%-15%,彻底从科研驱动转向客户落地驱动。比能力缺口更致命的是文化冲突。OpenAI早期员工,大多是被造福全人类的理想使命吸引,安全团队成员把自己当成AI野蛮生长的刹车,研究员的动力源于探索未知的热爱,而非满足商业客户需求。如今刹车失效、科研让位于销售、使命从普惠人类变成服务国防,这种价值观的撕裂,根本无法靠扩招新人化解。从四维视角看OpenAI目前的一致性状态(见图):核心判断:整体处于中度风险,其中人才与文化的冲突最为致命,高管离职、用户抵制、员工抗议、安全团队解散,都是这场文化撕裂的显性信号。四维分析五、竞争围剿:对手趁乱挖角,市场份额被蚕食OpenAI的内部动荡,早已被竞争对手牢牢抓住,一场全方位的围剿正在展开。Anthropic虽丢掉国防合同,却凭借伦理坚守赢得企业客户青睐:首次采购AI产品的企业客户中,选择Anthropic的比例是OpenAI的三倍,旗下Claude Code编程工具每周贡献10亿美元年化收入,坚守红线并未断送商业前途,反而走出差异化路线。谷歌开启春季大规模招聘,全球揽才;DeepMind公开挖角阿里通义千问核心成员;xAI则从Cursor挖走两位产品工程负责人,重新招募此前被拒的优质人才,还引入华尔街金融人士强化Grok的金融场景能力。大批从OpenAI流失的顶尖人才,纷纷流向这些竞品,进一步加剧OpenAI的人才危机和组织压力。六、生死观测:三个信号,决定OpenAI能否过关OpenAI的战略已然敲定:冲刺政企市场、做大规模、完成IPO。但组织能否跟上战略,全看接下来三个关键信号:信号一:是否设立独立联邦业务部若政企业务与商业业务彻底拆分,说明公司正视合规与文化冲突;若继续混为一谈,内部摩擦只会持续升级。信号二:核心研究人才是否继续流失未来6个月,若安全、对齐领域的研究员仍大批量出走,证明文化冲突未得到任何缓解,Kalinowski绝不会是最后一个离职的高管。信号三:技术大使能否跑通闭环若该岗位能真正实现客户需求-研发优化的闭环,证明组织具备支撑客户落地的能力;若只是高级客服,说明组织能力完全跟不上战略。结语OpenAI正在经历一场关乎生死的组织大考。这场考试考的不是顶尖技术,不是融资手腕,而是一个残酷的现实:当企业使命从造福人类转向服务国防,那些当初被理想吸引而来的人才,还愿不愿意留下来并肩作战。11位创始人走了9个,安全团队两度解散,70万用户用脚投票,这些都是考卷上刺眼的红叉。奥特曼认为,AI国防应用的决定权在政府;而员工坚信,科技企业必须守住伦理红线。两种声音没有绝对的对错,但OpenAI的赌局早已注定:战略可以快速敲定,但人心的凝聚、文化的重塑,才是决定这家AI巨头能否活下去的关键——而这两个字,恰恰是OpenAI目前最缺的。(本文基于公开信息分析,部分岗位职责、部门分布为合理推测,非官方确认。)更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App