OpenAI联合创始人兼总裁Greg Brockman,英伟达CEO黄仁勋,OpenAI CEO奥尔特曼英伟达千亿AI投资再度引起行业关注。9月23日消息,英伟达(NVIDIA,NASDAQ:NVDA)和OpenAI今晨宣布达成合作,为OpenAI的下一代AI基础架构部署至少10吉瓦的英伟达系统,用于训练和运行其下一代模型,从而实现超级AI部署。同时,英伟达计划在新系统部署期间向OpenAI投资高达1000亿美元(约合人民币7100亿元),第一阶段预计将于2026年下半年上线。根据协议,OpenAI还将与英伟达合作,成为其 AI 工厂增长计划的首选战略计算和网络合作伙伴。而且,OpenAI和英伟达将携手优化OpenAI模型和基础架构软件以及英伟达硬件和软件的路线图。据悉,英伟达和OpenAI将在未来几周内敲定新一轮战略合作的细节。“这是一个巨大的项目,”英伟达CEO黄仁勋周一对CNBC表示,10吉瓦相当于400万至500万张图形处理器(GPU)卡,约等于英伟达今年的出货总量,是去年的两倍。OpenAI联合创始人兼CEO奥尔特曼(Sam Altman)表示:“一切始于计算。计算基础设施将成为未来经济的基础,我们将利用与英伟达合作构建的基础设施,创造新的AI突破,并大规模赋能个人和企业。”受此消息影响,9月22日美股,英伟达股价一度涨超4%。截至美股收盘,英伟达收涨逾3.9%,创下历史新高,总市值达4.46万亿美元。同时,该消息也刺激整个美股上涨。周一,费城半导体指数收涨将近1.6%;标普500指数收涨29.39点,涨幅0.44%,报6693.75点,今年第28次创下新高;道琼斯工业平均指数收涨66.27点,涨幅0.14%,报46381.54点,继续创收盘历史新高。获超万亿支持,OpenAI走向“算力帝国”这项1000亿美元的投资合作将分阶段实施。根据新协议,一旦双方就OpenAI收购英伟达系统达成最终协议,英伟达将首先投资100亿美元。同时,第一阶段数据中心的能耗为1吉瓦,将于2026年下半年部署,投资将以当时的估值为准。后续资金则会随着GPU部署使用量的提升逐渐向OpenAI支付,确保投资与实际建设进度同步。而这一美国智能算力中心将采用英伟达最新的Vera Rubin平台,用于训练和运行OpenAI的下一代模型,最终目标是加速实现“超级智能”。今年8月,黄仁勋在财报电话会议上告诉投资者,建设1吉瓦容量的数据中心的成本在500亿至600亿美元之间,其中约350亿美元用于购买英伟达芯片和系统。以此计算,10吉瓦能给英伟达带来3000亿-4000亿美元的收入。事实上,在此之前,OpenAI短短一周内还拿下甲骨文、微软、博通等超过万亿元的投资合作。9月10日,甲骨文股价单日暴涨36%,创下32年来最大单日涨幅,主要由于OpenAI和甲骨文签署的一项5年3000亿美元(约合人民币2.1万亿元)的“天价”云服务合同。9月11日,微软与OpenAI悄然签署了一份非约束性谅解备忘录,为后者的公司重组开绿灯,同时重申了二者的云服务“独占”模式的结束,也意味着微软将持续推进OpenAI应对昂贵的算力成本。据报道,OpenAI还与博通合作自研ASIC芯片项目,预计将于明年投产,届时将提供模型推理层面应用。加上此次英伟达1000亿美元的投资,OpenAI正在走向万亿“算力帝国”。早在2022年ChatGPT横空出世后,微软迅速跟进,在2023年将算力和现金的总投资追加至130亿美元。微软为OpenAI提供了强大的算力支持,OpenAI在AI技术上突飞猛进,而OpenAI又被微软纳入各项云服务产品中,可以直接调用。如今,ChatGPT每周大约有7亿人使用,其运行和开发需要极为庞大的算力。而在昨天,奥尔特曼透露,未来几周将推出一些新的“算力密集型”产品。英伟达投资之前,OpenAI在最近的第二轮融资中被软银、微软等多家机构投资百亿美元,公司估值高达5000亿美元。另据The Information报道 ,OpenAI预计2029将耗资1150亿美元,这一数字比该公司之前的估计高出约800亿美元。这一增长中,对自有数据中心服务器芯片和设施的投资将是其现金消耗的主要原因。奥尔特曼表示,英伟达和微软成为“被动”投资者和该公司“最重要的合作伙伴”。“在接下来的几个月里,你应该对我们抱有很大的期望,”奥尔特曼表示,“OpenAI必须做好三件事:我们必须进行出色的AI研究,我们必须制造出人们想要使用的产品,我们必须弄清楚如何应对这一前所未有的基础设施挑战。”黄仁勋表示,英伟达的投资是“对已宣布和签约的所有事项的补充”。“从第一台DGX超级计算机到ChatGPT的突破,英伟达和 OpenAI 十年来一直相互推动。此次投资和基础设施合作标志着我们迈出了新的一步——部署10吉瓦电力,为下一个智能时代提供动力。”黄仁勋称。对此,伯恩斯坦分析师Stacy Rasgon表示,“一方面,这有助于OpenAI实现计算基础设施方面的一些宏伟目标,也有助于英伟达确保这些目标得以实现。另一方面,过去人们就曾提出过‘循环’(circular)问题,而此次投资将进一步加剧这种担忧。”但Requisite Capital Management执行合伙人Bryn Talkington认为,这笔交易意味着,英伟达向OpenAI投资了1000亿美元,OpenAI随后又把这笔钱返还给了英伟达。“我觉得这对黄仁勋来说非常有利。”“这笔交易可能会改变英伟达和OpenAI的发展, OpenAI在软件方面的领先地位巩固英伟达在芯片领域的垄断地位。这可能会使英伟达在芯片领域的竞争对手或OpenAI在模型领域的竞争对手更难扩大规模,”Doyle, Barlow & Mazard 律师事务所的反垄断律师Andre Barlow表示。据报道,OpenAI在2030年的研发投入(主要是算力成本)将接近总收入的50%,有望成为美国科技行业算力投入、研发投入最高的公司。DeepSeek V3.1模型采用国产算力,中美加速AI算力竞争此次OpenAI、英伟达的投资合作,恰逢DeepSeek-V3.1-Terminus 版本发布数小时之后。9月22日,DeepSeek宣布线上模型完成升级,当前版本号DeepSeek-V3.1-Terminus,包含思考模型和非思考模式两个版本,上下文长度均为128k,用户可以在线体验。据介绍,此次更新在保持模型原有能力的基础上,针对用户反馈的问题进行了改进。其中,deepseek-chat、deepseek-reasoner分别对应DeepSeek-V3.1-Terminus的非思考、思考模式。同时,3.1版本进一步优化了Code Agent与Search Agent的表现,非思考模型输出长度默认4K,最大8K,思考模型输出长度默认32K,最大64K。使用价格方面,DeepSeek-V3.1-Terminus模型百万tokens输入(缓存命中)0.5 元,缓存未命中则为4元,百万tokens输出价格达12元。而与此同时,9月19日,华为全联接大会2025期间,华为技术有限公司与浙江大学联合发布了国内首个基于升腾千卡算力平台的DeepSeek-R1-Safe基础大模型。据浙江大学计算机科学与技术学院院长、区块链与数据安全全国重点实验室常务副主任任奎介绍,在算力平台搭建方面,团队首次实现基于昇腾千卡算力平台的千亿级参数满血版大模型安全训练,系统性地解决了训练环境中的关键问题,构建了服务器间环境依赖同步、数据与权重共享、协同训练推理等一系列开发工具。目前,模型已在多个社区全面开源。任奎表示,测试结果表明,在MMLU、GSM8K、CEVAL等通用能力基准测试中,DeepSeek-R1-Safe相比于DeepSeek-R1的性能损耗在1%以内。更早之前,DeepSeek团队共同完成、梁文锋担任通讯作者的DeepSeek-R1推理模型研究论文,登上国际顶级期刊《Nature》(自然)杂志封面。文中指出, DeepSeek R1训练成本仅约29.4万美元(约合208万元)。目前几乎所有主流的大模型都还没有经过独立同行评审,这一空白“终于被DeepSeek打破”。评审该论文的Hugging Face机器学习工程师Lewis Tunstall表示,R1是首个经历同行评审的大型语言模型,这是一个非常值得欢迎的先例;俄亥俄州立大学人工智能研究员Huan Sun表示,DeepSeek自发布以来几乎影响了所有在大语言模型中使用强化学习的研究。事实上,随着DeepSeek热潮,引发中美AI算力争夺,而中国AI算力需求正以年均300%的惊人速度增长。IDC与浪潮日前发布的《2025年中国人工智能计算力发展评估报告》提出,DeepSeek通过其先进的算法优化和高效的模型性能,激发了新的应用场景的需求,显著拉动了数据中心、端侧及边缘计算的应用发展。全球计算联盟(GCC)秘书处CTO苗福友预测,未来两三年,国内AIDC建设将以每年40%以上的增速逐年增长,随后慢慢趋于平缓,预计到2030年前后,年增长率或可降至10%左右。据国家数据局报告显示,截至2024年底,中国算力总规模达280EFLOPS(每秒百亿亿次浮点运算),其中智能算力规模达90EFLOPS,占比32%。这相当于把全球80亿人同时变成超算,每秒每个人要完成超过3千万次计算,技术实力惊人。有机构预测,2025年中国智能算力规模预计增长超40%。国家数据局局长刘烈宏表示,中国算力排在全球第二,仅次于美国。目前,中国在用算力中心机架总规模超过830万标准机架,算力总规模达246EFLOPS(EFLOPS是指每秒进行百亿亿次浮点运算),位居世界前列;全国算力中心平均电能利用效率降至1.47,创建国家绿色数据中心246个;工业、教育、医疗、能源等多个领域算力应用超过1.3万个。不过,另据Epoch AI的分析,美国拥有全球四分之三的AI超级计算机算力,而全球其实只有12%的国家和地区拥有AI算力。因此,随着AI算力基础设施产业发展,全球对于包括GPU在内的AI算力需求不断增加。摩尔线程创始人兼CEO张建中近期表示,今天市场大概有超过700万张GPU计算卡的需求,来支撑每天输出的生成式AI和Agentic AI技术能力。而未来5年,AI算力需求仍将保持100倍增长。但以每一片晶圆大概产出20-30片有效算力计算,中国还有300万张GPU卡的产能缺口,产能还不太可能满足。张建中认为,从中短期来看,国内算力市场面临智能算力的短缺。据悉,截至2024年11月,全球已投运的智算中心项目近150个,在建和规划建设的智算中心近100个,但据浪潮人工智能研究院测算,中国智算中心平均算力利用率仅为30%。中信建投研报称,华为最新公布一系列即将上市和规划中的新品,如昇腾950PR/昇腾950DT、昇腾960和昇腾970三个系列产品,分别将于2026年第一季度和2026年第四季度,以及2027年第四季度、2028年第四季度上市,同时,华为发布Atlas 950超节点,支持8192张基于Ascend 950DT的昇腾卡,柜间采用全光互联,总算力大幅度提升,上市时间是2026年第四季度。因此,预计9月—10月我们将可能看到国内AI算力需求回暖,此外对于国内云服务厂商也建议重视。“我们可以想象一下,今天中国所有的晶圆制造工厂加在一起的产能都不到需求量的1/10。所以,如果国产GPU要发展,对于半导体生产制造来讲,我鼓励也呼吁整个产业界尽快转向先进技术,尽快让自己的工厂和所有的产品能够具备生产及评估的能力。”张建中提到,当前国产GPU芯片的制造端困境主要有三方面——国际高端芯片禁运、高端HBM存储限售、先进工艺制程限制。据SEMI统计,预计到2030年,在AI、物联网、机器人等技术助推下,全球芯片产业规模将超过1万亿美元。其中,中国AI芯片市场规模可能超过1.3万亿元,届时中国AI产业及相关行业价值高达10万亿元人民币。(本文首发于钛媒体App,作者|林志佳,编辑|盖虹达)更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App