杨植麟、张鹏、罗福莉等阔谈,OpenClaw正在重写AI产业逻辑

Wait 5 sec.

3月27日,中关村论坛大会期间,一场主题为OpenClaw与AI开源的圆桌人头攒动,主持人是月之暗面创始人杨植麟,嘉宾包括智谱华章CEO张鹏、无问芯穹联合创始人兼CEO夏立雪、小米MiMo大模型负责人罗福莉、香港大学助理教授黄超,各方针对时下热点和未来发展给出了自己的观点。过去两年,大模型的主线还是“更聪明地回答问题”,从 OpenClaw 爆火开始,行业的叙事已经悄然切换——AI不再只是对话者,而是开始成为“干活的人”。OpenClaw的意义,恰恰在于它像一个“脚手架”,把原本分散在模型、工具、算力之间的能力重新组织起来,让普通用户也能调用原本只属于工程师的复杂能力。从写代码、调接口,到执行长任务、自动调试,这种能力的下沉,本质上是在降低“创造力的门槛”。与此同时,它也放大了另一面:token消耗呈指数级增长,推理成本迅速抬升,基础设施开始承压,整个行业被迫进入“推理时代”的真实考验。也正因此,围绕OpenClaw展开的讨论,早已超出一个产品或框架本身。它牵动的是一整套新的问题:模型如何支撑长上下文与复杂规划?基础设施如何适配毫秒级调用与海量token?多Agent协作、记忆管理、工具生态如何形成闭环?以及最现实的——算力与成本,能否跟上这场爆发式需求。在这场对话中,产业链各方的参与者给出了各自的答案,也共同勾勒出一个清晰趋势:未来12个月,大模型竞争的核心,将从“谁更聪明”,转向“谁能让AI真正工作起来”。以下为对话实录,经编辑:OpenClaw带来的变革杨植麟:很荣幸今天能邀请到各位重磅嘉宾,覆盖了从模型层到底层算力层,再到上层Agent层的不同层面。今天最主要的关键词是开源和Agent。我们先从第一个问题开始——现在最流行的OpenClaw,大家日常使用OpenClaw或类似产品时,觉得最有想象力或印象深刻的是什么?从技术角度如何看待OpenClaw和相关Agent的演进?张鹏:我很早就开始玩OpenClaw,当时还不叫OpenClaw,最早叫Clawdbot。作为程序员出身,自己动手折腾这些东西有一些独特体验。OpenClaw最大的突破点在于,这件事不再是程序员或极客们的专利,普通人也可以方便地使用顶尖模型的能力,尤其是在编程和智能体方面。我更愿意把OpenClaw称作"脚手架"。它在模型基础之上搭起了一个牢固、方便又灵活的脚手架,大家可以按照自己的意愿使用底层模型提供的新奇能力。原来一些想法受限于不会写代码或其他技能,今天终于可以通过简单交流完成。这对我来说是一个非常大的冲击,让我重新认识了这件事。夏立雪:我最开始用OpenClaw时不太适应,因为习惯了跟大模型聊天的交流方式,感觉OpenClaw反应很慢。但后来我意识到,它和之前的聊天机器人有一个很大不同,它应该是一个能帮我完成大型任务的"人"。当我开始提交更复杂任务时,发现它能做得很好。这让我感触很深,模型从最初按token聊天,到现在能变成Agent、变成Claw帮你完成任务,对整个AI的想象力空间做了很大提升。但同时,它对系统能力的要求也变得很大,这也是为什么一开始会觉得有点卡。作为基础设施层厂商,我看到OpenClaw给整个系统和生态带来了更多的机遇和挑战。我们现有的资源想要支撑这样一个快速增长的时代是不够的。以我们公司为例,从一月底开始,基本上每两周token量翻一番,到现在翻了十倍。上次见到这个速度还是3G时代手机流量的感觉。现在的token用量就像当年每月一百兆手机流量的时代,所有资源需要进行更好地优化和整合,让每一个人都能把OpenClaw这样的AI能力用起来。作为基础设施玩家,我对这个时代是非常激动和感触的,认为这里边有很多的优化空间值得探索。罗福莉:我把OpenClaw当作框架的一个非常革命性和颠覆性的事件来看待。虽然身边进行深度coding的人第一选择还是Claude Code,但只有用过OpenClaw的人会独特地感受到这个框架在Agent框架设计上的领先性。最近Claude Code的很多更新其实都在向OpenClaw靠近。OpenClaw给我带来更多是想象力的随时随地扩展。Claude Code最开始只能在桌面上延展创意,但OpenClaw可以随时随地延展创意。OpenClaw的核心价值在于两点:第一是开源。开源是非常有利于整个社区深入参与、改进、投入一线框架的重要前置条件。像OpenClaw、Claude Code这样的Agent框架,把国内可能没有非常接近闭源模型、但水平仍在头部赛道上的模型上限拉到非常高。在绝大部分场景中,任务完成度已经非常接近最新模型,同时把下限保证得非常好,靠一套Harness系统或Skills体系等诸多设计,保证任务完成度和准确率。从基座大模型角度来说,OpenClaw保证了模型的下限,拉伸了它的上限。此外,大家发现原来在大模型之外,更重要的Agent层有非常多想象力和空间可以做。我看到最近社区有更多除了研究员以外的人参与到AGI变革中,更多人借助更强的Agent框架替代自己的工作,释放时间去做更有想象力的事情。黄超:从交互模式来讲,OpenClaw这次爆火的第一个原因,是给了大家一种更有"活人感"的感觉。我们做Agent也有一两年了,但之前像Cursor、Claude Code这些Agent给人更强的是工具感。OpenClaw第一次以IM软件嵌入的方式,让大家更有活跃感,更接近想象中个人贾维斯的概念。另一个启发是,它的架构——Agent loop这种非常简单但高效的框架再次被证明。这让我们重新思考,是否需要一个all-in-one非常强大的智能体帮我们做很多事情,还是需要一个像轻量级操作系统或脚手架一样的小管家?OpenClaw可以通过一个小的super system生态,让整个社区更有"玩起来"的心态,撬动整个生态里的所有工具。随着Skills或Harness等越来越多人设计更面向OpenClaw系统的应用,赋能各行各业。这与整个开源生态结合得非常紧密。这两点带给我们最大启发。OpenClaw改变了什么杨植麟:顺着OpenClaw的话题,想问张鹏,最近智谱发布了新的GLM-5 Turbo模型,对Agent能力做了很大增强。能否介绍一下这个新模型与其他模型的不同之处?我们也观察到有提价策略,这反映了什么市场信号?张鹏:这是个很好的问题。前两天我们确实紧急更新了一波,这在我们整个发展路标中是其中一个阶段,提前放出来。最主要目的还是要主打从原来简单的对话到干活。正如刚才各位讲的,OpenClaw真的让大家觉得大模型不再是简单聊天,真的能帮我干活。但"干活"背后隐含的能力需求非常高。它需要自己长程做任务规划、不断重试、压缩上下文、debug等,还可能涉及多模态信息处理。这对模型本身能力的要求与传统的面向对话的通用泛用模型不一样。GLM-5 Turbo在这方面做了专门加强,尤其是让它能7×24小时不停地loop。关于token消耗量,让聪明模型干复杂任务,token消耗量非常巨大。一般人可能体会不出来,只会看到账单上的钱不停往下掉。这方面我们也做了优化,面临复杂任务时用更高效的token效率完成。本质上模型架构还是多任务协同的通用架构,只是能力有偏向性加强。提价这事很好解释。我们现在不再是简单问一个问题他回答,背后思考链路很长。很多任务通过写代码方式与底层基础设施打交道,还要debug、随时改正错误,消耗量非常大。完成一个任务需要的token量可能是原来回答简单问题的十倍甚至百倍。所以价格上需要成本提高,模型变得更大,推理成本相应提高,我们把它回归到正常商业价值。长期靠低价竞争不利于整个行业发展,这让我们能在商业化路径上有良性闭环,持续优化模型能力。杨植麟:现在开源模型和推理算力开始形成生态,各种开源模型可以在各种推理算力上为用户提供更多价值。随着token量暴涨,逐渐从训练时代变成推理时代。想请教夏立雪,从infra层面,推理时代对无问意味着什么?夏立雪:我们是诞生在AI时代的基础设施厂商,现在和Kimi、DeepSeek等合作,也在跟小米MiMo合作,让大家能把token工厂更高效用起来。我们一直在思考,AI时代需要的基础设施会是什么样子?怎么一步步实现和推演?我们做好了充分准备,看到短期、中期、长期不同阶段需要解决的问题。当前的问题就是OpenClaw带起来的token暴增,对系统效率带来更大优化需求。价格增长也是需求下的一种解决方式。我们一直以来从软硬件打通方式布局解决,接入了几乎所有种类的计算芯片,把国内几十种芯片和几十个不同算力集群统一连接起来,解决算力资源紧缺问题。资源不足时,最好办法是,第一把能用资源都用起来,第二,让每个算力都用在刀刃上,让每个资源发挥最大转化效率价值。我们要打造更高效的token工厂,做了很多优化,让模型和硬件上各种显存、技术进行最优适配,也在看最新模型结构和硬件结构下能否进行更深层次化学反应。但解决当前效率问题只是打造了标准化token工厂,面向Agent时代还不够。Agent更像一个人,能交给他一个任务。当前很多云计算时代的基础是为服务程序、服务人类工程师设计的,而不是为AI设计的。有点像我们做了一个基础设施,上面接口是为人类工程师做的,再包一层接入Agent,这种方式用人的操作能力限制了Agent发挥空间。举例来说,Agent能做到秒到毫秒级别思考和发起任务,但之前底层K8s等能力没做好这个准备,因为人类大概发起任务是分钟级别的。我们需要进一步优化,打造更智慧化的调控工厂,这是无问芯穹正在做的事。从更长远的未来,真正AGI时代到来时,连基础设施都应该是智能体。我们打造的这套工厂本身应该是能自我进化、自我迭代的自主组织,相当于有个CEO,这个CEO是Agent,可能是CLaw在管理整个基础设施,根据AI客户需求自己提需求、迭代基础设施,这样AI和AI之间才能更好耦合。我们也在做让Agent和Agent之间更好通信等能力。我们一直思考基础设施和AI发展不应该是隔离状态,而应该产生丰富化学反应。这才是真正做到软硬协同、算法和基础设施协同,也是无问芯穹想实现的使命。杨植麟:接下来问问罗福莉。小米最近发布新模型、开源一些背后技术,对社区做出很大贡献。小米在大模型方面有什么独特优势?罗福莉:先抛开小米有什么独特优势,我更想谈中国做大模型的团队在大模型上的优势,这个话题更具广泛价值。大概两年前,我看到中国基座大模型团队已经开始非常好的突破。这个突破是,在有限算力下,尤其在NV-Link互联带宽受限的算力情况下,怎么突破低端算力限制,做一些看似为效率妥协的模型结构创新。像DeepSeek V2、V3系列、细粒度MoE和MLA等。但后面能看到,这些创新引发的是变革,在算力一定情况下,怎么发挥一定算力的最高智能水平。这是DeepSeek带给所有国内机构、大模型团队的一个勇气和信心。虽然今天国产芯片尤其是推理芯片和训练芯片不再受这个限制,但在这样的限制下催生了我们对更高训练效率、更低推理效率的模型结构全新探索。像最近的Hybrid Sparse Attention或Lite Attention架构,DeepSeek的DSA、Kimi也有 KSA,小米也有面向下一代的架构。这是区别于MoE这一代架构,面向AGI时代思考如何在Agent时代做更好模型架构构创新。为什么架构创新如此重要?大家真实去用OpenClaw会发现,越用越好用、越用越聪明的前提是推理的context。Context是我们谈论很久的话题,但现在真正发现有模型在long-context情况下表现非常好、性能强劲、推理成本低。很多模型不是做不到1M或10M context,而是推1M、10M成本太贵、速度太慢。怎么做到在1M或10M context情况下推理成本够低、速度够快,这样才会有真正高生产力价值的任务交给模型,从而激发在long-context情况下完成更高复杂度任务,才可能在10M甚至100M context情况下实现模型自迭代。所谓模型自迭代,就是它可以在复杂环境里依靠超长context完成自我进化。这个进化有可能是对Agent框架本身,也有可能是对模型参数本身。我们认为long-context本身就是对参数的进化。所以怎么实现long-context efficient架构,以及怎么在推理侧做到long-context efficient,是全方位竞争。除了预训练做好long-context架构(这是一年前就探索的问题),当今怎么做到在真实长距离任务上的稳定性和非常高上限效果,是后训练再迭代的创新范式。我们在想怎么构造更有效的机器学习算法,怎么采集到真实在1M、10M、100M上下文里都具有长期依赖的文本等,这是我们现在后训练正在经历的事。更长期的事是大模型本身飞速进步,加上Agent框架更好加持。像夏立雪说的,推理需求今年已发生近十倍增长,今年整个token增长会不会到100倍?这里又到了另外维度竞争——算力或推理芯片,甚至下到能源。杨植麟:下面问问黄超。你开发了一些非常有影响力的Agent项目,包括NanoBot,也有很多社区粉丝。从Agent harness或应用层面,接下来有什么技术方向你觉得比较重要、大家需要关注?黄超:如果把Agent技术抽象出来,关键几个点是planning、memory和tool use。Planning方面,现在问题还是面向长任务或非常复杂上下文,比如500步甚至更长部署。很多模型不一定能做很好planning,本质上可能不具备隐性知识,特别是在复杂垂直领域。未来可能需要把已有的各种复杂任务知识固化到模型里面。Harness一定程度上缓解了planning带来的错误,因为它提供高质量skill,本质上是盖住模型去完成比较难的task。Memory方面,memory永远存在信息压缩不准确等问题。长任务和复杂场景下memory会暴增,带来压力。现在各类CLaw都采用最简单文件系统,这种markdown格式的memory,通过共享文件方式来做。未来memory应该走向分层设计,包括如何更通用。现在memory机制很难做到很通用。Coding场景、Deep Research、多媒体领域数据模态差别很大,如何对这些memory做很好检索索引、更高效,永远在做rade-off。另外,OpenClaw让创建Agent门槛大幅降低后,未来可能不止一个CLaw。我看到Kimi也有Agent Swarm机制,未来每个人会拥有一群CLaw。一群CLaw相比一个CLaw,上下文暴增会非常大,这也是带给memory的压力。现在还没有很好机制管理一群CLaw带来的整个上下文,特别是复杂coding、科研发现,带给模型和Agent架构压力挺大。Tool Use方面,skill现在存在一些问题。MCP当时存在质量不保障、安全问题,现在skill也存在类似问题。看似确实会有很多skill,但高质量skill比较少,低质量skill会影响Agent任务完成度,还有就是skill注入安全问题。从tool use这块,可能需要靠整个社区把skill发展更好,甚至通过执行过程中进化出新skill。这是planning、memory和skill当下存在的痛点和未来潜在方向。杨植麟:可以看到两位嘉宾从不同视角讨论同一个问题——随着任务复杂度增加,上下文会暴涨。模型层面可以提升原生上下文长度,Agent harness层面像planning、memory、multi-Agent harness也能在特定模型能力下支持更复杂任务。这两个方向接下来会有更多化学反应,提升任务完成难度。未来12个月,大模型向何处去杨植麟:最后来个开放式展望。请各位用一个词描述接下来12个月大模型发展趋势及期望。从黄超开始。黄超:生态。12个月在AI看起来好遥远,都不知道12个月后会发展成什么样。我觉得一个词应该叫生态。现在CLaw让大家活跃,但未来Agent真的要真正从个人助手转换为"打工人"很重要。现在大家玩CLaw也是新鲜感、好玩,但未来真的得让CLaw们沉淀下来,成为大家的搬砖工具,成为真正的AI worker。这需要整个生态的努力。开源很重要,把所有相关技术探索、模型都开出去后,需要整个生态一起来共建。不管是模型迭代、skills平台迭代还是各种工具,都需要更好面向CLaw创造更好生态。未来很多软件可能不一定会面向人类,因为人类需要GUI,可能是面向Agent原生使用的。人会只使用让自己快乐的GUI。整个生态又从GUI或MCP转到CLI模式,需要整个生态变成Agent原生、Agent-native模式,才能让Agent发展更加丰富。罗福莉:自主化把问题缩小到一年很有意义。五年从我心目中对于AGI定义而言已经实现了。如果用一个词描述接下来一年AGI历程最关键的事情,我认为是自主化。虽然这个词有点玄幻概念,过去一年大家多次提到,但我最近才对它有更深体会,具体怎么做会有更务实可行的方案。借助强大模型,之前在chat范式下根本没发挥预训练模型上限,现在被Agent框架激活到了。触到上限后执行更长时间任务时,发现模型可以自己学习和进化。很简单尝试:在现有框架叠加可verify的条件限制,设置loop让模型不停迭代优化目标,就能发现模型会持续拿出更好方案。这种自主化国内模型基本能跑一两天,当然跟任务难度有关。在一些科学研究上,比如探索更好模型结构(有评估标准如更低PPL),在这种确定任务上已能自主运行两三天。从我的角度,自主化是唯一可以创造新东西的地方。它不是替代现有生产力,而是像顶尖科学家一样探索世界上没有的东西。一年前我觉得时间历程会拉到3-5年,但近期觉得应缩小到最近1-2年。我们可以让大模型叠加非常强的自主化Agent框架,实现科学研究至少指数级加速。最近组内做大模型研究的同学workflow非常不确定、高度创造力,借助Claude Code加非常顶尖模型已基本能加速研究效率近十倍。期待这种范式辐射到更广学科和领域,自主化非常重要。夏立雪:可持续Token。我的关键词叫可持续Token。现在整个发展还在长期持续过程中,希望有长久生命力。作为基础设施角度看到的很大问题是资源终究有限,就像当年讲可持续发展。作为token工厂,能否给大家提供持续稳定、大规模能用的token,让顶尖模型真正继续为更多下游服务,是很重要的问题。需要把视角放宽到整个生态,从最早能源转化到算力,再转化到token,最终转化成GDP链路,进行持续经济化迭代。不止把国内各种算力用起来,也在把这些能力输出到海外,让全球资源打通整合。这也是想把中国特色token经济学做起来。之前时代是Made in China,能把中国低价制造能力变成好商品输出全球。现在想做的是AI Made in China——把中国能源优势通过token工厂持续转化成优质token输出全球,成为世界的token工厂。这是我想要在今年看到的中国给世界人工智能带来的价值。张鹏:算力。我就简短一点,大家可能都在仰望星空,我就落地一点。未来12个月面临的最大问题可能就是算力。所有技术包括智能体框架让很多人有很好创造力、效率提升十倍,但前提条件是大家能够用得起、用得起来。不能因为算力不够,问题提出让他思考半天也不给答案,这肯定不行。也因为这种原因,可能连研究进展、很多想做的事都受阻了。前两年我记得沈向洋院士应该也是在中关村论坛说了一句话:"没卡没感情,谈卡伤感情"。我觉得今天又到了这个地步,但情况又不一样了——我们又到了推理阶段。推理阶段是因为需求真在爆发,十倍百倍爆发。需求是100倍,还有大量需求没满足怎么办,大家一起来想想办法。杨植麟:感谢各位的精彩分享!(本文作者 | 张帅,编辑 | 杨林)更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App