“这是下一个 ChatGPT。”黄仁勋在 GTC 上这样评价 OpenClaw。CNBC 的判断也很直接:OpenClaw 的爆发,正在让市场开始怀疑,大模型是不是正在被快速商品化。
我觉得这两句话放在一起,其实已经把问题说到一半了。但更有意思的是,如果顺着这个逻辑再往前推一步,事情就不只是“模型变便宜”这么简单,而是整个 AI 价值分配在往别的层移动。
过去两年,大家默认的叙事是很清楚的:模型稀缺、训练成本高、能力差距明显,所以价值自然集中在少数几家模型公司身上。但 OpenClaw 这种东西出来之后,有点像把这个叙事撕开了一道口子。一个开源项目,不依赖最顶级的闭源模型,也不需要最强能力,却能在短时间内成为开发者默认的 agent 框架之一。这说明在很多真实场景里,用户并不一定需要“最强”,而是“够用 + 便宜 + 可控”。
一旦这一点被验证,模型的地位就会发生变化。它不再是唯一的价值中心,而更像一个通用能力模块。真正开始变重要的,是怎么把模型组织起来去干活,也就是 agent 这一层。怎么调度、怎么接工具、怎么接数据、怎么长期运行、怎么做权限控制,这些东西的权重都会上来。简单讲,模型更像引擎,但用户最终买单的,是整辆车。
还有一个我觉得很多人还没完全想清楚的点,就是成本结构的变化。很多人直觉是,模型变便宜,对算力是利空。但如果你从 agent 的角度去看,这个结论可能是反过来的。因为 agent 不是一次性调用,而是持续运行的系统。它会盯邮件、参与 Slack 里的对话、自动拆任务、执行再反馈,甚至不同 agent 之间互相调用。在这种模式下,token 不再是“问一次花多少”的问题,而是“每天要跑多少”的问题,本质上变成了运营成本。
所以即便单次调用更便宜,总量反而可能大幅上升。便宜带来的是使用频率上升,而 agent 带来的是调用方式从离散变成连续。两者叠加,很容易把整体推理需求抬高一个量级。
如果顺着这个逻辑往市场上看,其实很多东西就能对上了。为什么大家开始重新关注算力、推理基础设施,甚至电力和数据中心资源?因为如果 AI 真正进入 agent 阶段,关键变量就不再只是模型能力,而是能不能以足够低的成本、足够高的稳定性,长期承接这些持续运行的 workload。
这也是我最近在看 neocloud 的原因。像 NBIS、CRWV、IREN 这一类公司,本质上在做的事情其实很简单:用更低成本、更灵活的方式去承接 AI 的推理需求。如果未来是 agent + inference 爆发,那市场关注的重点就会变成算力价格、扩容速度和部署灵活性,这正好是它们的优势区间。
当然,这里也不能太理想化。便宜确实是优势,但不等于稳赢。AWS、Azure、Google 贵,是因为它们提供的不只是 GPU,还有安全、数据、权限、企业系统和整套平台能力。一旦竞争加剧,它们完全可以通过降价、打包或者生态绑定,把一部分需求重新吸回去。所以 neocloud 如果想长期站住脚,最终还是要从“便宜算力提供商”升级成“企业级 AI 基础设施平台”。
所以我现在的一个整体判断是,CNBC 讲的“模型商品化”是第一步,但更深一层的变化,是 AI 正在从“模型竞争”走向“系统竞争”。一旦进入这个阶段,agent 会成为入口,推理会成为核心负载,而基础设施这一层,会被重新定价。
如果一定要落到股票上,我会更偏向看“谁能吃到持续推理需求”的那一层,而不是单纯押模型能力。相对直接的受益者,一类是像 Nvidia 这种算力供给方,本质是吃整个蛋糕变大的 beta;另一类是云和推理基础设施,包括 hyperscaler,也包括更激进的 neocloud 玩家,比如 CRWV、NBIS、IREN,这些更像是对“AI workload 外包”的杠杆押注。再往下,一些做 agent 平台、数据连接、安全控制的公司,理论上也会受益,但目前还更早期。
这一轮如果真的跑出来,可能不是“谁的模型最强”,而是“谁能承接最多、最便宜、最稳定的 AI agent workload”。这才是我觉得 OpenClaw 真正指向的方向。
OpenClaw:下一个 ChatGPT,还是 AI 商品化的开始?
BrightLine (2026-03-22 06:56:51) 评论 (0)“这是下一个 ChatGPT。”黄仁勋在 GTC 上这样评价 OpenClaw。CNBC 的判断也很直接:OpenClaw 的爆发,正在让市场开始怀疑,大模型是不是正在被快速商品化。
我觉得这两句话放在一起,其实已经把问题说到一半了。但更有意思的是,如果顺着这个逻辑再往前推一步,事情就不只是“模型变便宜”这么简单,而是整个 AI 价值分配在往别的层移动。
过去两年,大家默认的叙事是很清楚的:模型稀缺、训练成本高、能力差距明显,所以价值自然集中在少数几家模型公司身上。但 OpenClaw 这种东西出来之后,有点像把这个叙事撕开了一道口子。一个开源项目,不依赖最顶级的闭源模型,也不需要最强能力,却能在短时间内成为开发者默认的 agent 框架之一。这说明在很多真实场景里,用户并不一定需要“最强”,而是“够用 + 便宜 + 可控”。
一旦这一点被验证,模型的地位就会发生变化。它不再是唯一的价值中心,而更像一个通用能力模块。真正开始变重要的,是怎么把模型组织起来去干活,也就是 agent 这一层。怎么调度、怎么接工具、怎么接数据、怎么长期运行、怎么做权限控制,这些东西的权重都会上来。简单讲,模型更像引擎,但用户最终买单的,是整辆车。
还有一个我觉得很多人还没完全想清楚的点,就是成本结构的变化。很多人直觉是,模型变便宜,对算力是利空。但如果你从 agent 的角度去看,这个结论可能是反过来的。因为 agent 不是一次性调用,而是持续运行的系统。它会盯邮件、参与 Slack 里的对话、自动拆任务、执行再反馈,甚至不同 agent 之间互相调用。在这种模式下,token 不再是“问一次花多少”的问题,而是“每天要跑多少”的问题,本质上变成了运营成本。
所以即便单次调用更便宜,总量反而可能大幅上升。便宜带来的是使用频率上升,而 agent 带来的是调用方式从离散变成连续。两者叠加,很容易把整体推理需求抬高一个量级。
如果顺着这个逻辑往市场上看,其实很多东西就能对上了。为什么大家开始重新关注算力、推理基础设施,甚至电力和数据中心资源?因为如果 AI 真正进入 agent 阶段,关键变量就不再只是模型能力,而是能不能以足够低的成本、足够高的稳定性,长期承接这些持续运行的 workload。
这也是我最近在看 neocloud 的原因。像 NBIS、CRWV、IREN 这一类公司,本质上在做的事情其实很简单:用更低成本、更灵活的方式去承接 AI 的推理需求。如果未来是 agent + inference 爆发,那市场关注的重点就会变成算力价格、扩容速度和部署灵活性,这正好是它们的优势区间。
当然,这里也不能太理想化。便宜确实是优势,但不等于稳赢。AWS、Azure、Google 贵,是因为它们提供的不只是 GPU,还有安全、数据、权限、企业系统和整套平台能力。一旦竞争加剧,它们完全可以通过降价、打包或者生态绑定,把一部分需求重新吸回去。所以 neocloud 如果想长期站住脚,最终还是要从“便宜算力提供商”升级成“企业级 AI 基础设施平台”。
所以我现在的一个整体判断是,CNBC 讲的“模型商品化”是第一步,但更深一层的变化,是 AI 正在从“模型竞争”走向“系统竞争”。一旦进入这个阶段,agent 会成为入口,推理会成为核心负载,而基础设施这一层,会被重新定价。
如果一定要落到股票上,我会更偏向看“谁能吃到持续推理需求”的那一层,而不是单纯押模型能力。相对直接的受益者,一类是像 Nvidia 这种算力供给方,本质是吃整个蛋糕变大的 beta;另一类是云和推理基础设施,包括 hyperscaler,也包括更激进的 neocloud 玩家,比如 CRWV、NBIS、IREN,这些更像是对“AI workload 外包”的杠杆押注。再往下,一些做 agent 平台、数据连接、安全控制的公司,理论上也会受益,但目前还更早期。
这一轮如果真的跑出来,可能不是“谁的模型最强”,而是“谁能承接最多、最便宜、最稳定的 AI agent workload”。这才是我觉得 OpenClaw 真正指向的方向。