2717.AI范式转变,国内机会更多

06:28

Access AI content by logging in

欢迎收听雪球出品的财经有深度,雪球,国内领先的集投资交流交易一体的综合财富管理平台,聪明的投资者都在这里。今天分享的内容叫AI范式转变,国内机会更多。来自信息平权。


过去两年国内炒A I基本都是映射。但显然“豆包”这次完全是A股独立行情,虽然恰逢美股炒软件应用,但两者背后逻辑完全不同。尤其是上周美股软件高位调整下跌的情况下,A股应用依然在涨。当然大多没办法深究基本面,但底层逻辑有些微妙的变化。


博通的600到900亿、Ilya(伊利亚·苏茨克沃)的“预训练放缓”,都指向了一点:明年A I的重点就是推理。对于国内来说,训练阶段不仅被技术封锁,还容易被海外开源降维打击,导致只看国内本身,从商业上没有形成良性生态,最终可参与的A I投资机会自然寥寥,真能算账的也就少数英伟达产业链上游。但推理和应用生态,理论上可以建立完善体系。


首先,我们来聊聊算力的问题。如果说在训练人工智能模型时,我们可能会遇到一些技术限制,那么在推理(也就是用训练好的模型来预测新数据)时,这种限制就不太容易出现。按照业界的普遍看法,训练模型时应该用最新的硬件,而推理时用稍旧一些的硬件就足够了。考虑到硬件更新换代的速度,这些稍旧的硬件往往性能过剩,厂商也会积极地将它们推向市场。
现在有个问题值得思考:如果人工智能的发展方向变了,我们还需要像以前那样,每年都更新一次硬件吗?过去,为了处理大规模的模型和复杂的并行计算,我们急需更强大的硬件。但现在,如果推理的需求成为主流,我们真的需要这么快的更新速度吗?实际上,即使没有最新的硬件,依靠现有的硬件集群,我们依然能够取得快速的进步。
此外,虽然每年更新硬件可以降低计算成本,但与训练相比,推理的价值已经发生了变化。对于中国市场来说,硬件的更新更像是“有了更好,没有也没关系”的情况。简而言之,我们对硬件更新的需求可能没有想象中那么迫切。




其次,训练阶段能不能成,标准很单一。应用生态能否跑通,取决于每个国家的成本结构、商业模式、经济模型、产品供给能力,大家各有不同,是个复杂的商业问题。比如说,中国互联网公司在产品开发上的能力是全球领先的,从创意到执行再到运营,一旦把这些产品推向海外市场,往往都能取得很好的成绩。但中国的商业环境也有它的独特之处,比如大家普遍不太愿意为软件付费,这让一些在线软件服务很难发展。不过,聪明的互联网从业者总能找到新的赚钱方式,比如“免费玩但可以内购”、“抽卡得皮肤”、“小额付费和大额付费玩家”、“先面向消费者再转向企业”等等,这些创新的商业模式最终也让这些公司赚了不少钱。因此A I应用推理这件事,到了中国互联网公司手里,能给你玩出花来...


我一直有点担心,因为我们买不到最新的硬件,所以在计算成本上,我们的推理成本总是比国外要高一些。再加上,虽然我们的人工成本比较低,但现在人工智能技术的发展让这个优势变成了劣势,因为A I取代了一些工作,提高了投资回报率(R O I)的门槛。所以,我怀疑在很多情况下,要实现投资回报可能比北美更难一些。但最近我听说,国内的一些模型公司在B to B的业务上已经开始赚钱了,即使在A P I(应用程序接口)服务价格战非常激烈的情况下。这背后的秘密是,他们做了很多优化工作,有很多“中国式”的创新。就像我们之前讨论的,因为G P U硬件不好买,我们的计算力就像是拼凑起来的“八国联军”。这种局面迫使中国的基础设施领域出现了很多“工程式创新”,比如kimi的预填充技术、解码与存储分离技术,以及deepseek幻方的分布式架构来减少通信成本。虽然略显无奈,但国内推理优化进展比大家想象要快。


因此推理比拼的不仅仅是技术,还有商业上能否建立良性内循环,这点从豆包、字节体系、其他国内巨头上都看到了希望。的确模型训练的结果可能决定了推理和应用的能力天花板,国内何时能追上o1和o2都是个未知数。但正如微软C E O Satya一直唠叨的,模型在“通用商品化”,开源模型的进步也很快(这点对我们很关键)。


一旦上述成立,很多投资机会自然打开,不需要完全照搬映射美股。比如美股的s a a s(软件即服务)和软件在讲代理模式,我们回头先看看自己的软件和s a a s生态在哪里?


算力不再仅限于英伟达产业链,推理基础设施打开了很多机会。一方面北美链还在,而中国自己的云服务提供商资本支出链条也可以挖(而且总盘子也不小)。其次特定应用集成电路链条机会核心在于,将英伟达内化的那部分价值,释放给行业上下游。比如网络技术(包括光、铜、交换机)、封装、甚至流片。为什么周五博通能带着台积电大涨?G P U过去让台积电赚不到5%的辛苦钱,A S I C薄利多销的特点,实质上提升了台积电在整个云服务提供商资本支出中的蛋糕分配比例。铜缆和A E C这些就不说了,光模块是不是也有逻辑改善?按照博通说的几家云服务提供商都是百万卡、且都是单一的网络架构,更不用提Ciena(美国讯远通信公司)这种D C I(数据中心互联)直接受益的。以及训练完全集中于数据中心,而推理一定会在端侧泛化,新旧终端的机会可能才刚刚开始。