AIPress.com.cn报道
当市场的注意力被大模型参数、AI应用和算力芯片反复吸引时,另一条更基础、也更隐蔽的技术主线,正在悄然改变全球AI产业的成本结构与竞争格局——内存。
近日,国内DRAM厂商长鑫科技递交科创板IPO申请并获受理。这家成立于2016年的企业,IPO前估值已接近1500亿元,对比摩尔线程和沐曦IPO轮投前估值的246.2亿元和210.71亿元,长鑫科技的IPO规模可见一斑。

但与摩尔线程、沐曦解决“算力来源”的问题不同,长鑫科技解决的是算力能否被持续、稳定使用的问题
AI时代,DRAM不再只是“配角”
在传统PC与手机时代,DRAM更多被视为标准化程度较高、周期性明显的基础器件。但AI的出现,正在改变这一逻辑。
一台高端AI服务器所需的DRAM容量,约为普通服务器的8到10倍。无论是大模型训练还是推理,高带宽内存(HBM)、DDR5、LPDDR等产品,已经成为算力释放的前提条件。算力芯片再强,如果“喂不饱”,性能同样会被严重限制。
正是在这一背景下,全球DRAM市场在2026年初迎来新一轮强景气周期。多家国际厂商已明确上调报价,部分产品涨幅预计将达到达到60%—70%。市场甚至用“电子茅台”来形容当下的DRAM供需状态。
长鑫科技,正处在这条产业曲线的关键节点上。
从“国产替代”到“AI基础设施”的角色变化
作为目前中国大陆规模最大、技术最先进的DRAM IDM厂商,长鑫科技已跻身全球第四大DRAM供应商,并在DDR4领域取得了约5%的全球市场份额。更重要的是,其产品线正向LPDDR5L等更适配AI与高性能计算的方向推进。
这意味着,长鑫科技的产业角色正在发生变化:
它不再只是“补国产短板”,而是在AI基础设施体系中承担现实供给责任。
与算力芯片相比,内存产业具有投入重、周期长、技术路径锁定强的特点。一条先进制程产线动辄数百亿元投入,任何一次技术选择失误,都会被放大为系统性风险。因此,在全球DRAM长期由三大国际厂商主导的格局下,新进入者的出现本身就极为罕见。
从这个角度看,长鑫科技的成长路径,与其说是资本推动,不如说是在AI时代被重新验证的产业必要性。
AI越热,底层“重资产”的价值越清晰
过去几年,资本市场更偏好“轻资产+高想象力”的AI公司。但随着模型推理成本、算力能耗和供应链安全问题不断暴露,市场开始重新审视AI的真实成本结构。
无论是海外围绕数据中心能源、算力调度的争议,还是国内对算力基础设施的持续投入,都指向同一个现实:
AI不是只靠算法“跑”,还要靠硬件和材料来“堆”。
在这一逻辑下,DRAM这类看似传统的芯片品类,反而成为AI产业扩张中最难被快速复制的环节之一。这也是为什么,在AI需求放大的同时,存储厂商的盈利弹性反而更为直接。
根据最新的预测,长鑫科技在2025年收入规模将达到550-580亿元,这一时间点,恰好与AI服务器需求加速释放重合。其收入规模的跃升,与其说是单一企业的经营改善,不如说是AI产业对底层硬件需求集中兑现的结果。
一个更长期的判断
如果说上一轮科技周期的核心问题是“谁能造出最聪明的模型”,那么这一轮正在浮现的新问题是:
谁能稳定、规模化地支撑这些模型运行十年?
从这个角度看,长鑫科技的IPO,不只是一次巨额融资或市值想象,更像是一场关于AI产业耐力的测试。它考验的不是短期技术突破,而是长期资本、制造能力、供应链协同与政策耐心的叠加。
在AI热潮之下,真正决定产业上限的,往往不是最耀眼的那一环,而是最重、最慢、最难被替代的那一层。DRAM,正在重新站到聚光灯下。