通知
全部清除

怎么看字节跳动大幅度提升国产芯片采购比例?

已加入: 1 月 前
帖子: 7
话题创建者  

最近看到字节2026年资本开支大幅上调到300亿元,其中GPU服务器占了180亿,还提到国产芯片采购比例大幅提升。有观点认为这代表中国大模型公司正在摆脱对英伟达的依赖。但我也担心国产芯片性能是否跟得上?你们怎么看国产芯片产业链的机会?



   
引用
Eminent Member
已加入: 4 年 前
帖子: 35
 
你好。
 
您说的对,根据公开数据2026年字节总资本开支从原计划的260亿美元上调至300亿美元,他们的解释说因为内存涨价。其中GPU服务器预算180亿美元,比2025年的80–90亿美元几乎翻倍。关键是采购结构,英伟达占比从90%降至65%,AMD升到30%,自研ASIC占5%。其实看到这个数据,我个人感觉是他们想分散风险,不想过于依赖英伟达。其实不止字节,几乎所有国内外大厂都有这种情节。
 
字节在中国市场上对国产芯片采购大比例提升,华为昇腾从5亿美元猛增至20亿美元,寒武纪从8亿元增至25亿美元,自研ASIC也提到15–16亿美元。也就是说,在国内,国产芯片已经占GPU服务器采购的70%以上。
 
很多人担心国产芯片性能问题。其实字节的大模型能力“已进入第一梯队”,他们采取了“混合部署”策略,也就是高端训练仍用英伟达H100(主要在海外),但推理和中等规模训练大量使用昇腾910B、寒武纪MLU370等国产芯片。因为推理对延迟容忍度更高,且可通过模型压缩、量化等技术适配,实际体验差距并不大。
 
另外值得注意的是算力分配的变化。2026年预计字节只有30%的算力用于训练,20%通过火山引擎云平台出租,剩下50%全用于推理。这意味着大部分新增算力其实是为产品端服务的——比如豆包、即梦视频生成、搜索增强等应用每天要处理海量用户请求。这种场景下,性价比和供应稳定性比峰值性能更重要,国产芯片反而更有优势。
 
国产芯片关键是软件生态不成熟,调试工具链不如CUDA完善;高端训练芯片在FP8精度、互联带宽上仍有差距。但如果只是做千亿参数级模型的迭代和推理,现有国产方案应该已经够用。而且随着华为、寒武纪持续迭代,差距还在缩小。
 
总体来看,我们从字节这轮投入中还是能学到不少知识的。对我个人来说,更关注的还是谁能真正把算力转化为产品体验和商业收入,而不是单纯看芯片品牌。
 
仅供参考~2026年,新年快乐~


   
回复引用