2月20日起,SRAM概念横空出世,并持续发酵,概念龙头北京君正两个交易日涨近30%。
消息面上,世界最快的大模型Groq一夜之间爆火,能够每秒输出近500个token,相比之下,ChatGPT-3.5每秒生成速度仅为40个token。
Groq突然爆火,背后最大的功臣不是GPU,而是自研的LPU——语言处理单元。单卡仅有230MB内存,2万美元一张。在LLM(大语言模型)任务上,LPU比英伟达的GPU性能快10倍。而LPU与GPU核心区别就是LPU内存采用了SRAM,而不是HBM。
SRAM和HBM都是内存,内存分为DRAM动态随机存储器和SRAM静态随机存储器,HBM是目前在AI芯片领域广泛使用的一种高性能DRAM。相比于DRAM包括HBM来说,SRAM的优势在于速度快(快10-20倍)、制造成本低;但缺点是存储容量低。而存储容量低就意味着更高的整体投资成本,有数据显示,运行同样一个大模型,采用HBM,只需要一块H200(相当于1/4个服务器机架的密度),但如果采用SRAM,就需要256个LPU,相当于4个满载的服务器机架,数量上是16倍,整体投资成本就会大幅提升。
简单说,现在采用SRAM就是追求10倍速率的提升,然后牺牲几十倍的成本。因此,在某些追求速度的语言模型中,SRAM路径确实是比较合理的选择,但如果因此就得出结论说SRAM会取代HBM,甚至LPU会颠覆GPU,目前来看,可能性为0,毕竟几十倍成本摆在那里。
就存储芯片行业本身来说,我们“优秀交易员”节目此前多次提及行业的投资机会。今年以来存储行情整体向上,全球三大厂商三星、SK海力士和美光均控制供给,涨价态度坚定。三星电子、美光表示,随着电子设备存储容量扩大、AI PC需求增长等因素,2024全年存储业务将会继续复苏。SK海力士则看好高性能DRAM需求增长,2024年将专注于AI用存储器HBM3E、HBM4的量产。
机构预计在供给控制及需求复苏下,2024年第一季度DRAM环比涨幅13%-18%,NAND环比涨幅18%-23%。
关于存储芯片产业详细的投资逻辑,以及产业链哪些环节有望核心受益AI发展,代表公司有哪些,我们制作了专题报告《存储芯片拐点将至》,有需要的小伙伴,欢迎免费索取。