Cerebras IPO:万亿参数推理芯片上市
Cerebras IPO:声称已为 OpenAI 内部模型提供服务
Cerebras Systems 本周以 IPO 的身份重回舆论中心,投资者和基础设施领域的观察者将这家人工智能芯片公司描绘为一个长期逆势押注、如今终于被市场验证的故事。
投资者 Ishan N. Taneja 在推文中回顾了自己从怀疑到信服的过程。他坦言一开始并不相信 Cerebras,但最终发现怀疑对象才是对的,称自己 "敬佩这家公司很多方面:团队实力强劲、出于正确的原因做有争议的事、坚持、执行力、做了一颗爆款芯片"。
@ishanit5: "didn't believe @ml_hardware for a while on @cerebras. he was totally right. admire a lot about the co: the team slaps -- they do controversial things for the right reasons. persistence. execution. they built a banger chip. grateful to be an investor."
CNBC 记者 Deirdre Bosa 则引用了 Cerebras CFO Bob Komin 的一段重磅发言。Komin 直接回击了 "Cerebras 只能服务小模型" 的市场叙事,称 "这是最大的误解之一。我们服务所有规模的模型,我们能够服务的模型规模没有上限。今天,我们正在服务万亿参数模型。我们正在为 OpenAI 服务内部万亿参数模型,目前正在运行 OpenAI 5.4 和 5.5。"
@dee_bosa: "One of the biggest misconceptions — Cerebras CFO Bob Komin pushes back on the small-models narrative. 'We serve all models, and there is no limit to the size of the models that we can serve. Today, we're serving trillion parameter models. We're serving trillion parameter models that are internal for OpenAI today. We are currently running OpenAI 5.4 and 5.5 with them.'"
来自 Stanford MS&E 435 课程的讨论也值得关注。Apoorv Vyas 将 Cerebras IPO 与更广泛的推理基础设施议题联系起来:他与 Baseten 的 Tuhin 在课堂上讨论了 "推理需求激增下的计算稀缺、模型路由和开源"。
@apoorv03: "Big inference day with @tuhinone from @baseten at MS&E 435 yesterday (and the Cerebras IPO that AM). We discussed compute scarcity amid the rising inference demand, model routing, & open source."
这个讨论背景恰好点出了 Cerebras IPO 之所以能在当下获得好感的深层原因:AI 基础设施市场正从训练崇拜转向推理经济学,从前沿基准分数转向生产环境中的大模型服务,从 GPU 充裕假设转向计算稀缺和路由纪律。在这个环境下,一家能够声称自己服务万亿参数前沿模型的非 NVIDIA 架构公司,获得的关注度和五年前完全不同。
当然,Komin 的 "没有上限" 说法也需理性看待——没有成本/Token 对比、延迟百分位数据、吞吐量数字或软件兼容性细节,这些说法目前更多是战略叙事而非可独立验证的基准。但从投资叙事和技术方向来看,Cerebras 的 IPO 的确处在一个推理成为主导计算市场的关键时间窗口上。
分类:🏢 企业动态
本作品采用《CC 协议》,转载必须注明作者和本文链接
关于 LearnKu