Cerebras
🇺🇸Cerebras Systems Inc.
Company info
Overview
一家以晶圆级AI处理器、超算系统和高吞吐推理云为核心的美国AI基础设施公司。
Industry tags
Key people
Core products and services
10 productsWafer-Scale Engine (WSE-1
首代晶圆级AI芯片,约1.2万亿晶体管,奠定Cerebras晶圆级架构路线。
CS-1
搭载WSE-1的首代整机系统,使Cerebras技术进入数据中心部署。
CS-2
二代脑尺度AI系统,支持超大参数模型训练与推理。
MemoryX
为CS-2提供最高2.4PB外部高性能内存,支持约120万亿参数模型。
SwarmX
面向晶圆级集群的高性能互连,使多台CS-2/CS-3可作为单一逻辑加速器工作。
Andromeda
由16台CS-2构成的AI超算,主打大模型训练的近线性扩展。
Funding history
| Date | Round | Amount | Valuation | Investors | Confidence |
|---|---|---|---|---|---|
| 2016年05月 | Series A | 2700万美元 | — | Benchmark, Eclipse Ventures | Low confidence · 1 sources · Single source |
| 2016年12月 | Series B | 2500万美元 | — | Coatue Management | Low confidence · 1 sources · Single source |
| 2017年07月 | Series C | 约6500万美元 | — | VY Capital, Sequoia Capital, Coatue Management | Low confidence · 1 sources · Single source |
| 2018年11月 | Series D | 8800万美元 | — | Benchmark, Coatue Management, Eclipse Ventures, VY Capital | Low confidence · 1 sources · Single source |
| 2019年11月 | Series E | 2.72亿美元 | — | Altimeter Capital, Benchmark, Coatue Management, Eclipse Ventures, VY Capital, Moore Strategic Ventures | Low confidence · 1 sources · Single source |
| 2021年11月 | Series F | 2.5亿美元 | 超40亿美元 | Alpha Wave Ventures, Abu Dhabi Growth Fund, G42, Altimeter Capital, Benchmark Capital, Coatue Management, Eclipse Ventures, Moore Strategic Ventures, VY Capital | High confidence · 2 sources · 2+ independent authoritative sources |
| 2025年09月 | Series G | 11亿美元 | 81亿美元 post-money | Fidelity Management & Research Company, Atreides Management, Tiger Global, Valor Equity Partners, 1789 Capital, Altimeter, Alpha Wave Global, Benchmark | Medium confidence · 1 sources · Single authoritative source |
| 2026年02月 | Series H | 10亿美元 | 约230亿美元 post-money | Tiger Global Management, Benchmark, Fidelity Management & Research Company, AMD | High confidence · 2 sources · 2+ independent authoritative sources |
Product release timeline
Meta选择Cerebras支撑Llama API,高速推理进入大型开发者生态。
宣布新增6个AI推理数据中心,形成8个设施的高速推理网络。
发布三代晶圆级芯片,4万亿晶体管、90万AI核心。
发布三代系统,支持最高2048节点集群与24万亿参数训练。
发布与G42共建的4 exaFLOPS AI超算,作为九台网络首站。
开源7个GPT模型及训练配方,展示非GPU平台训练LLM能力。
发布由16台CS-2构成的AI超算,强调大模型训练近线性扩展。
发布二代脑尺度AI系统,可支撑超大模型训练与推理。
推出计算与参数存储解耦执行架构,降低大模型分布式复杂度。
推出外部内存扩展能力,使CS-2支持约120万亿参数模型。
推出AI优化互连,用于把多台CS-2连接为统一逻辑加速器。
发布首代晶圆级AI芯片,主打超大芯片面积、片上存储与通信带宽。
首代整机系统开始进入数据中心。
Key events
完成10亿美元Series H融资,估值约230亿美元,AMD参与投资。
推出Cerebras for Nations,进入主权AI基础设施市场。
完成11亿美元Series G融资,估值81亿美元。
被DARPA选中与Ranovus合作开发面向实时AI/HPC的新型计算平台。
与Meta合作支撑Llama API,成为其首个CSP级超高速推理伙伴。
任命Naor Penso、Alex Varel、Hagay Lupesko,补强安全、销售与AI云推理领导层。
Alan Chhabra加入并担任EVP of Worldwide Partnerships,强化全球合作网络。
与Inception、MBZUAI合作推出哈萨克语模型SHERKALA,模型在Condor Galaxy上训练。
向SEC递交IPO注册声明。
S-1披露G42持股购买安排可能受CFIUS审查影响,若交易无法执行需协商替代经济安排。
新增独立董事Glenda Dorchak、Paul Auvil,并任命Bob Komin为CFO。
Sandia部署4台CS-3测试集群,用于国家安全AI工作负载。
与G42形成战略关系;S-1披露双方框架协议、主服务协议及后续高性能计算订单安排。
Dhiraj Mallick晋升为COO,负责运营与供应链。
Argonne团队基于CS-2获得Gordon Bell Special Prize,WSE-2同年获Museum of Computing“epochal”认可。
完成Series F融资,估值超过40亿美元。
公司成立,五位联合创始人启动晶圆级计算商业化。
Competitive landscape
Nvidia (H100/H200/B200 + DGX/Cloud GPU stack)
— 以GPU、CUDA生态和云/OEM分销主导训练与推理市场,商业模式是卖芯片、整机和云算力并绑定软件栈,GTM覆盖云厂商、企业与研究机构。其优势是通用性、开发者心智与成熟生态,但在Cerebras强调的单流超高速推理和晶圆级片上通信效率上形成正面比较。 [Source1](https://www.cnbc.com/2024/10/11/cerebras-ipo-has-too-much-hair-as-chipmaker-tries-to-take-on-nvidia.html) [Source2](https://sacra.com/research/cerebras-vs-nvidia/)
AMD (Instinct MI300/MI325/MI350 family)
— 通过GPU、OEM和云伙伴切入AI算力市场,主打替代Nvidia的成本效益与供应多元化,销售上更偏标准化加速卡和平台合作。相较Cerebras,其路线更通用、生态更接近传统GPU替代,但在超大模型单系统吞吐叙事上不如晶圆级架构鲜明。 [Source1](https://www.cnbc.com/2025/02/07/deepseek-force-multiplier-for-smaller-ai-chip-firms-.html) [Source2](https://www.bloomberg.com/news/articles/2026-02-04/cerebras-raises-1-billion-in-funding-at-23-billion-valuation)
Groq (LPU Inference Cloud)
— 主打确定性低时延推理,商业模式偏API与云服务,强调开发者可直接购买高速推理能力。它与Cerebras在“高速推理基础设施”上最直接竞争,但Groq更突出低时延与流式响应,Cerebras更强调更高总吞吐和更大模型覆盖。 [Source1](https://www.cnbc.com/2025/02/07/deepseek-force-multiplier-for-smaller-ai-chip-firms-.html) [Source2](https://www.cerebras.ai/news/meta-unleashes-llama-api-running-18x-faster-than-openai-cerebras-partnership-delivers-2-600)
SambaNova (DataScale / inference services)
— 以企业级全栈AI系统和托管服务切入,商业模式更偏项目制销售和企业交付,常围绕私有化部署与行业场景展开。与Cerebras相似之处在于都卖专用AI基础设施,不同点在于技术路线和性能主张不同,Cerebras更突出晶圆级硬件与统一系统设计。 [Source1](https://www.cerebras.ai/news/meta-unleashes-llama-api-running-18x-faster-than-openai-cerebras-partnership-delivers-2-600) [Source2](https://www.sciencedirect.com/science/article/pii/S2666998625001474)
Google (TPU pods / Vertex AI / Gemini stack)
— 通过自研TPU、云平台与模型服务形成闭环,商业模式是平台绑定和云消费,定价更多体现在云资源与托管AI服务。相对Cerebras,Google更强在平台整合和云内分发,而Cerebras更强调开放模型环境下的极致训练与推理速度。 [Source1](https://www.cerebras.ai/blog/introducing-condor-galaxy-1-a-4-exaflop-supercomputer-for-generative-ai/) [Source2](https://www.cerebras.ai/news/meta-unleashes-llama-api-running-18x-faster-than-openai-cerebras-partnership-delivers-2-600)
AWS (Trainium / Inferentia / Bedrock)
— 以云内自研芯片、企业渠道和服务打包为主,核心卖点是成本优化与平台便利性,GTM依托AWS现有企业客户基础。相较Cerebras,AWS更像云平台分发者,Cerebras则更聚焦专用高性能训练/推理基础设施本身。 [Source](https://www.sciencedirect.com/science/article/pii/S2666998625001474)
Graphcore (IPU systems)
— 以架构差异化的IPU系统切入AI训练与推理,商业模式是卖加速器和系统方案。它与Cerebras同属“非GPU替代架构”阵营,但市场声量、规模化采用和近年商业化存在感弱于Cerebras。 [Source](https://www.sciencedirect.com/science/article/pii/S2666998625001474)
Tenstorrent (AI accelerators + IP licensing)
— 兼做芯片与IP授权,强调RISC-V与可授权AI路线,商业模式比Cerebras更偏平台和IP生态。相较之下,Cerebras押注自有整机、超算和云交付,路径更重资产但也更容易形成端到端性能故事。 [Source](https://www.sciencedirect.com/science/article/pii/S2666998625001474)
Growth metrics
Competitive narrative
Differentiators
Challenges and risks
Market position
Cerebras处于AI基础设施市场的差异化位置:它不是通用GPU平台,也不是纯推理API创业公司,而是以晶圆级芯片为核心,把训练系统、推理云和超算网络打包出售的全栈AI算力供应商。其最强卖点是速度,特别是在大模型推理和超大模型训练的编程简化上。 从竞争层级看,Cerebras对上要与Nvidia、Google、AWS等平台型巨头争夺算力预算,对侧翼则与Groq、SambaNova、Graphcore、Tenstorrent等专用AI芯片公司争夺下一代架构叙事。Series G与Series H后的估值跃升表明资本市场认可其潜在上限,但客户集中、监管与生态劣势意味着它仍处于高增长与高风险并存阶段。