Cerebras

🇺🇸

Cerebras Systems Inc.

Growth美国加州Sunnyvalewww.cerebras.ai
Total funding约28.27亿美元
ConfidenceHigh 39Medium 22Low 5

Company info

Full nameCerebras Systems Inc.
Founded2015年
Headquarters美国加州Sunnyvale
Websitewww.cerebras.ai
Region🇺🇸 美国
StageGrowth
Employees501-1,000人
Report date2026-03-10

Overview

一家以晶圆级AI处理器、超算系统和高吞吐推理云为核心的美国AI基础设施公司。

Industry tags

AI InfrastructureSemiconductorsHigh Performance ComputingCloud AI

Key people

NameRole
Andrew FeldmanChief Executive Officer, Co-Founder
Sean LieCTO, Co-Founder
Jean-Philippe FrickerChief System Architect, Co-Founder
Michael JamesChief Architect, Advanced Technologies, Co-Founder
Gary LauterbachChief Technology Officer, Emeritus, Co-Founder
Dhiraj MallickChief Operating Officer
Bob KominSVP and Chief Financial Officer
Alan ChhabraEVP of Worldwide Partnerships
Naor PensoChief Information Security Officer
Alex VarelEVP, Worldwide Sales

Core products and services

10 products
AI processor

Wafer-Scale Engine (WSE-1

首代晶圆级AI芯片,约1.2万亿晶体管,奠定Cerebras晶圆级架构路线。

High confidence · 2 sources · 2+ independent authoritative sources
AI system

CS-1

搭载WSE-1的首代整机系统,使Cerebras技术进入数据中心部署。

Medium confidence · 1 sources · Single authoritative source
AI accelerator system

CS-2

二代脑尺度AI系统,支持超大参数模型训练与推理。

High confidence · 2 sources · 2+ independent authoritative sources
Memory extension

MemoryX

为CS-2提供最高2.4PB外部高性能内存,支持约120万亿参数模型。

Medium confidence · 1 sources · Single authoritative source
Interconnect fabric

SwarmX

面向晶圆级集群的高性能互连,使多台CS-2/CS-3可作为单一逻辑加速器工作。

Medium confidence · 1 sources · Single authoritative source
AI supercomputer

Andromeda

由16台CS-2构成的AI超算,主打大模型训练的近线性扩展。

Medium confidence · 1 sources · Single authoritative source

Funding history

Total funding 约28.27亿美元(基于公开披露轮次汇总)
DateRoundAmountValuationInvestorsConfidence
2016年05月Series A2700万美元Benchmark, Eclipse VenturesLow confidence · 1 sources · Single source
2016年12月Series B2500万美元Coatue ManagementLow confidence · 1 sources · Single source
2017年07月Series C约6500万美元VY Capital, Sequoia Capital, Coatue ManagementLow confidence · 1 sources · Single source
2018年11月Series D8800万美元Benchmark, Coatue Management, Eclipse Ventures, VY CapitalLow confidence · 1 sources · Single source
2019年11月Series E2.72亿美元Altimeter Capital, Benchmark, Coatue Management, Eclipse Ventures, VY Capital, Moore Strategic VenturesLow confidence · 1 sources · Single source
2021年11月Series F2.5亿美元超40亿美元Alpha Wave Ventures, Abu Dhabi Growth Fund, G42, Altimeter Capital, Benchmark Capital, Coatue Management, Eclipse Ventures, Moore Strategic Ventures, VY CapitalHigh confidence · 2 sources · 2+ independent authoritative sources
2025年09月Series G11亿美元81亿美元 post-moneyFidelity Management & Research Company, Atreides Management, Tiger Global, Valor Equity Partners, 1789 Capital, Altimeter, Alpha Wave Global, BenchmarkMedium confidence · 1 sources · Single authoritative source
2026年02月Series H10亿美元约230亿美元 post-moneyTiger Global Management, Benchmark, Fidelity Management & Research Company, AMDHigh confidence · 2 sources · 2+ independent authoritative sources

Product release timeline

2025年04月Medium confidence · 1 sources · Single authoritative source
Llama API on Cerebras Meta partnership

Meta选择Cerebras支撑Llama API,高速推理进入大型开发者生态。

2025年03月Medium confidence · 1 sources · Single authoritative source
Cerebras Inference Cloud Datacenter expansion

宣布新增6个AI推理数据中心,形成8个设施的高速推理网络。

2024年03月Medium confidence · 1 sources · Single authoritative source
Wafer-Scale Engine WSE-3

发布三代晶圆级芯片,4万亿晶体管、90万AI核心。

2024年03月High confidence · 2 sources · 2+ independent authoritative sources
Cerebras System CS-3

发布三代系统,支持最高2048节点集群与24万亿参数训练。

2023年07月Medium confidence · 1 sources · Single authoritative source
Condor Galaxy 1 CG-1

发布与G42共建的4 exaFLOPS AI超算,作为九台网络首站。

2023年03月Medium confidence · 1 sources · Single authoritative source
Cerebras-GPT 111M-13B

开源7个GPT模型及训练配方,展示非GPU平台训练LLM能力。

2022年11月Medium confidence · 1 sources · Single authoritative source
Andromeda 1.0

发布由16台CS-2构成的AI超算,强调大模型训练近线性扩展。

2021年08月High confidence · 2 sources · 2+ independent authoritative sources
Cerebras System CS-2

发布二代脑尺度AI系统,可支撑超大模型训练与推理。

2021年08月Medium confidence · 1 sources · Single authoritative source
Cerebras Software Architecture Weight Streaming

推出计算与参数存储解耦执行架构,降低大模型分布式复杂度。

2021年08月Medium confidence · 1 sources · Single authoritative source
MemoryX 1.0

推出外部内存扩展能力,使CS-2支持约120万亿参数模型。

2021年08月Medium confidence · 1 sources · Single authoritative source
SwarmX 1.0

推出AI优化互连,用于把多台CS-2连接为统一逻辑加速器。

2019年08月High confidence · 2 sources · 2+ independent authoritative sources
Wafer-Scale Engine WSE-1

发布首代晶圆级AI芯片,主打超大芯片面积、片上存储与通信带宽。

2019年Medium confidence · 1 sources · Single authoritative source
Cerebras System CS-1

首代整机系统开始进入数据中心。

Key events

2026

完成10亿美元Series H融资,估值约230亿美元,AMD参与投资。

2025

推出Cerebras for Nations,进入主权AI基础设施市场。

完成11亿美元Series G融资,估值81亿美元。

被DARPA选中与Ranovus合作开发面向实时AI/HPC的新型计算平台。

与Meta合作支撑Llama API,成为其首个CSP级超高速推理伙伴。

任命Naor Penso、Alex Varel、Hagay Lupesko,补强安全、销售与AI云推理领导层。

Alan Chhabra加入并担任EVP of Worldwide Partnerships,强化全球合作网络。

与Inception、MBZUAI合作推出哈萨克语模型SHERKALA,模型在Condor Galaxy上训练。

2024

向SEC递交IPO注册声明。

S-1披露G42持股购买安排可能受CFIUS审查影响,若交易无法执行需协商替代经济安排。

新增独立董事Glenda Dorchak、Paul Auvil,并任命Bob Komin为CFO。

Sandia部署4台CS-3测试集群,用于国家安全AI工作负载。

2023

与G42形成战略关系;S-1披露双方框架协议、主服务协议及后续高性能计算订单安排。

Dhiraj Mallick晋升为COO,负责运营与供应链。

2022

Argonne团队基于CS-2获得Gordon Bell Special Prize,WSE-2同年获Museum of Computing“epochal”认可。

2021

完成Series F融资,估值超过40亿美元。

2015

公司成立,五位联合创始人启动晶圆级计算商业化。

Competitive landscape

Nvidia (H100/H200/B200 + DGX/Cloud GPU stack)

— 以GPU、CUDA生态和云/OEM分销主导训练与推理市场,商业模式是卖芯片、整机和云算力并绑定软件栈,GTM覆盖云厂商、企业与研究机构。其优势是通用性、开发者心智与成熟生态,但在Cerebras强调的单流超高速推理和晶圆级片上通信效率上形成正面比较。 [Source1](https://www.cnbc.com/2024/10/11/cerebras-ipo-has-too-much-hair-as-chipmaker-tries-to-take-on-nvidia.html) [Source2](https://sacra.com/research/cerebras-vs-nvidia/)

AMD (Instinct MI300/MI325/MI350 family)

— 通过GPU、OEM和云伙伴切入AI算力市场,主打替代Nvidia的成本效益与供应多元化,销售上更偏标准化加速卡和平台合作。相较Cerebras,其路线更通用、生态更接近传统GPU替代,但在超大模型单系统吞吐叙事上不如晶圆级架构鲜明。 [Source1](https://www.cnbc.com/2025/02/07/deepseek-force-multiplier-for-smaller-ai-chip-firms-.html) [Source2](https://www.bloomberg.com/news/articles/2026-02-04/cerebras-raises-1-billion-in-funding-at-23-billion-valuation)

Groq (LPU Inference Cloud)

— 主打确定性低时延推理,商业模式偏API与云服务,强调开发者可直接购买高速推理能力。它与Cerebras在“高速推理基础设施”上最直接竞争,但Groq更突出低时延与流式响应,Cerebras更强调更高总吞吐和更大模型覆盖。 [Source1](https://www.cnbc.com/2025/02/07/deepseek-force-multiplier-for-smaller-ai-chip-firms-.html) [Source2](https://www.cerebras.ai/news/meta-unleashes-llama-api-running-18x-faster-than-openai-cerebras-partnership-delivers-2-600)

SambaNova (DataScale / inference services)

— 以企业级全栈AI系统和托管服务切入,商业模式更偏项目制销售和企业交付,常围绕私有化部署与行业场景展开。与Cerebras相似之处在于都卖专用AI基础设施,不同点在于技术路线和性能主张不同,Cerebras更突出晶圆级硬件与统一系统设计。 [Source1](https://www.cerebras.ai/news/meta-unleashes-llama-api-running-18x-faster-than-openai-cerebras-partnership-delivers-2-600) [Source2](https://www.sciencedirect.com/science/article/pii/S2666998625001474)

Google (TPU pods / Vertex AI / Gemini stack)

— 通过自研TPU、云平台与模型服务形成闭环,商业模式是平台绑定和云消费,定价更多体现在云资源与托管AI服务。相对Cerebras,Google更强在平台整合和云内分发,而Cerebras更强调开放模型环境下的极致训练与推理速度。 [Source1](https://www.cerebras.ai/blog/introducing-condor-galaxy-1-a-4-exaflop-supercomputer-for-generative-ai/) [Source2](https://www.cerebras.ai/news/meta-unleashes-llama-api-running-18x-faster-than-openai-cerebras-partnership-delivers-2-600)

AWS (Trainium / Inferentia / Bedrock)

— 以云内自研芯片、企业渠道和服务打包为主,核心卖点是成本优化与平台便利性,GTM依托AWS现有企业客户基础。相较Cerebras,AWS更像云平台分发者,Cerebras则更聚焦专用高性能训练/推理基础设施本身。 [Source](https://www.sciencedirect.com/science/article/pii/S2666998625001474)

Graphcore (IPU systems)

— 以架构差异化的IPU系统切入AI训练与推理,商业模式是卖加速器和系统方案。它与Cerebras同属“非GPU替代架构”阵营,但市场声量、规模化采用和近年商业化存在感弱于Cerebras。 [Source](https://www.sciencedirect.com/science/article/pii/S2666998625001474)

Tenstorrent (AI accelerators + IP licensing)

— 兼做芯片与IP授权,强调RISC-V与可授权AI路线,商业模式比Cerebras更偏平台和IP生态。相较之下,Cerebras押注自有整机、超算和云交付,路径更重资产但也更容易形成端到端性能故事。 [Source](https://www.sciencedirect.com/science/article/pii/S2666998625001474)

Growth metrics

Revenue7874.4万美元220%2023年
Revenue (H1)1.36402亿美元1474% vs 2023年H12024年06月
Revenue concentration from G426520万美元,占总收入约83%2023年
Revenue concentration from G42 (H1)1.191亿美元,占总收入87%2024年06月
Remaining performance obligations4900万美元较2023年12月的1920万美元显著增加2024年06月
Inference capacity plan超4000万 Llama 70B tokens/sec总容量扩张20x2025年03月
Inference usage每月服务万亿级tokens2025年09月

Competitive narrative

Differentiators

晶圆级处理器路线带来更高片上带宽与更少跨芯片通信开销。
Weight Streaming + MemoryX + SwarmX把超大模型训练/推理简化为更接近单设备编程体验。
CS-3与Inference云同时覆盖on-prem、cloud、national lab和sovereign AI场景。
在公开材料中反复强调推理速度领先,并已进入Meta、Perplexity、Mistral、Hugging Face、OpenRouter等生态。
相比只卖芯片的竞争者,Cerebras已形成芯片、系统、超算、云服务的一体化交付路径。

Challenges and risks

收入在2023年和2024年上半年高度集中于G42,客户集中度显著。
业务高度资本密集,持续依赖外部融资与制造/供应链执行。
相较Nvidia与大型云厂商,软件生态、开发者心智和渠道规模仍弱。
G42相关投资与交易安排在S-1中披露存在CFIUS审查不确定性。
IPO节奏与资本市场窗口会影响其扩产和市场叙事。

Market position

Cerebras处于AI基础设施市场的差异化位置:它不是通用GPU平台,也不是纯推理API创业公司,而是以晶圆级芯片为核心,把训练系统、推理云和超算网络打包出售的全栈AI算力供应商。其最强卖点是速度,特别是在大模型推理和超大模型训练的编程简化上。 从竞争层级看,Cerebras对上要与Nvidia、Google、AWS等平台型巨头争夺算力预算,对侧翼则与Groq、SambaNova、Graphcore、Tenstorrent等专用AI芯片公司争夺下一代架构叙事。Series G与Series H后的估值跃升表明资本市场认可其潜在上限,但客户集中、监管与生态劣势意味着它仍处于高增长与高风险并存阶段。