Groq
🇺🇸Groq, Inc.
Company info
Overview
AI推理芯片公司,开发LPU(语言处理单元)专用加速器,提供超高速、低成本的AI推理解决方案
Industry tags
Key people
Core products and services
LPU Inference Engine
基于Language Processing Unit架构的AI推理专用加速器芯片,包含GroqChip、GroqCard、GroqRack等硬件形态
GroqCloud
公有云AI推理平台,开发者可通过API访问LPU加速推理服务
Funding history
| Date | Round | Amount | Valuation | Investors | Confidence |
|---|---|---|---|---|---|
| ~2020年 | Series A | $10M | — | Social Capital Lead | Medium confidence · 1 sources · Single authoritative source |
| ~2020年 | Series B | ~$57M(推算) | — | Social Capital | Medium confidence · 1 sources · Single authoritative source |
| 2021年04月 | Series C | $300M | >$1B(独角兽) | Tiger Global Management Lead, D1 Capital Partners Lead, The Spruce House Partnership, Addition, TDK Ventures, XTX Ventures | High confidence · 3 sources · 2+ independent authoritative sources |
| 2024年08月 | Series D | $640M | $2.8B | — | Medium confidence · 1 sources · Single authoritative source |
| 2025年09月 | Series E | $750M | $6.9B | Altimeter, 1789 Capital, Infinitum Lead | Medium confidence · 1 sources · Single authoritative source |
Product release timeline
NVIDIA将在GTC 2026展示基于Groq架构的专用推理处理器,面向低延迟解码场景
GroqCloud公有云推理平台正式上线,开发者可通过API访问LPU推理加速(支持Llama、Mixtral等开源模型)
GroqCloud因超快LLM推理速度在社交媒体大规模传播,吸引大量开发者关注
宣布与三星Taylor工厂合作生产4纳米AI加速器芯片
首款基于LPU架构的AI推理芯片发布,采用GlobalFoundries 14nm工艺
Key events
OpenAI成为即将推出的NVIDIA-Groq推理芯片的最大客户,分配约3GW专用推理算力
NVIDIA表示Groq收购将扮演类似Mellanox的角色,作为低延迟解码的"加速器"扩展其架构
创始人Jonathan Ross及总裁Sunny Madra等核心团队加入NVIDIA;Simon Edwards接任Groq CEO,公司继续独立运营
Groq股东获得$76亿美元现金回报
NVIDIA宣布以约$200亿完成对Groq的战略许可及"acqui-hire"交易,获得LPU相关知识产权的非独家许可
完成$750M Series E融资,估值跃升至$6.9B
完成$640M Series D融资,估值达$2.8B
收购Definitive Intelligence,一家商业AI解决方案初创公司
收购Maxeler Technologies,一家专注数据流计算的英国公司,增强硬件技术能力
完成$300M Series C融资,估值突破$1B,获得"独角兽"地位
Competitive landscape
生态系统劣势
相比NVIDIA的CUDA生态,Groq的软件生态仍相对薄弱,开发者迁移成本较高
创始团队
核心团队来自Google TPU项目,具备深厚的AI芯片设计经验
NVIDIA背书
$200亿交易标志着LPU技术获得行业最大玩家的认可,类比Mellanox收购
NVIDIA交易后的独立性
核心技术团队和创始人已加入NVIDIA,Groq作为独立实体的长期技术创新能力存疑
竞争白热化
Cerebras($8.1B估值)、SambaNova等对手持续融资和技术迭代
NVIDIA (H100/B200/Rubin GPU)
— AI芯片市场绝对霸主,凭借CUDA生态系统和端到端解决方案占据90%+的AI训练和推理市场份额。NVIDIA通过收购Groq IP进一步巩固推理市场领先地位,将LPU架构整合进Rubin平台。 `🟢 2源` [IntuitionLabs](https://intuitionlabs.ai/articles/cerebras-vs-sambanova-vs-groq-ai-chips) [SambaNova Blog](https://sambanova.ai/blog/sambanova-vs-groq)
AMD (MI300X/MI400)
— NVIDIA在GPU市场的主要挑战者,Meta等大客户的chiplet合作模式显示出定制化AI硬件的趋势。 `🟡 1源` [TipRanks](https://www.tipranks.com/news/article/buy-nvidia-shares-ahead-of-gtc-says-wells-fargo)
Cerebras Systems (WSE-3)
— 晶圆级处理器先驱,WSE-3拥有4万亿晶体管和44GB片上SRAM,适合超大规模AI模型。2025年融资$1.1B,估值$8.1B,是Groq在推理市场的最直接竞争对手。 `🟢 2源` [IntuitionLabs](https://intuitionlabs.ai/articles/cerebras-vs-sambanova-vs-groq-ai-chips) [SambaNova Blog](https://sambanova.ai/blog/sn40l-chip-best-inference-solution)
SambaNova Systems (SN50 RDU)
— 可重构数据流架构,第五代SN50芯片专为agentic AI推理设计。2025年完成$350M Series E融资,强调能效比和模型灵活性。在405B模型上实现129 tokens/sec的推理速度。 `🟢 3源` [NextPlatform](https://www.nextplatform.com/ai/2026/02/25/sambanova-pits-its-engineering-against-nvidia-for-agentic-ai/4092613) [SambaNova Blog](https://sambanova.ai/blog/sambanova-vs-groq) [SambaNova Blog](https://sambanova.ai/blog/sn40l-chip-best-inference-solution)
Broadcom (Custom ASICs, e.g. Google TPU)
— 为Google等超大规模客户定制AI ASIC芯片,chiplet架构正成为行业趋势。 `🟡 1源` [Medium](https://medium.com/@laowang_journey/comparing-ai-hardware-architectures-sambanova-groq-cerebras-vs-nvidia-gpus-broadcom-asics-2327631c468e)
全SRAM架构
Groq的LPU完全采用SRAM而非HBM,消除内存带宽瓶颈,实现确定性延迟——这是其核心技术差异化
推理速度
独立测试显示超过400 tokens/sec,约为传统GPU的10倍;吞吐量比GPU方案高4倍
编译器优先
通过自研编译器实现高效任务拆分和并行计算优化
应用场景限制
LPU主要优化推理(inference),在训练(training)场景中竞争力有限
量产风险
4nm制程芯片尚在生产规划阶段,大规模量产存在不确定性
客户集中度
OpenAI作为最大客户,客户过度集中可能带来收入波动风险
Growth metrics
Competitive narrative
Differentiators
Challenges and risks
Market position
Groq在AI推理芯片市场中占据独特地位——其LPU架构在推理速度和能效比上展现了显著的技术优势,使其成为NVIDIA GPU方案在推理领域的主要替代选择之一。2025年$6.9B的估值使其成为AI芯片初创公司中估值第二高的企业(仅次于Cerebras的$8.1B)。 2025年底NVIDIA以$200亿完成的acqui-hire交易是AI芯片行业的标志性事件——交易金额约为Groq最后估值的2.9倍,反映了NVIDIA对LPU技术在低延迟解码场景中潜力的高度认可。NVIDIA计划将Groq架构整合到Rubin推理平台,OpenAI已确认将成为首批大客户。这一布局使Groq的技术有望在未来几年内覆盖全球最大规模的AI推理工作负载。