📰 来源:36氪
作者 | 乔钰杰 编辑 | 袁斯来 硬氪获悉,北京容芯致远科技有限公司(以下简称“容芯致远”)近日完成天使轮数亿元融资。本轮由北京绿色能源和低碳产业基金与赛富投资基金领投,顺禧基金、富华资本、万利达集团、长江创新投、水木清华校友基金、梅花创投等跟投。云岫资本此前参与了公司种子轮投资,本轮继续跟投,并担任长期独家财务顾问。 AI浪潮下,算力需求激增,传统以CPU为中心的架构瓶颈愈发凸显:CPU成为数据调度与交互的核心限制,GPU之间通信效率不足,内存无法实现统一地址空间共享,整体算力利用率较低。 容芯致远创始人石旭毕业于清华大学电子工程系,在芯片设计与AI领域从业多年,接受硬氪采访时,石旭表示,“在实际部署中,典型的AI服务器配置需要多个CPU协同调度少量GPU,且随着规模扩大,CPU数量也需同步增加,系统复杂度与成本显著上升,这正说明传统架构难以适配AI时代的计算需求。” 基于此,容芯致远提出了以GPU为核心的AI计算体系——AGC(AI computer system with the GPU as its Core)架构。该架构打破以CPU为中心的传统模式,将GPU作为系统核心计算单元,CPU则转为外围控制组件。 通过这一重构,系统中GPU与CPU的比例(G:C)可由传统的约2:1提升至20:1甚至32:1,大幅释放GPU算力潜力。 系统层面,AGC架构进一步解决了内存一致性问题,支持单一操作系统统一管理多达64个GPU,实现全局地址空间共享,避免跨节点数据拷贝,从而在大模型训练与推理等场景中显著提升整体效率。 这一体系创新并非单点优化,而是涉及全栈重构,包括BMC管理、交换系统、通信协议、推理框架、连接器等多个层面。 石旭介绍,在核心技术实现上,容芯致远围绕算力稳定性与利用效率展开了系统性创新。在硬件监控层面,公司自研AI BMC系统,将传统3–5秒级的轮询机制提升至微秒级响应,可在GPU温度异常等风险出现时即时触发降频或休眠策略,从而显著提升系统安全性与整体能效。 在可靠性设计上,传统八卡服务器一旦单卡故障,往往需要整机停机维护,恢复周期长、成本高。而在AGC架构下,单机可实现多达20个GPU的冗余设计。配合自研混存技术,系统可构建约10TB的混合存储空间,对健康GPU的KV Cache进行实时缓存。一旦某张GPU发生故障,系统可在AI BMC的快速响应下,迅速调度冗余GPU接替任务,并通过统一内存地址空间直接访问原有数据,实现计算过程无缝衔接。 基于这一机制,容芯致远可实现GPU故障情况下的“任务不中断热插拔”(GPU RAID),将维护时间从约2小时压缩至约1分钟,同时显著降低运维成本。 互连层面,容芯致远推出Blue Link光互连方案,以Mini LED/MICRO LED替代传统激光光模块,在高温环境下具备更高稳定性,同时实现更高带宽密度与更长传输距离,突破了铜缆在带宽与距离上的物理限制。 生态策略上,容芯致远强调开放与兼容。石旭介绍称,由于显著降低了对CPU性能的依赖,其方案可适配龙芯、飞腾、海光等国产CPU,同时兼容主流GPU厂商产品,构建起更为开放的计算生态。相较部分仅支持自研芯片的封闭体系,这一路径具备更强的产业协同能力。 与此同时,公司牵头发起RISC-V智算体系生态联盟,联合产业链上下游厂商作为生态伙伴,通过深度合作与专利共享,推动相关技术标准化与国产化规模落地。 产品层面,容芯致远已形成两大产品体系。一类为强调灵活性的K系列,兼容全球所有PCIe标准GPU卡,面向私有化部署场景,兼顾灵活配置与数据安全,主要型号包括K2(两卡桌面型)、K4(四卡)及K10(十卡)、K20(二十卡)。 K20产品示例(图源/企业) 另一类为强调极致性能的AGC系列,通过定制化模组实现更高算力密度与系统效率,覆盖风冷,液冷及移动式等多种开放形态,支持多类特定GPU,代表型号包括AGC 64F(64卡风冷),AGC 64L(64卡液冷,提供21P算力与3T显存), AGC 32F(32卡风冷),AGC 16F(移动式16卡)及AGC 2(两卡工作站)。 AGC 64F产品示例(图源/企业) 商业模式方面,公司采取“自有品牌直销+OEM合作”的双路径策略,已与多家整机厂商展开合作,以联合方案形式推向市场。同时,公司推出子品牌Upchanger,并与中央美院联合打造,聚焦艺术与渲染等细分场景。 以下为访谈节选(部分内容经编辑): 硬氪:为什么容芯致远的AGC架构对国产卡非常友好? 石旭:传统以CPU为中心的架构,对CPU性能与生态依赖极高,这使得在实际部署中,很难将国产CPU与主流GPU体系有效结合,往往受限于数据交换能力与系统瓶颈,难以落地真正意义上的“全国产方案”。而AGC体系通过将GPU上升为系统核心,大幅降低了对C
本文转载自 36氪,版权归原作者所有。