8月14日消息,北极雄芯(Polar Bear Tech)官方宣布,历经近2年的设计开发,自主研发的启明935系列芯粒(Chiplet)已经成功交付流片,而且一次性投出两颗,一是通用型HUB Chiplet 启明935 ,二是原生支持Transformer全系算子的AI Chiplet 大熊星座 。

北极雄芯成立于2018年,由清华大学交叉信息研究院助理教授马恺声创办,清华大学姚期智院士创建的交叉信息核心技术研究院孵化发展,在西安、北京、天津、南京设立研发中心。

该公司致力于成为基于Chiplet的定制化高性能计算解决方案领航者,采用创新型的Chiplet异构集成模式,以通用型Hub Chiplet、功能型Functional Chiplet等模块为基础,针对不同场景支持灵活的封装方式,为广大高性能计算场景使用方提供低成本、短周期、高灵活性的解决方案。

2023年初完成测试并发布了国内首个基于Chiplet架构的 启明930 芯片,在国产封装供应链上成功完成了工艺验证;

同年,发布首个基于国内《高速芯粒互联标准》的D2D接口PB Link,为Chiplet独立开发组合大规模量产奠定了基础。

北极雄芯的启明935系列芯粒包括以 启明935 高性能通用HUB Chiplet为核心,以及 大熊星座 AI Chiplet和GPU Chiplet等功能型Chiplet的芯粒家族,基于车规级要求设计,灵活搭配,可快速生成面向自动驾驶、具身智能、AI推理加速等场景的终端产品。

启明935 高性能通用HUB Chiplet,基于多核ARM CorteX-A系列CPU核心,支持PCIe 5.0、LPDDR5,集成北极雄芯自主研发的车规级Zeus Gen2 NPU核心提供AI加速算力,还包含视频编解码模块、ISP模块、万兆网口及MIPI接口、信息安全及功能安全模块等,符合车规级设计要求。

4个独立的PB Link接口,芯粒互联带宽合计128GB/s,可与其他功能型芯粒拓展组合。

大熊星座 AI Chiplet基于自主研发的Zeus Gen2 NPU核心,不同核心既可独立运行,也可联合运行加速同一任务。

原生支持Transformer全部算子,带宽利用率高,支持INT4、INT8、INT16、FP16等计算精度,支持常见的卷积层、线性层、池化层和激活层,功能上支持常用检测、分类等模型,包括但不限于VGG、ResNet、Yolo等。

可有效支持PyTorch、TensorFlow、PaddlePaddle、ONNX等主流AI框架,在不同AI模型上实测平均利用率达到70%以上。

北极雄芯用于智能座舱领域的GPU Chiplet也在同步开发中,预计2025年中交付流片。

通过启明935 HUB Chiplet与不同数量的AI Chiplet灵活搭配组合,可形成不同算力档次的自动驾驶芯片,覆盖辅助自动驾驶、高速NOA、城市NOA、车路协同等自动驾驶算力需求。

未来加入GPU Chiplet组合后,可生成不同AI、GPU算力的舱行泊一体芯片,为下游OEM、Tier1提供智能驾驶解决方案,而且成本较低,灵活性更高。

基于启明935 HUB Chiplet及AI Chiplet异构集成的多颗自动驾驶芯片,已于2024年取得SGS、中汽研境内外ISO-26262 ASIL-B车规级双认证,是国内首个取得车规级认证的Chiplet产品,预计将于2024年底提供核心板交付下游开展适配工作。

基于启明935 HUB Chiplet与AI Chiplet组合的AI推理加速模组、加速卡,也可以广泛应用于边缘侧、端侧AI推理应用领域,包括AI推理一体机、工控机、机器人等,并支持70B的大模型推理加速。