> 数据图表谁知道1.1、与GPU定位云端AI不同,NPU是端侧AI时代新需求2025-4-11.1、与GPU定位云端AI不同,NPU是端侧AI时代新需求◼ NPU是专门的神经网络加速器,主要用于AI相关计算加速。NPU(Neural Processing Unit)即神经网络处理单元,采用专门优化的神经网络计算架构,来处理特定的任务,主要被用于加速计算。通过对NPU硬件层面优化,能高效处理神经网络算法中矩阵乘法、卷积等数学运算。相较于GPU和CPU,NPU在AI计算上性能和能效有了明显提升,用来提高AI算法运行效率。◼ NPU最早来自FPGA,大厂持续更新迭代。早期NPU主要基于高度灵活性和可编程性的FPGA实现。2010年,斯坦福大学研究人员提出了一种基于FPGA的神经网络加速器,可以实现高效的神经网络计算,随后使用FPGA设计NPU成为趋势。2013年,谷歌论文中介绍一款名为“Tensor Processing Unit”(TPU)的定制ASIC芯片,推动NPU发展。2018年,华为随后也推出了Ascend NPU,其独特的“达芬奇架构”支持广泛的AI应用场景。后续苹果于2017年发布首款端侧NPU芯片A11。图表:CPU与NPU架构来源:IDC,中泰证券研究所8中泰证券工业制造