91吃瓜网

用于云计算的 AI 加速器 IP

AI 加速器为深度学习工作负载(包括训练和推理)处理大量数据,因而需要大内存容量、高带宽和贯穿整个系统的缓存一致性。AI 加速器 SoC 设计提出众多要求,包括高性能、低功耗、缓存一致性、可扩展为具有许多内核的集成高带宽接口、异构处理硬件加速器、可靠性-可用性-可维护性 (RAS) 和大规模并行深度学习神经网络处理能力。Synopsys 提供 DesignWare IP 产物组合,采用先进的 FinFET 工艺,满足 AI 加速器的专业化处理、加速和内存性能要求。如需了解详细信息,请访问 用于 AI 的 DesignWare IP&苍产蝉辫;网页。

内核 AI 加速器

Core AI Accelerator - Cloud Computing

边缘 AI 加速器

Edge AI Accelerator - Cloud Computing

亮点:

  • 支持系统性能高达 6400 Mbps 的 DDR 内存接口控制器和 PHY,与计算分流引擎以及网络和存储 I/O 资源共享主内存
  • HBM2/2E IP 能以超低功耗实现运算速度高达 3.6Gb/s 的高内存吞吐量
  • 全套&苍产蝉辫;USB IP 解决方案&苍产蝉辫;在减少面积的同时降低了工程设计工作量
  • CCIX IP 解决方案支持高达 32 Gbps 的数据传输速率和缓存一致性,以获得更快的数据访问
  • 极高带宽和极低延迟&苍产蝉辫;Compute Express Link (CXL) IP 解决方案支持 CXL 1.0、1.1 和 2.0 规范、所有三种 CXL 协议(CXL.io、CXL.cache、CXL.mem)和相关设备类型
  • NRZ 和 PAM-4  56G 和 112G 以太网 PHY 可用于符合 IEEE 标准、高达 400G/800G 的超大规模数据中心 SoC 和可配置控制器
  • HBI 和 USR/XSR IP 解决方案运用每通道高达 112G 的高速 SerDes PHY 技术和支持每引脚 4Gbps 的宽并行总线技术,实现可靠的裸片到裸片连接
  • 支持高达 32GT/s 数据速率的高性能、低延迟 PCI Express 控制器和 PHY&苍产蝉辫;,可满足实时数据连接要求
  • 高度集成、基于标准的&苍产蝉辫;安全 IP&苍产蝉辫;解决方案可实现超高效的硅设计和超高级别的安全
  • 低延迟、采用标准和超低漏电的嵌入式存储器库,为 SoC 提供能效和性能效率的基础