AMD多年来一直投资数据中心加速器市场。随着生成式人工智能和法学硕士的出现,训练和推理对更高计算性能的需求大师呈指数级增长。GPU是实现生成式AI的核心,目前AMD Instinct™ GPU为许多最快的超级计算机提供支持,这些超级计算机正在使用AI加速癌症研究或创建具有所有亿参数的最先进的法学,供全球科学界使用。 AMD Instinct MI300A 加速器基于创新的 AMD CDNA 架构,并针对百亿级性能和能效进行了优化,是全球包装适用于 HPC 和 AI 的加速处理单元(APU),提供 24 个“Zen 4”CPU 内核和 128 GB HBM3 内存,在 CPU 和 GPU 之间共享,从而实现极高的性能。 AMD Instinct™ MI300X GPU 是一款 1530 亿个晶体管加速器,其性能专为未来的人工智能计算而设计。AMD Instinct MI300X GPU基于与AMD Instinct MI300A加速器相同的平台,以生成式AI加速为核心进行了重建。AMD Instinct MI300X GPU 去掉了三个 AMD EPYC™ 处理器计算芯片,转而使用两个额外的 GPU 小芯片,将平台内存增加了 64 GB,HBM3 总数达到惊人的 192 GB;这是竞争对手产品密度的 2.4 倍,5.2 TB/s 的内存带宽相当于竞争对手产品带宽的 1.6 倍。1 新的AMD Instinct平台还依托数据中心客户能够在行业标准设计中组合多达8个AMD Instinct MI300X GPU,一个简单的嵌入式解决方案,可提供高达1.5 TB的HBM3内存。AMD ROCm™是一个开放且经过验证的软件平台,拥有语言开源、编译器、库和工具,AMD Instinct MI300X加速器的加入是一次强大的AI基础升级设施。 用于AI加速的处理器人工智能的成功从云端边缘到端点的多个人工智能引擎。除了AMD Instinct加速器之外,AMD EPYC处理器还支持数据中心中的各种AI工作负载,提供基于TPCx-AI等行业标准基准的具有对比的性能,TPCx-AI可轻松实现10个不同例子和许多不同算法的端到端AI管道性能。2 每个第四代AMD EPYC处理器都拥有多达96个核心,现成的服务器可以加速许多数据中心和边缘应用程序,包括客户支持、零售、汽车、金融服务、医疗和制造。 AMD AI 产品组合中的其他产品AMD 最近推出了适用于消费类和体验 PC 的 AMD Ryzen™ 7040 系列处理器,其中包括全球基于 x86 处理器的专用 AI 引擎。这 3 款全新 AI 器采用 AMD XDNA 技术,每秒可运行高达 10 万亿次 AI 操作 (TOPS),提供无缝的 AI 以及极高的电池寿命和速度,为用户的未来加速 AI装备。 客户还在许多行业中使用 AMD Alveo™ 加速器、Versal™ 自适应 SoC 和领先的 FPGA,例如航空航天业(NASA 的火星探测器可以加速基于 AI 的图像检测)或汽车业(其中电动驾驶辅助和高级安全功能使用 AMD 技术)。AMD 技术还支持工业应用中的人工智能辅助机器人,并推动医疗应用中更快、更准确的诊断。 AMD 启用开放生态系统以加速创新除了提供能够处理最苛刻的人工智能工作负载的硬件产品组合外,AMD 还致力于推动开放且可访问的人工智能软件。开发人员和合作伙伴可以利用 AMD 软件工具来优化 AMD 硬件上的 AI 应用程序。如今,该堆栈包括用于 AMD Instinct GPU 加速器的 AMD ROCm;适用于自适应加速器、SoC 和 FPGA 的 AMD Vitis™ AI;以及适用于 AMD EPYC 处理器的 AMD ZenDNN 开源库。 AMD 还正在构建一个包含硬件和开放软件、工具、库和模型的 AI 生态系统,以帮助降低开发人员和研究人员的进入壁垒。最近的两个例子包括 AMD 与 PyTorch 基金会和 Hugging Face 的合作。 今年早些时候,流行的人工智能框架 PyTorch 推出了 2.0 稳定版本,代表着向前迈出的重要一步,为用户释放了更高的性能。作为 PyTorch 基金会的创始成员,AMD 很高兴 PyTorch 2.0 版本包含对 AMD ROCm 开放软件平台支持的 AMD Instinct 和 AMD Radeon™ 显卡的支持。 Hugging Face 是领先的开源人工智能平台,拥有超过 500,000 个可用模型和数据集,宣布与 AMD 进行战略合作,优化 AMD 平台的模型,为客户在个人和商业应用程序中使用的数千个法学硕士提供最大的性能和兼容性。AMD 还将通过 Hugging Face 及其用户提供的模型来优化其产品,以提高性能和生产力。此次合作将为开源社区提供加速人工智能创新的绝佳端到端选择,并使开发者能够更广泛地使用人工智能模型训练和推理。 概括AMD 使 AI 的优势无处不在,使客户能够轻松应对 AI 部署,并提供可扩展至各种应用的解决方案,从使用 AI 引擎的处理器和自适应 SoC,到边缘推理,再到数据中心的大规模 AI 推理和训练。 |
|