AMD分享了一些有关RDNA3GPU和XDNANPU硬件在以消费者为中心的人工智能工作负载中的功能的有趣数据。
AMD的RDNA3GPU和XDNANPU在PC平台上提供强大的以消费者为中心的AI功能套件
毫无疑问,AMD通过在RyzenAPU上实施XDNANPU,在向更广泛的PC用户提供AI功能方面一直处于领先地位。第一个NPU于2023年与Phoenix“Ryzen7040”APU一起推出,最近又通过HawkPoint“Ryzen8040”系列进行了更新。除了NPU之外,AMD的RDNA3GPU架构还集成了大量可以处理这些工作负载的专用AI核心,并且该公司正试图通过其ROCm软件套件来巩固其势头。
在最新的“与专家会面”网络研讨会上,AMD讨论了RDNA3系列等Radeon显卡套件如何为游戏玩家、创作者和开发人员提供一系列优化的工作负载,其中包括:
视频质量增强
背景噪音消除
文本到图像(GenAI)
大型语言模型(GenAI)
图片修改
视频编辑
升级
文本到图像
模型训练(Linux)
ROCm平台(Linux)
AMD谈论RDNA3GPU和XDNANPU的AI功能:RadeonRX7800XTX比Ryzen78700G2快8倍
从AMDRDNA3图形架构开始,RadeonRX7000GPU和Ryzen7000/8000CPU上配备的最新GPU提供了超过2代的AI性能提升。
AMD谈论RDNA3GPU和XDNANPU的AI功能:RadeonRX7800XTX比Ryzen78700G3快8倍
这些GPU产品提供多达192个AI加速器,这些加速器针对FP16工作负载进行了优化,在MicrosoftDirectML、Nod.AIShark和ROCm等多个ML框架中进行了优化,并具有大型专用VRAM池,这对于处理大型数据集至关重要(高达48GB),并且还具有通过InfinityCache技术提升的更快带宽。
AMD谈论RDNA3GPU和XDNANPU的AI功能:RadeonRX7800XTX比Ryzen78700G4快8倍
AMD表示,PC平台上的大多数AI用例包括LLM和Diffusion模型,这些模型主要依赖于所运行硬件的FP16计算和内存功能。某些模型(例如SDXL(扩散))受计算限制,需要大约4-16GB内存,而Llama2-13B和Mistral-8x7B受内存限制,最多可使用23GB内存。
AMD谈论RDNA3GPU和XDNANPU的AI功能:RadeonRX7800XTX比Ryzen78700G5快8倍
如前所述,AMD拥有多种具有专用AI加速功能的硬件。即使该公司的RadeonRX7600XT(售价329美元)也拥有16GBVRAM,在性能方面,它比LMStudio中的Ryzen78700G提升了3.6倍,而RX7900XT则比RX7900XT快8倍。8700G。
AMD还与NVIDIA的GeForceRTX进行了一个小小的比较,绿色团队将其称为“PremiumAIPC”平台。两个系列都提供类似的支持,但AMD展示了其16GBGPU的售价较低,为329美元(7600XT),而NVIDIA最入门级的16GBGPU起价约为500美元(4060TI16GB)。该公司还拥有可扩展至48GB内存的高端堆栈。AMD此前也曾在AI方面以更好的价值展现出与英特尔CoreUltra相比的强劲性能。
展望未来,AMD讨论了ROCm6.0的进展情况,以及开源堆栈如何获得对RadeonRX7900XTX、7900XT、7900GRE、PROW7900和PROW7800等消费级硬件的支持。ROCm6.0在Ubuntu22.03.3(Linux)操作系统上支持PyTorch和ONNXRuntimeML模型和算法,并通过为更复杂的模型添加INT8来提高互操作性。
该公司还试图通过为开发人员提供一系列软件堆栈和硬件文档来使ROCm更加开源。