是在显存容量、显存带宽以及GPU之间的通信速度上有差异而已……当然,只是这种差异就会导致在人工智能训练的时候表现出很大的差距。
为什么智云集团旗下英伟达品牌的X2显卡不适合用来训练AI?其核心处理单元数量上也不少,理论算力也很强悍,然而显存容量最大才16GB,显存带宽才32GB,GPU之间的互联技术只支持双卡互联,带宽才区区32GB……这就导致了显存带宽以及容量低,意味着训练效率低,而互联技术只支持双卡,带宽也才32GB,这意味着用户不能用这东西组成几千张显卡的GPU服务器阵列。
智云集团,直接就阉割了X系列里作为人工智能算力卡的可能性……要不然,大家都用一两万的X系列显卡训练AI,那么动不动十几万的APO显卡还怎么卖?
同样的,APO系列显卡和AI系列也存在同样的差距。
最新版本的APO4600显卡,和智云集团内部使用的AI5500显卡都是基于十二纳米工艺的芯片,晶体管数量其实都差不多,都是两百多一个晶体管,处理单元数量也类似
(前文多次出现了AI4500,这是写混了,这两个其实是同一种东西。都是采用十二纳米工艺的芯片,后续统一为AI5500)。
但是这两者的差异却是巨大的,主要体现在显存容量,显存带宽,GPU之间的互联带宽以及特殊生态支持上。
APO4600显卡,内存容量从之前上一代的24GB提升到了32GB,内存带宽提升到800GB,互联带宽则是提升到了500GB。
而自用的AI5500显卡,内存容量是80GB,内存带宽是1.6TB,互联带宽是1TB。
这三个关键数据最终体现到人工智能训练上,训练效率就会出现比较大的差异,并且这种差异在支持大规模人工智能训练的时候,会体现的越来越大。
因为大规模人工智能训练,比如Yun AI这种超大规模的生成式AI训练,可不是一台两台服务器就能搞定的,需要的是好几万甚至更多显卡组成的GPU服务器阵列来进行训练。
而数量越多的GPU组合到一起,其对内存带宽,互联带宽的要求就越高……要不然的话,算力是够用了,但是数据堵塞也没用。
以上这些是硬件上的巨大差异,除了硬件问题外,还有软件生态上的巨大差异。
AI系列显卡,为了适配智云集团自家的人工智能底层算法
本章未完,请点击下一页继续阅读!