黄仁勋侄女,拿出了大杀器-世界短讯
芯片领域的领跑与追赶,正变得愈加激烈。英伟达上个月刚发布了集成 256 个 GH200 芯片的 DGX GH200 超级计算机以及拥有2000 亿个晶体管的Grace Hopper 超级芯片,AMD这个月同样发布了震撼人心的芯片。
北京时间6月14日凌晨1:00,AMD在加利福尼亚州圣克拉拉举行的数据中心和AI技术首映会上,先是发布了Genoa-X EPYC 9084X系列数据中心处理器——Genoa-X系列最多96个Zen4核心,分为12个CCD,每个CCD上自带32MB原生三级缓存,并额外堆叠了64MB 3D缓存,12个CCD总的三级缓存达到1152MB。
这可是处理器缓存史上三级缓存第一次突破1GB!再算上6MB一级缓存(每核心独享64KB)、96MB二级缓存(每核心独享1MB),Genoa-X的缓存总量高达1254MB。
(资料图片)
AMD依然还是那家暴力的“农企”!AMD的处理器,正在数据中心市场围剿英特尔。
据调研数据,目前英特尔虽然还是数据中心市场老大,2022年的市场份额保持在了70.77%,但AMD追赶速度太快。2021年,AMD在数据中心市场的市场份额仅有11.74%,但2022年就几乎翻倍增长到19.84%。市场研究机构预测,2023年底,AMD的数据中心CPU市场份额就将达到30%左右,而2024年底时,将突破40%。市场份额突破50%,可能仅仅只在两三年内。
随着PC市场的萎缩,数据中心业务将成为CPU厂商们的主要营收来源。而随着挖矿、炒币等热潮的下降,对GPU厂商来说,大模型也成为了必争之地。
而AMD这次发布会上,更是重磅推出了直接瞄准大语言模型显卡市场的MI300X。
01
显存,越大越好
此前AMD曾宣布推出支持128GB内存的含有CPU与GPU的 MI300 APU(现在称为 MI300A),而这次,AMD 使用相同的设计生产纯 GPU 部件。
MI300X芯片是针对LLM的优化版,拥有192GB的HBM3内存、5.2TB/秒的带宽和896GB/秒的Infinity Fabric带宽。AMD将1530亿个晶体管集成在共12个5纳米的小芯片中。
AMD未公布其AI芯片的价格,但据分析,英伟达在每片晶圆可获得 63 个 H100 裸片,单片售价 3万美元,一片晶圆可获得 189 万美元的收入;而AMD在单个晶圆中可制造接近 600 个 MI300 GPU 小芯片,若单片售价1万美元,一片晶圆就可获得600万美元的收入。
这种Chiplets 制造方式的芯片,因为可以用比英伟达更低的价格出售,也让AMD有机会挤入市场。这一市场实在太过诱惑,但却几乎被英伟达通吃。不仅AMD眼馋,国内也有众多企业入局。Gartner数据显示,中国国内已经诞生了不少做GPU和加速芯片的厂商,具体包括海思、平头哥、地平线、寒武纪、燧原、壁仞、摩尔线程、天数智芯和墨芯等。
AMD能够反超英特尔,谁说就不能追赶上英伟达呢?
据知情人士透露,中国拥有云计算业务的互联网巨头们在今年春节后向英伟达公司下了大量订单,其中,字节跳动订购的GPU数量超过10亿美元,包括A100和H800型号,已到货和未到货的都有。其他中国科技巨头也在向英伟达下高额订单,但字节跳动的A100数最多,如果不算今年的新增订单,字节公司A100和前代产品V100的数量总计已接近10万块。
不管是自购显卡还是租用服务器算力,归根到底都离不开GPU。GPU是AI服务器中地位最高的组件,其价值量约占总价值的70%至80%,而CPU仅占约10%。
而在GPU中,内存或者说显存极为重要。大模型客户们正在以最快的速度抢购 GPU 和其他加速器,同时需要GPU支持更多内存来运行更大的模型。而发布会现场,MI300X演示了支持400亿个参数的Hugging Face AI模型运行,这是全球首次在单个GPU上运行这么大的模型。据透露,单个MI300X最高可以运行一个参数多达800亿的模型。
因此,能够提供使用8通道 HBM3 192GB内存的GPU,相比英伟达A100就具有理论上较大的优势。发布会上AMD还发布了AMD Instinct平台,它拥有八个MI300X,采用行业标准OCP设计,提供总计1.5TB的HBM3内存。苏姿丰表示,含有CPU和GPU的MI300A已经出样,MI300X和Instinct平台将在今年第三季度出样,第四季度正式推出。
02
一个好汉三个帮
虽然大模型显卡供应短缺,但并不是谁推出显卡,就一定能卖出去。
由于没有公开的大客户站台宣布决定使用AMD的芯片,新品发布当天,AMD股价反倒下跌超3.6%;而英伟达股价上涨近4%,收盘后市值又一次超过1万亿美元。
英伟达的显卡在大模型领域已经被openAI等企业用习惯了,AMD的显卡还有机会被客户使用吗?
AMD也深知客户背书的重要性,特意在发布会上,邀请亚马逊AWS、甲骨文云、Meta、微软Azure等客户的高管来到现场,分享在其数据中心使用AMD芯片及软件的感受。Meta 基础设施副总裁Alexis Björlin、PyTorch创始人兼 Meta 副总裁Soumith Chintala、Hugging Face 首席执行官Clement Delangue等人均上台作了演讲。
英伟达最大的优势,其实并不是硬件而是软件环境,是CUDA。CUDA 英文全称是Compute Unified Device Architecture,CUDA不是纯软件也不是纯硬件,属于软件+硬件架构统称,是一种并行计算架构和编程模型。通过 CUDA,程序员可以利用英伟达GPU的大规模并行计算能力,加速各种科学计算、图形处理和机器学习等应用。
有些用户就在reddit评论中指出,没有稳定的驱动程序,AMD的显卡在大模型市场就会一文不值。还有人指出,在AI芯片方面,AMD和英特尔只是站在一个华丽的舞台作着枯燥的芯片裸片分析(die shot)。但是客户需要的是应用程序、软件开发工具包(SDK)和示例,以便让程序员们尽快开始工作,并因为软件配套的完善而被绑定在这一生态系统中。
凭借CUDA,英伟达在科学计算、生物、金融等领域的推广牢牢把握着主流市场。相比英伟达显卡在人工智能、机器学习领域的统治地位,后来者AMD就得努力适应已经适应英伟达CUDA的开发者们。比如AMD在2016全球超算大会(SC16)上,推出新版Radeon开放计算平台(ROCm),作为通用开源平台,不仅可以基于ROCm翻译实现“CUDA兼容的AMD GPU”,还支持Cavium ThunderX CPU和IBM Power 8 CPU以及更多服务器CPU与OpenCL。
据了解,PyTorch 和Triton现在也针对 AMD MI300 进行了优化。发布会上,AMD还加入Hugging Face的硬件合作伙伴计划,从而在Hugging Face 社区为开发者提供最新的 AMD 平台进行训练和推理。
Hugging Face也表示,将与 AMD工程团队一起优化关键模型,以借助最新的 AMD 硬件和软件功能提供最佳性能,还会将AMD ROCm SDK无缝集成到开源库中,因为“开源意味着可以自由地从广泛的软件和硬件解决方案中进行构建”。
开源生态,正在和英伟达的CUDA生态正式开启对决。
毕竟,英伟达没有垄断所有的“铲子”。AMD的苏姿丰博士对人工智能发展同样志在必得:500亿美元收购赛灵思、19亿美元收购新创DPU芯片公司Pensando、加深与微软的合作等等举措,都对实现这一愿景具有战略意义。
据彭博社援引知情人士,微软正在提供财务支持以加强AMD研发AI芯片的努力,并与之合作开发代号为Athena的自研AI芯片。微软不仅出钱,据透露还派出了大量的软件专家来帮助 AMD 开发 AI对应的软件架构。
“我们对AI领域的机会感到非常兴奋——这是我们的首要战略重点,我们正处于AI计算时代的早期阶段,其采用和增长速度比近代以来任何其他技术都要快。”AMD首席执行官苏姿丰在5月的一次电话会上如此说道。
很多人津津乐道于AMD的“千年老二”地位,殊不知,英特尔尽管CPU第一,但GPU却无人问津;英伟达尽管GPU第一,但CPU却默默无名,很多人都不知道,英伟达还有CPU产品。
只有AMD,曾经在CPU领域与英特尔不相上下;在GPU领域相比英伟达也仅是略输一筹。而两个领域都能成为世界第二,这种左右开弓,更加难以做到。
甚至于,如果中国忽然有机会购买但只能购买一家美国芯片巨头,那AMD这个标的,价值一定比英特尔或者英伟达更大。
在充斥着高失业率、一会通胀一会通缩的各种负面信息中,不仅普通人的信心和预期受到影响,哪怕真实的经济状况没有这么糟糕,也会因为悲观的预期而发生“预期自我实现”。AMD在加州的这场发布会,给最近全球低迷的经济环境,也增加了更多科技的激情与亮色。
科技创新才是经济持续向好的保证。看看最近英伟达发布会上的高朋满座、苹果发布会后很多媒体狂热的逐帧解析,以及,AMD发布会上那行业老二冲向老大的满满斗志,看看加州硅谷以及北上广深杭成南武等国内众多城市的熙攘车流、写字楼灯光内秀——科技创新的脉搏,才是一个国家经济蓬勃发展的动力;而科技创新的你追我赶、从业者的信心与激情,更应该成为一个国家所有领域从业者的底色。
本文源自:亿欧网
作者: 陈俊一