正文咨询
英伟达明年AI芯片出货目标650万,GB200占比70%
发布日期:2024-04-01浏览量:436

【深铭易购】资讯:据外媒报道,对于英伟达(NVIDIA)不及之前推出的最强AI芯片GB200,有外资投行预测,英伟达明年的AI超级芯片出货目标为600~650万颗。其中,GB200预计将占据出货量的70%,而GH200则将占据30%的份额。

资料显示,GB200是由两颗B200 GPU与一颗Grace CPU芯片封装而成。在一颗B200芯片功耗高达1,000瓦至1,200瓦的情况下,GB200将首次采用水冷散热技术,这成为市场的焦点。最新的报告还分析了NVIDIA GH/GB200超级芯片的供应链情况。

报告指出,英伟达GB200服务器主要分为NVL36和NVL72两类,预计出货以NVL36为主。NVL36的机柜价格约为150~200万美元,而NVL72的价格则是NVL36的1.8倍。

就散热而言,每个GPU可能需要花费300美元,远低于市场预估的2000美元。然而,据市场传闻,GB200的整体散热方案可能需要4~8万美元,每个元件至少有4家供应商。尽管预估价格不会太高,但云端服务供应商(CSP)可能不会从每家供应商购买,或者要求完整的解决方案,因此供应商之间的竞争形势并不确定。

外资投行表示,英伟达自研的Grace CPU采用Arm构架。尽管之前CSP厂商考虑使用ASIC或x86构架,但自英伟达GTC 2024大会推出后,大多数CSP客户给予了积极回应。从性价比来看,每花费1美元能获得更好的算力,并且英伟达还将提供x86架构产品。

至于GB200系列的封装,目前仍主要采用台积电CoWoS技术。不过,外资表示,今年英伟达还将新增Amkor(艾克尔)和英特尔作为先进封装供应商,合计与台积电各占一半的份额。明年英伟达的出货目标为600~650万颗,其中使用GB200芯片的数量将占总出货量的70%,相当于约5.8-11.7万个机柜,今年约为400~450万颗。

GB200服务器的组装方面,外资表示,鸿海可能占据最大份额,纬创为Tier1,广达则属于Tier2。但CSP不会放弃ASIC,随着时间推移,性能未能大幅提升,ASIC的数量可能会减少。预计今年用于训练模型的GPU将转向推理模型,这可能导致ASIC的需求量下降。

外资强调,目前ASIC的主要客户是亚马逊AWS和谷歌,其他客户的表现相对较差。信骅最近提到通用服务器订单正在逐渐恢复,公司预计CSP客户可能会减少对前一代AI服务器的采购,等待GB200芯片的出货。因此,他们可能会先将今年的预算用于通用服务器的采购,这代表着H100既有ODM及ASIC AI供应链面临下修的风险。