英伟达最强芯片迟到是真的:美超微梁见后纬颖洪丽寗露口风
本文由半导体产业纵横(ID:ICVIEWS)综合
市场需求旺盛之际,英伟达真的掉链子了?
英伟达(NVIDIA)最新Blackwell架构AI芯片要到明年首季才会放量的传言是真的。美超微CEO梁见后6日在财报会议中表示,英伟达新芯片进度“似乎延迟一些”,为首家证实相关传言的AI指标大厂;纬颖董事长洪丽寗也透露:“确实有些放缓”。
业界日前传出,包括B200、GB200等英伟达全新Blackwell架构AI芯片因设计瑕疵或先进封装等问题,大量产出时间将由原订今年第四季度延至2025年首季,时程晚了一季,打乱相关AI厂商推出新品与营收挹注脚步,引发关注,相关传言就仅止于传言,当时并无厂商出面证实。
美超微、纬颖在AI服务器领域都极具份量,梁见后、洪丽寗这两位业界大咖均证实GB200迟到的传言,意味厂商们要靠英伟达地表最强AI芯片带来更多业绩的时间点还要等一等。但两人均同声表示,相关递延对自家公司出货不会有太大影响。
梁见后在美超微财报会议上回应分析师提问时表示,确实有听说英伟达或许有一些产品递延问题,但他强调,美超微将任何可能的延迟都视为正常。
梁见后认为,当厂商推出新技术时,有可能延迟是很正常的事,而美超微仍能向合作伙伴提供液冷解决方案,不会受到太大影响。
对于Blackwell产品的营收贡献时间点,梁见后预期,美超微7月~9月将不会有Blackwell解决方案出货量,10月~12月营收挹注也很小,真正放量得到明年1月~3月。
无独有偶,洪丽寗受访时也透露,确实听说英伟达Blackwell进度有些放缓,但一项新品或新技术推出的过程中,势必得经过许多设计或技术调整,出现递延情况很正常,纬颖原先就预期第四季度才会有相关营收贡献,因此也不会有太大影响。
纬颖先前预期,Blackwell架构AI服务器有机会在第四季度出货,预期第四季度AI营收占比将拉升至超过五成,Blackwell系列产品明年会有完整的全年度贡献。
美系外资认为,GB200产能下半年可能放缓,但预期将在2025年大幅扩张,估计2024年搭载GB200的AI服务器总出货量在40万~50万台间,较先前预估的超过60万台下修。
英伟达方面则拒绝评论相关传闻,仅表示先前就曾说过,Hopper需求非常强劲,Blackwell芯片已开始广泛送样,生产会照原定计划于下半年放量。
AI服务器产值大增
TrendForce发布的「AI服务器产业分析报告」指出,2024年大型CSPs(云端服务业者)及品牌客户等对于高阶AI服务器的高度需求未歇,加上CoWoS原厂台积电及HBM(高带宽内存)原厂如SKhynix(SK海力士)、Samsung(三星)及Micron(美光科技)逐步扩产下,于今年第2季后短缺状况大幅缓解,连带使得NVIDIA(英伟达)主力方案H100的交货前置时间(LeadTime)从先前动辄40-50周下降至不及16周,因此,TrendForce预估AI服务器第2季出货量将季增近20%,全年出货量上修至167万台,年增率达41.5%。
今年,大型CSPs(云端服务供应商)预算持续聚焦于采购AI服务器,进而排挤一般型服务器成长力道,相较于AI服务器的高成长率,一般型服务器出货量年增率仅有1.9%。而AI服务器占整体服务器出货的比重预估将达12.2%,较2023年提升约3.4个百分点。若估算产值,AI服务器的营收成长贡献程度较一般型服务器明显,预估2024年AI服务器产值将达1,870亿美元,成长率达69%,英伟达最强芯片迟到是真的:美超微梁见后纬颖洪丽寗露口风产值占整体服务器高达65%。
从AI服务器搭配AI芯片类型来看,来自北美CSPs业者(如AWS、Meta等)持续扩大自研ASIC,以及中国本土业者如:阿里巴巴、百度、华为等积极扩大自主ASIC方案,促ASIC服务器占整体AI服务器的比重在2024年将提升至26%,而主流搭载GPU的AI服务器占比则约71%。
就AI服务器搭载的AI芯片供应商分布来看,单看AI服务器搭载GPU,英伟达市占率最高、逼近9成,AMD(超威)市占率则仅约8%。但若加计所有AI服务器用AI芯片包含GPU、ASIC、FPGA(可编程逻辑阵列),英伟达今年市占率则约64%。
展望2025年市场对于高阶AI服务器需求仍强,尤其以英伟达新一代Blackwell(包含GB200、B100/B200等)将取代Hopper平台成为市场主流,此亦将带动CoWoS及HBM等需求。以英伟达的B100而言,其芯片尺寸将较H100翻倍,会消耗更多的CoWoS用量,预估2025年主要供应商台积电的CoWoS生产量规模至年底总产能可达550k-600k,成长率逼近8成。另以HBM用量来看,2024年主流H100搭载80GBHBM3,到2025年英伟达BlackwellUltra或AMDMI350等主力芯片,将搭载达288GB的HBM3e,单位用量成长逾3倍,随AI服务器市场需求持续强劲下,有望带动2025年HBM整体供给量翻倍成长。
*声明:本文系原作者创作。文章内容系其个人观点,我方转载仅为分享与讨论,不代表我方赞成或认同,如有异议,请联系后台。