AI伺服器及AI晶片需求同步看涨,TrendForce今(29)日预估2023年AI伺服器(包含搭载GPU、FPGA、ASIC等)出货量近120万台,年增38.4%,占整体伺服器出货量近9%,至2026年将占15%,同步上修2022~2026年AI伺服器出货量年复合成长率至22%。而AI晶片2023年出货量将成长46%。
|
/news/2023/05/29/1613088280S.png |
TrendForce表示,NVIDIA GPU为AI伺服器市场搭载主流,市占率约60~70%,其次为云端业者自主研发的AISC晶片,市占率逾20%。观察NVIDIA市占率高的主要原因有3:
1. 目前不论美系或中系云端服务业者(CSP),除了采购原有的NVIDIA的A100、A800之外,下半年需求也将陆续导入新机种H100与H800,平均销售单价约为A100与A800的2~2.5倍,加上NVIDIA同时积极销售自家相关整机解决方案;
2. 且高阶GPU A100及H100的高获利模式也是关键,由於旗下产品在AI伺服器市场已拥有主导权的优势,依TrendForce研究H100本身的价差,也依据买方采购规模,将会产生近5,000美元的差异;
3. 下半年ChatBOT及AI运算风潮将持续渗透至各种专业领域,如云端/电商服务、智慧制造、金融保险、智慧医疗及智慧驾驶辅助等开发市场,同步带动每台搭配4~8张GPU的云端AI,以及每台搭载2~4张GPU的边缘AI伺服器应用需求渐增,预估今年搭载A100及H100的AI伺服器出货量年增率逾5成。
此外,从高阶GPU搭载的HBM来看,NVIDIA高阶GPU H100、A100主采HBM2e、HBM3。以今年H100 GPU来说,搭载HBM3技术规格,其中传输速度也较HBM2e快,可提升整体AI伺服器系统运算效能。随着高阶GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求皆逐步提升下,TrendForce预估2023年HBM需求量将年增58%,2024年有??再成长约30%。