账号:
密码:
最新动态
产业快讯
CTIMES/SmartAuto / 新闻 /
TrendForce:AI需求持续看涨 估2023年AI伺服器出货增近4成
 

【CTIMES / SMARTAUTO ABC_1 报导】    2023年05月29日 星期一

浏览人次:【2264】

AI伺服器及AI晶片需求同步看涨,TrendForce今(29)日预估2023年AI伺服器(包含搭载GPU、FPGA、ASIC等)出货量近120万台,年增38.4%,占整体伺服器出货量近9%,至2026年将占15%,同步上修2022~2026年AI伺服器出货量年复合成长率至22%。而AI晶片2023年出货量将成长46%。

/news/2023/05/29/1613088280S.png

TrendForce表示,NVIDIA GPU为AI伺服器市场搭载主流,市占率约60~70%,其次为云端业者自主研发的AISC晶片,市占率逾20%。观察NVIDIA市占率高的主要原因有3:

1. 目前不论美系或中系云端服务业者(CSP),除了采购原有的NVIDIA的A100、A800之外,下半年需求也将陆续导入新机种H100与H800,平均销售单价约为A100与A800的2~2.5倍,加上NVIDIA同时积极销售自家相关整机解决方案;

2. 且高阶GPU A100及H100的高获利模式也是关键,由於旗下产品在AI伺服器市场已拥有主导权的优势,依TrendForce研究H100本身的价差,也依据买方采购规模,将会产生近5,000美元的差异;

3. 下半年ChatBOT及AI运算风潮将持续渗透至各种专业领域,如云端/电商服务、智慧制造、金融保险、智慧医疗及智慧驾驶辅助等开发市场,同步带动每台搭配4~8张GPU的云端AI,以及每台搭载2~4张GPU的边缘AI伺服器应用需求渐增,预估今年搭载A100及H100的AI伺服器出货量年增率逾5成。

此外,从高阶GPU搭载的HBM来看,NVIDIA高阶GPU H100、A100主采HBM2e、HBM3。以今年H100 GPU来说,搭载HBM3技术规格,其中传输速度也较HBM2e快,可提升整体AI伺服器系统运算效能。随着高阶GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求皆逐步提升下,TrendForce预估2023年HBM需求量将年增58%,2024年有??再成长约30%。

關鍵字: TrendFoce 
相关新闻
TrendForce:车用PCB产值上扬 2022~2026年预计成长12%
TrendForce:伺服器供应链重组 云端大厂扩大分散基地避险
TrendForce:第一季晶圆代工产值季增8.2%
TrendForce:俄乌战争与高通膨夹击 第二季DRAM价格续跌0~5%
TrendFoce:2021年笔电面板出货创新高 达2.82亿片
comments powered by Disqus
相关讨论
  相关文章
» SiC MOSFET:意法半导体克服产业挑战的颠覆性技术
» STM32MP25系列MPU加速边缘AI应用发展 开启嵌入式智慧新时代
» STM32 MCU产品线再添新成员 STM32H7R/S与STM32U0各擅胜场
» STM32WBA系列推动物联网发展 多协定无线连接成效率关键
» 开启边缘智能新时代 ST引领AI开发潮流


刊登廣告 新聞信箱 读者信箱 著作權聲明 隱私權聲明 本站介紹

Copyright ©1999-2024 远播信息股份有限公司版权所有 Powered by O3  v3.20.1.HK8BP9EOSI2STACUK2
地址:台北数位产业园区(digiBlock Taipei) 103台北市大同区承德路三段287-2号A栋204室
电话 (02)2585-5526 #0 转接至总机 /  E-Mail: webmaster@ctimes.com.tw