算力在人工智能新一轮浪潮下重要性日益凸显。算力作为基础设施,支持着大数据和智能化应用,进而促进商品流通和交易的便捷性、高效性和智能化。而服务器作为计算的主要载体,构成了算力输出的源动力。近年来受到人工智能、自动驾驶、AIoT和边缘运算等新兴应用的推动,许多大型云服务商开始大量投入AI相关的设备建设,由此推动AI服务器和AI芯片的需求上涨。据TrendForce集邦咨询预测,到2023年,AI服务器的出货量将达到近120万台,年增长率为38.4%,占整体服务器出货量的近9%。到2026年,这个比例将上升至15%。#算力##服务器##AI服务器##芯片#AI服务器行业概览服务器系统是数字化基建产业的核心基础层领域,其市场主要面向AI服务器、通用服务器、存储服务器、边缘服务器等各类服务器。
资料来源:坤前其中,AI服务器在深度学习领域展现出了明显的优势,并已成为人工智能市场的核心力量。从下游应用的角度看,AI服务器的主要应用场景包括云端AI服务器、嵌入式AI服务器和边缘AI服务器。云端AI服务器主要用于大型机构的业务场景,如图像和视频处理、自然语言处理、智能客服等。嵌入式AI服务器则更多应用于工业自动化、智能制造、智能交通等领域。边缘AI服务器则在物联网、智能家居、智能安防等领域发挥关键作用。在架构形式上,AI服务器采用CPU+加速芯片的组合,这使得模型训练和推断更具效率优势。从AI服务器的产业链来看,其核心组件包括GPU、DRAM、SSD、RAID卡、CPU、网卡、PCB、高速互联芯片和散热模组等。通用服务器通常采用以CPU为主导的串行架构,更适用于逻辑运算。相比之下,AI服务器主要采用加速卡为主导的异构形式,更擅长进行大吞吐量的并行计算。尽管AI服务器通常只搭载1-2块CPU,但其GPU数量明显占优。根据GPU的数量,AI服务器可分为四路、八路和十六路服务器,其中八路AI服务器,搭载8块GPU,最为常见。
AI服务器在存储容量方面也相比传统服务器有了显著的提升。据TrendForce的统计数据显示,传统服务器的DRAM容量一般为500-600GB,而AI服务器的平均内存容量则达到了1.2-1.7TB,远超传统服务器。AI服务器的加速卡还配备了HBM,这种高性能内存的单服务器使用量目前已达到320-640 GB。随着AI模型复杂性的不断提高,对服务器DRAM、SSD和HBM的需求也将持续增长,以适应更大规模、更高速的数据处理和分析需求。
AI服务器市场格局和龙头在全球AI服务器下游市场中,78%的需求来自于全球8家科技大厂。2022年,北美四大CSP(微软、谷歌、亚马逊AWS、Meta)占据了全球AI服务器采购量的66%,而国内科技大厂(字节跳动、腾讯、百度、阿里巴巴)占据了11%。从国内AI服务器竞争格局来看,浪潮信息在市场份额上占据领先地位,占比约为47%,排名第一,其后分别是新华三、宁畅、安擎、坤前、华为等厂商。自2017年开始,浪潮信息、华为、中科曙光、华三、联想等服务器生产企业均在发力AI基础设施产品,其中GPU服务器成为各厂商的重点发力方向。华为更是持续打造全栈式AI解决方案能力,其智能计算平台和GPU服务器产品竞争力强劲。运营商方面,中国电信近期发布了AI算力服务器集采,其中G系列为国产服务器,占据了该批集采总计采购数量的近一半。从AI服务器产业链各环节来看,GPU的领先厂商为英伟达等国际巨头,国内厂商如寒武纪、海光等也在积极布局;内存和SSD的厂商主要包括三星、美光、海力士等,国内厂商如兆易创新、江波龙也在逐渐崭露头角;主板厂商以工业富联等为代表;服务器品牌厂商则以浪潮信息、紫光股份、中科曙光、中兴通讯等为主要代表。
结语AI服务器具有强大的计算能力和数据处理能力,可以支持各种复杂的人工智能算法和模型,当前已成为数据中心的核心基础设施。未来AI服务器有望满足更加复杂和多样化的人工智能需求,发挥重要的作用,同时为数字化转型提供强有力的支持。
暂无评论内容