AI大模型迎来风口 算力需求爆发
来源:峰值财经 发布时间:2023-06-13 浏览量:次
随着AI大模型的发展,全球算力供不应求,相关订单需求骤增。在此背景下,电信运营商等产业链企业力争超前部署。业内人士表示,AI大模型及下游应用爆发,将推动数字基础设施建设加快,芯片、服务器、数据中心、先进封装、算力租赁等领域迎来利好。
市场需求旺盛
AI大模型掀起新一轮人工智能应用热潮。百度、腾讯、华为、阿里等互联网巨头均发布了AI大模型产品,我国AI大模型产业化发展加速。科技部新一代人工智能发展研究中心日前发布的《中国人工智能大模型地图研究报告》显示,目前,中国和美国研发的大模型数量占全球总数的80%以上。其中,中国10亿参数规模以上的大模型已发布79个。
AI大模型应用规模呈爆发式增长,算力则体现了数据处理能力的强弱。随着国内外厂商加速AI大模型训练,接入用户数量激增,算力需求将迎来井喷。百度在一季度财报电话会议上称,截至一季度末,超过300家生态伙伴参与“文心一言”内测。
“全球AI训练所需的计算量呈指数级增长。”华为昇腾计算业务CTO周斌在2023中关村论坛上告诉中国证券报记者,大约每隔4个月,AI计算需求会翻倍。
据广发证券分析师李雪峰等人测算,随着国内生成对话式AI产品加速推广,在乐观假设下,国内AI大模型在训练与推理阶段或产生相当于1.1万台至3.8万台高端AI服务器的算力需求。以英伟达单片A100 GPU产品售价10万元、AI加速卡价值量占服务器整机约70%计算,则对应126亿元至434亿元增量AI服务器市场规模。
企业加快布局
目前,全球算力市场供不应求,专家预计未来GPU需求量会增至当前的3-5倍。随着GPU需求水涨船高,供应商开足马力加快生产。
6月8日,台积电宣布先进后端六厂正式启用,采用3DFabric技术。据了解,3DFabric技术主要由先进封装、三维芯片堆叠和设计三部分组成。通过先进封装,在单一封装中置入更多处理器及存储器,从而提升运算效能。
英伟达、AMD等全球芯片巨头纷纷发布AI芯片新品,把握市场机遇。英伟达日前发布NVIDIA DGX超级计算机技术,256个GH200超级芯片相连作为单个GPU运行,助力大负载巨型AI大模型开发。
政策与企业合力推动算力市场发展。6月2日,上海临港新片区发布《临港新片区加快构建算力产业生态行动方案》,同时中国电信临港算力智算公共服务平台暨国产GPU创新联合基地和新片区智算产业联盟成立,搭建智算产业交流平台。据了解,位于临港新片区的商汤人工智能计算中心(AIDC)已有接近3万块GPU,可以支持20个千亿参数超大模型同时训练。
北京市经信局日前出台的《北京市加快建设具有全球影响力的人工智能创新策源地实施方案(2023—2025年)》提出,积极引导大模型研发企业应用国产人工智能芯片,加快提升人工智能算力供给的国产化率;提升算力资源统筹供给能力,分别在海淀区、朝阳区建设北京人工智能公共算力中心、北京数字经济算力中心,组织商业算力满足北京市紧迫需求,建设统一的多云算力调度平台。
6月5日,中国信通院联合中国电信共同发布我国首个实现多元异构算力调度的全国性平台——“全国一体化算力算网调度平台(1.0版)”,可实现跨资源池、跨架构、跨厂商的异构算力资源调度,目前已经接入天翼云、华为云、阿里云等。
相关产业链受益
AI芯片和服务器市场空间广阔。国泰君安证券认为,在政策与需求的双轮驱动下,中国AI芯片厂商正在奋起直追,尤其是在ASIC(专用集成电路)路线上加大投入。目前,国内已经涌现出寒武纪、华为昇腾、海光信息、燧原科技等优秀AI芯片厂商,AI算力性能显著提升,未来有望实现超预期发展。
先进封装有望量价齐升。中信证券认为,AI算力需求将推动先进封装技术与数据中心建设进一步发展。目前,国内先进封装相关厂商包括通富微电、长电科技、甬矽电子、华天科技等。
业内人士表示,以公有云方式部署的算力租赁市场前景广阔。未来将有更多垂直行业形成“小模型”及各类应用,而算力租赁成本较低,部署更加便利,易获中小企业青睐。
中信建投表示,AI大模型训练和推理运算所用的GPU服务器功率密度将大幅提升。相比自然风冷,液冷具备明显优势。在需求推动下,浪潮信息、中兴通讯等服务器厂商大力布局液冷服务器产品,产业化进程有望加速。长城证券认为,AI算力需求景气度高,以运营商为主的基础设施底座及上游配套设施、服务器等环节有望受益。