创意活动策划网站,做网站收会员费,舆情系统排名,定制礼品公司今天分享的是AI算力系列深度研究报告#xff1a;《AI算力专题#xff1a;从超微电脑创新高看AI算力产业链高景气》。
#xff08;报告出品方#xff1a;太平洋证券#xff09;
报告共计#xff1a;10页 海外巨头指引 Al 算力产业链高景气
超微电脑业绩指引大幅上调反映…今天分享的是AI算力系列深度研究报告《AI算力专题从超微电脑创新高看AI算力产业链高景气》。
报告出品方太平洋证券
报告共计10页 海外巨头指引 Al 算力产业链高景气
超微电脑业绩指引大幅上调反映Al 算力需求强劲。1月 19日超微电脑(SMCI.US)表示由于市场和终端客户对其机架规模、人工智能和整体 lT 解决方案的需求强劲公司上调 202402指引此前预测 202402 销售额 27-29 亿美金此次指引大幅上调为 36-36.5亿美金反映 Al 算力需求强劲。同时基于对 Al 前景的长期看好超微电脑远期营收目标指引超过 200 亿美元。 Meta 将大力采购 H100 GPU 用于 Llama3 训练。Meta 公司首席执行官扎克伯格于 1 月 18 日 在社交媒体上宣布 Meta 目前正在训练下一代大语言模型 Llama3 并建设大型计算基础设施以支持人工智能的研究、开发和生产预计到 2024 年年底将拥有近 35 万个英伟达的 H100 GPU Meta 人工智能算力总和达 60 万个英伟达 H100 图形处理器。 0penAl 或将筹资全球性的半导体晶圆厂网络。据彭博社援引知情人士报道0penAl 首席执行官山姆·奥特曼(Sam Altman)正在谋划用数十亿美元资金建立一所具备一定规模的半导体晶圈厂。据彭博社报道奥特曼认为人工智能技术在未来几年将变得非常普遍足以支持自己的半导体供应链。此前据英国《金融时报》报道0penAl正在开发一种新的AI 模型该模型将是 GPT-4 的重大升级预计将于今年晚些时候发布。训练 GPT-4用了大约 25000块A100 GPU而训练GPT-5 还需要5万张H100。
AMD 大幅上调A|芯片市场规模预测。2023年12月7日在Advancing Al 大会上AMD CEO苏姿丰预测数据中心 A| 芯片的总市值将突破 450 亿美元远高于AMD 6月预测的 300 亿美元。到 2027 年市场将进一步扩张至 4000亿美元超过其先前预测的两倍有余。
AI 算力需求快速增长。大模型依赖高算力的支持模型需要的准确性越高训练该模型所需 的计算力就越高。以 ChatGPT 模型为例公开数据显示其所使用的 GPT-3 大模型所需训练参数 量为 1750 亿算力消耗为 3640PF-days(即每秒运算一千万亿次运行 3640 天)需要至少 1 万 片 GPU 提供支撑。据统计当模型参数扩大十倍算力投入将超过十倍模型架构、优化效率、 并行处理能力以及算力硬件能力等因素均会影响具体增加的倍数。 大模型需求带动下全球 AI 服务器市场规模有望快速增长。IDC 预计全球 AI 服务器市场规 模将从 2022 年的 195 亿美元增长到 2026 年的 347 亿美元五年年复合增长率达 17.3%;其中用 于运行生成式 AI 的服务器市场规模在整体 AI 服务器市场的占比将从 2023 年的 11.9%增长至 2026 年的 31.7%。 美国加大制裁力度算力国产化有望加速
美国出台新规限制中企利用美国数据中心训练A1 大模型。1月 27 日消息美国商务部长雷蒙多表示拜登政府将提议要求美国云计算公司确定外国实体是否正在访问美国数据中心以训练人工智能模型。雷蒙多称:“我们不能允许非国家行为者、中国或我们不希望访问我们云计算系统的人来训练他们的模型。我们对芯片实施了出口管制。美国云计算数据中心也大量使用芯片我们也必须考虑关闭这条可能涉及恶意活动的路径。”
国内智能算力需求快速增长。根据 IDC 测算结果显示2022年中国智能算力规模达 259.9每秒百亿亿次浮点运算(EFLOPS)2023 年将达到 414.1 EFLOPS预计到 2027 年将达到 1117.4EFLOPS。 英伟达占据国内 AI 加速卡市场八成以上份额。根据艾瑞咨询测算2022 年中国的 AI 芯片市场规模约为 385 亿元到 2027 年将有望达到 2164 亿元。据 IDC 数据2022 年中国 AI 加速卡公 开市场出货量约为 109 万张其中英伟达市占率为 85%华为市占率为 10%百度 2%、寒武纪和燧原均为 1%2023H1 中国加速芯片市场规模超 50 万张本土品牌出货量超 5 万张占比达 10%。 报告共计10页