> **来源:[研报客](https://pc.yanbaoke.cn)** # AIDC供电三重挑战下,SST率军突围 分析师:贺朝晖 S0910525030003 周涛 S0910523050001 2026年1月18日 # 核心观点 全球智算中心快速发展,能耗需求爆发式增长。截至2025年7月,全国智算总规模达78万Pfops,位居世界第二。同时,算力扩张导致能耗激增:2024-2030年数据中心用电量将达4051亿~5301亿千瓦时,其中2025年AIDC能耗预计为777亿千瓦时,电力约束日益严峻。 $\diamond$ 供电体系面临三重困境,产业升级压力大。1)供电稳定性:现有供电体系难以适应智算中心负载波动(波动率高达 $50\%$ ),且柴发备电受环评趋严、排放问题与容量限制等制约。2)成本控制:运营成本中,电费占 $57\%$ ,远超折旧、房租及人工费等,成为绝对主导项。3)碳排放管理:政策要求新建数据中心绿电占比超 $80\%$ ,但当前仍有 $63\%$ 的数据中心PUE在1.2以上。此外,国内企业技术较弱,国际企业主导核心专利与市场,国内企业成本压力大。 $\diamond$ 多元能源与柔性调度助力算电协同。为突破电力约束,需构建“光伏+风电+储能+核能”多元能源网络。同时,通过动态调节GPU频率、跨数据中心任务迁移等方式挖掘算力灵活性,并推广液冷、余热利用(如ORC发电)等技术降低PUE,提升能效。 $\diamond$ 供电架构逐步进阶,SST有望成为终极解决方案。供电架构从UPS向高压直流(HVDC)、巴拿马电源及固态变压器(SST)升级。根据台达,SST方案的系统效率可以达到 $98.5\%$ ,单功率柜输出功率达1MW,占地面积大幅减小,完美适配新一代智算中心需求,有望成为终极解决方案。据测算,2030年国内AIDC新增装机量达17.7GW,SST市场空间约132.7亿元,2024-2030年复合增长率 $64.9\%$ 。 $\diamond$ 投资建议:建议关注:1)SST技术龙头:四方股份、中国西电、金盘科技、特变电工;2)800V HVDC系统:中恒电气、科华数据、禾望电气;3)AI服务器电源:麦格米特、欧陆通、爱科赛博;4)固态断路器:泰永长征、良信股份。此外,关注新特电气、新风光、盛弘股份、双杰电气等潜在标的,以及布局功率半导体与上游材料的云路股份、三安光电、英诺赛科等。 $\Leftrightarrow$ 风险提示:技术迭代风险、政策变动风险、市场竞争加剧风险。 智算中心成核心算力载体,能耗需求爆发式增长 AIDC三重挑战:生存、经营与发展的全维度制约 03 以算电协同为核心,多维度突破约束 技术路线分化与生态协同,引领可持续发展 05 投资建议 风险提示 # 1.1 智算中心建设加速,主导算力基础设施转型 $\diamond$ 全球范围内,人工智能正在重塑经济与产业格局,成为推动全球数据中心扩张的核心动力。而数据中心电力需求增速正迅速赶超传统工业,成为能源系统转型不可忽视的关键变量。 $\Leftrightarrow$ 数据中心能耗巨大。未来,政策上将从能耗总量和强度双控,向碳排放转变。特别是在枢纽节点,“源-网-荷-储”项目的整体统筹规划,绿色数据中心,零碳园区的新技术应用将不断演进。 2025数博会最新数据显示,截至2025年7月底,全国智算总规模78万Pfops,位居世界第二。预计2025年底,数字经济增加值有望达到49万亿元左右,占GDP比重将达到 $35\%$ 左右。数字经济核心产业增加值占GDP比重,将提前完成“十四五”规划目标。 大模型数据需求海量增长 <table><tr><td>主体</td><td>时间</td><td>大模型</td><td>数据量</td></tr><tr><td>OpenAI</td><td>2018</td><td>GPT-1</td><td>4.6GB</td></tr><tr><td>Google</td><td>2023</td><td>PaLM2</td><td>3.6万亿tokens</td></tr><tr><td>Google</td><td>2023</td><td>Gemini</td><td>3.3万亿tokens</td></tr><tr><td>OpenAI</td><td>2023</td><td>GPT-4</td><td>约40000GB 13万亿tokens</td></tr><tr><td>Meta</td><td>2024</td><td>Llama 3</td><td>超15万亿tokens</td></tr><tr><td>通义千问</td><td>2025</td><td>Qwen2.5Max</td><td>超20万亿tokens</td></tr></table> 2020-2025年大模型训练算力(FLOP)增长趋势 # 1.2 算力扩张驱动能耗激增,电力约束凸显行业瓶颈 $\diamond$ 据数据中心大会暨展览会数据,从用电总量看,数据中心用电增长显著。狭义口径(仅IT设备)下,2024-2030年用电总量将达4051亿千瓦时,年复合增长率 $16.1\%$ ;广义口径(含数据传输网络)则达5301亿千瓦时,占全社会用电量 $3.1\%$ ,贡献用电增量 $11.4\%$ 。其中,AI数据中心(AIDC)成为能耗焦点,2025年AIDC能耗将达777亿千瓦时,单机柜功率密度从20-50kW向100kW以上跃升,算力扩张对电力的需求呈爆发式增长。 $\Leftrightarrow$ 电力约束方面,区域布局优化的“东数西算”工程也面临挑战。西部数据中心虽在算力布局中占比提升,但存在绿电消纳压力,西部枢纽需配套储能 $/ \mathrm{H}_{2}$ 技术解决风光出力波动性,保障数据中心24小时稳定供电,增加了电力供应的复杂性。同时,绿电直供依赖输配电网改造,且液冷等节能技术初始投资较高,在政策执行与成本平衡上存在困难,需财税/绿色金融支持(如设备更新专项资金),进一步凸显电力约束对行业发展的制约。 未来十年核心指标对比(2025vs2030) <table><tr><td>指标</td><td>2025年目标</td><td>2030年展望</td></tr><tr><td>电能利用效率(PUE)</td><td>≤1.25(新建大型)</td><td>国际先进水平</td></tr><tr><td>整体上架率</td><td>≥60%</td><td>持续优化</td></tr><tr><td>国家枢纽节点绿电占比</td><td>>80%</td><td>>90%</td></tr><tr><td>数据中心用电占比</td><td>未明确</td><td>3.1%(全社会)</td></tr><tr><td>算力规模年复合增长率</td><td>未明确</td><td>38.9%(2024-2030)</td></tr></table> 资料来源:数据中心大会暨展览会,华金证券研究所 # 1.3行业趋势:数据中心单机柜功率密度升级 $\diamond$ 算力增长速度远远慢于算力需求的增长速度,算力裂谷越来越大。根据华为《AIDC白皮书》,预计到2028年,模型参数将达到数百万亿~数千万亿,如此大规模的模型训练需要算力规模和能力的进一步突破。 $\diamond$ AIDC算力密度增长带来功率密度的急剧攀升,给供电、散热及布局等带来极大挑战,正在重塑数据中心能源基础设施。随着数据中心用电量的飙升,尤其是当单个数据中心用电量跃升至200MW乃至500MW以上时,城市现有电力基础设施的瓶颈日益凸显。如OpenAI的“星际之门”项目,预计就会产生高达数千兆瓦的电力需求。 智能时代加速而来,算力裂谷越来越大 不同时代数据中心机柜的典型功率 智算中心成核心算力载体,能耗需求爆发式增长 AIDC三重挑战:生存、经营与发展的全维度制约 03 以算电协同为核心,多维度突破约束 A 技术路线分化与生态协同,引领可持续发展 05 投资建议 06 风险提示 # 2.1 数据中心能源管理,面临三重挑战 数据中心的用电量呈现出爆炸式增长,这使得算力的尽头直指电力供应。面对庞大用电需求,数据中心的能源管理陷入三重困境,经调研企业认定的困境按其普遍程度排列如下: $\Leftrightarrow$ 供电稳定性( $93\%$ ):供电稳定性是亟待解决的难题,持续稳定的电力供应是保障数据中心正常运行的关键,任何一次电力中断都可能导致数据丢失、业务停滞等严重后果。供电稳定性挑战源于三重叠加因素:智算中心负载波动应对能力、可再生能源接入稳定性和柴发备电供应及环评问题; $\Leftrightarrow$ 成本控制( $85\%$ ):数据中心运营成本中,电费占比高达 $57\%$ 。不断攀升的用电成本给数据中心的运营带来了沉重负担,数据中心管理者必须在满足用电需求的同时有效控制成本。 $\diamond$ 碳排放管理(77%):2024年7月《数据中心绿色低碳发展专项行动计划》,明确提出推动数据中心绿色低碳发展,加快节能降碳改造和用能设备更新。在全球对环境保护日益重视的背景下,数据中心的碳排放管理也备受关注,数据中心需要降低碳排放,实现绿色可持续发展。 中国数据中心用电量需求预测 施耐德电气商业价值研究院2025数据中心行业调研 供电稳定性 成本控制 碳排放管理 # 2.1 供电体系适配不足,难以承载高密算力波动 现有供电体系无法满足智算中心功率波动性强的需求。 $\diamond$ 智算中心本身负载波动对能源供应的稳定性和可靠性要求高。负载突增突减,智算AI集群计算与集群通讯模式导致智算中心功率不再是稳定负载,集群小时级波动率是云计算的10倍,高达 $50\%$ 。 $\diamond$ 根据国家发改委《数据中心绿色低碳发展专项行动计划》:到2025年底,算力电力双向协同机制初步形成,国家枢纽节点新建数据中心绿电占比超过 $80\%$ 。大量可再生能源(如风电和光伏)受天气、季节影响会带来能源供应的不稳定性,进而导致电压和频率波动。 AIDC波动率示意图 $\Leftrightarrow$ 据调研,虽然目前 $97 \%$ 的企业仍以柴发为主要备电方式,但是 $56 \%$ 的企业认为柴发备电面临“环评趋严,排放问题(如污染物和二氧化碳排放)、噪音污染等问题突出”, $46 \%$ 的企业认为“变压器容量受限,导致柴发发电量有限”,担心燃料存储和泄露风险的企业也达 $28 \%$ 。用于增强供电稳定性的柴发备电前景不被看好。 # 2.2 能源成本占比过高,拖累产业盈利水平 $\Leftrightarrow$ 数据显示, 从2022年到2026年, 全球数据中心电力消耗将从460太瓦时 (TWh) 增长至近1000太瓦时 (TWh), 随着算力需求持续增长, AIDC规模会不断扩大, 对电源管理产品在数量和性能上的需求都会稳步上升。在机柜里, GPU、CPU功耗从不足1kW提升到1kW, 甚至超过2kW; 而整个机柜的功耗, 从60kW提升至150kW。这意味着AI服务器对于电力供应有着极高要求, 需要采用恰当的方式去提高效率。 $\Leftrightarrow$ AI服务器对电源管理产品提出了更严苛的技术要求。比如,整机架功率迈入兆瓦级,PSU单机功率突破10kW;二次电源频率升至MHz,功率密度超5kW/in³;高压直流、固态变压器、垂直供电等新型架构得到采用。目前一台典型的AI服务器机架,功耗可以达到150kW。但据预测,将来其功耗可以达到800kW,甚至1000kW。 数据中心运营阶段成本构成 $\Leftrightarrow$ 数据中心耗电量巨大,运营成本中,电费占 $57\%$ ,远超折旧( $25\%$ )、房租( $8\%$ )及人工费( $4\%$ )等,成为绝对主导项。因此在如何满足高算力需求的同时,控制能源成本、降本增效成为数据中心行业管理者的关切所在。 # 2.3 碳减排压力传导,倒逼产业模式升级 $\diamond$ 国家多项将“能源数字化适配”纳入城市数字底座建设范畴,人工智能数据中心(AIDC)作为数字城市的算力核心,其高能耗、高稳定性需求与储能技术深度绑定,绿色转型为AIDC储能提供了战略定位。2025年以来,多部门政策形成“组合拳”。绿电消纳要求:《关于促进可再生能源绿色电力证书市场高质量发展的意见》明确,国家枢纽节点新建AIDC到2030年绿电消费比例不低于 $80\%$ ,鼓励通过储能提升可再生能源消纳能力。绿色数据中心标准:《2025年度国家绿色数据中心推荐工作通知》要求数据中心可再生能源利用率达标,并将储能、氢能技术纳入加分项。城市能源转型:《数字化绿色化协同转型工作要点》提出,推动AIDC等数字设施“零碳发展”,储能成为配套标配。 $\diamond$ 当前仍有 $63 \%$ 的数据中心PUE在1.2以上,高PUE带来沉重的运营成本负担、阻碍业务发展和碳排放增加,与政策法规引导和企业ESG管理需求不符。以谷歌、微软为代表的全球互联网公司已提出碳中和时间表,中国数据中心企业中已有至少12家提出了碳中和目标。据统计 $56 \%$ 的企业表示会受到来自政策法规和企业ESG管理的碳排放管理压力。 智算中心成核心算力载体,能耗需求爆发式增长 AIDC三重挑战:生存、经营与发展的全维度制约 03 以算电协同为核心,多维度突破约束 A 技术路线分化与生态协同,引领可持续发展 05 投资建议 06 风险提示 # 3.1 构建多元互补能源网络,破解供给约束 在理想状态下,算电协同要求上层、中层和底层各个要素之间达到完美的协调,以实现资源的最优配置和系统的高效运行。但当前算电协同仍面临诸多挑战,当前的算电协同项目主要有两种模式。 $\diamond$ 多元化的能源供给,即引入光伏、风电、储能、核能等新型能源形式,在保障用电稳定性的前提下,尽可能消纳绿电,减少碳排放,引入光伏、风电等新能源,优化能源生产与分配,提升供电的灵活性和稳定性。通过降低来自电网的能源成本或以低于电网电源的成本来生产能源来进一步降低数据中心的能源成本。56%的数据中心已使用新能源,最常见的方式是通过部署分布式新能源(40%)。 $\diamond$ 算力需求侧的灵活性挖掘。通过预测算力需求及功耗,具体包括挖掘IT负载灵活性、并对非IT负载开展节能优化,使算力资源高效利用,且主动参与电力供需平衡,助力算电协同效能提升。 储能系统成为未来AIDC供电系统标配 数据中心厂商IT功率及绿电使用占比 # 3.1 构建多元互补能源网络,破解供给约束 $\diamond$ 当前,数据中心从电力供给侧参与算电协同的模式仍处于探索阶段,各方正积极寻求更高效、稳定的能源解决方案。在这一背景下,以下三种模式,根据数据中心的算力需求、场地条件、能源资源禀赋等特点为前提,以其各自独有的优势正在受到关注。数据中心作为能源和电力关键用户还必须具备能源快速调度与管理、协同电网、稳定系统运行和优化能碳费用管理等能力,这就需要数据中心具备智能化感知与系统管理能力,借助数字化系统的智能预测和优化技术,提升整体能源管理效能。 <table><tr><td></td><td>综合能源基地模式</td><td>分布式能源或微电网模式</td><td>虚拟电厂与市场交易模式</td></tr><tr><td>简述</td><td>在大型能源基地内整合多种能源形式(如光伏电站、风电场站、储能电站、小型核电等),通过智能调度系统实现能源的稳定供应和高效利用</td><td>利用园区内光伏、小型风电、储能等分布式能源设施,为数据中心提供更灵活的供电,提升数据中心用能稳定性和经济性,并提高绿电就地消纳率</td><td>通过虚拟电厂聚合分布式能源、储能和负荷资源,作为独立市场主体参与电力市场交易,实现能源优化配置和成本控制</td></tr><tr><td>特点</td><td>多能互补、智能调度、大规模消纳绿电、降低用能成本</td><td>灵活性高、自给自足、减少对外部电网依赖、降低能源成本、增强绿色属性</td><td>资源整合、市场机制、灵活调整能源供应策略</td></tr><tr><td>适用场景</td><td>能源资源丰富的地区,大型数据中心基地</td><td>中等规模数据中心,具备一定空间资源部署条件的园区等</td><td>分布式能源资源丰富的区域,特别是在能源市场活跃的地区</td></tr></table> 各数据中心模式对比 # 3.2 建立柔性调度体系,提升资源配置效率 $\Leftrightarrow$ 电力供给侧的创新为算电协同奠定了基础。此外,算力需求侧主导的算电协同,目前正在得到广泛重视。通过充分挖掘数据中心算力系统中蕴含的负荷灵活性,包括IT负载的灵活性挖掘和非IT负载的能效优化,以此来实现能源效率与电力成本的优化。 $\diamond$ 算力需求具有灵活性,在数据中心内部,通过对IT服务器GPU工作频率进行动态调整,可以使其匹配用电信号,从而实现IT负载的灵活性挖掘。具体做法包括:i预测算力需求及功耗:利用人工智能模型,根据历史数据和实时数据,预测未来的算力需求和算力用能,塑造列头柜用能特征;ii动态调整工作频率:根据预测结果,动态调整服务器GPU等IT设备的工作频率,使其与用电信号相匹配,实现算力需求与电力供给的平衡。 数据中心算力需求具有灵活性 通过动态调节GPU不同时段的工作频率,在不影响总计算量和总计算时间的前提下,实现动态调节AI模型在训练阶段的功率,从而可以使其用能匹配电力侧信号(包括:电碳信号、可再生能源出力信号等),其难点在于难以准确量化各调节手段(频率、电压、数量)对GPU功耗和计算性能的影响。 # 3.2 建立柔性调度体系,提升资源配置效率 $\Leftrightarrow$ 除依靠任务时间的转移实现单体数据中心的算力灵活性挖掘外,还有通过多个数据中心之间的联动进行的跨数据中心的算力灵活性挖掘,将算力任务既可在时间层面,也可在空间层面进行转移,进而实现电力需求的优化调度。具体做法包括:i负荷迁移:根据各数据中心的电力供应情况和算力需求,将算力任务从一个数据中心迁移到另一个数据中心,实现负荷的合理分配;ii优化调度:利用智能调度系统,对算力任务进行优化调度,提高算力资源的利用率,降低电力消耗,同时促进新能源消纳。 $\Leftrightarrow$ 数据中心集群可以在不依赖输电网络的前提下,通过算力任务的时空调控,实现电力负荷在时间和空间维度上的转移,进而实现降低特定区域电力负荷、协助电网进行阻塞管理等优化运行目标。 跨数据中心:通过转移算力任务实现用电量转移 双层随机滚动优化示意图 # 3.2 建立柔性调度体系,提升资源配置效率 $\Leftrightarrow$ 除IT负载的灵活性挖掘外,非IT负载(制冷系统、配电系统等占数据中心总能耗的 $40\%$ )的节能潜力直接决定PUE(电能使用效率)的竞争力。尤其是制冷系统能耗占比大( $30\%$ ),且作为柔性负载具备较大优化潜力。 $\diamond$ 优化制冷系统可以从两方面展开:一方面从硬件上采用氟泵、间接蒸发冷、节能型空调等先进产品,降低制冷系统能耗;另一方面从软件上基于高效设备,引入AI算法,优化冷量,进一步提高制冷系统节能极限。服务器散热技术目前主要有3种途径:风冷、液冷及风液混合冷却。风冷通过循环空气冷却服务器;液冷则是通过液态工质冷却服务器;而混合冷却则是服务器的主要发热元器件(如CPU、GPU)采用液冷冷却,其他元器件仍然通过空气冷却。 数据中心能耗占比预估(针对PUE约为1.66的常见老旧数据中心) # 冷源侧: 数据中心冷源测系统设备多、点位复杂,承接和室外环境交换热量的工作,能耗占比大可通过建立室外温度模型,尽可能利用自然冷源,并且基于点位传感器动态调整供、回水温度、水泵频率、风机频率和运行台数,使冷源系统工作在最合理的范围内。 # 冷源侧和末端侧数据打通,双向调优,极致提升 制冷系统优化示意图 # 末端侧: 末端直接面对IT负载,热量大,安全、可靠性要求高,可在机房内部署温度、湿度传感器和AI服务器,并构建末端AI模型基于IT负载实际的变化,实时调整策略,管理冷量输出,降低制冷冗余,实现按需供给,降低能耗。 # 3.2 建立柔性调度体系,提升资源配置效率 从方案及设备层面来看:i节能型空调技术,如变频、氟泵、磁悬浮等技术,根据实际需求动态调整,充分利用自然冷源如间接新风水喷淋,末端采用就近行级制冷、通道封闭等技术,可显著降低风冷系统的能耗。ii液冷技术,包括冷板式和浸没式液冷方案,与传统风冷系统相比,液冷技术能够更直接有效将热量移除,大幅降低散热所需的能量消耗。 $\Leftrightarrow$ 在软件方面,在冷源测和末端进行精细化的管理,优化冷量,进行基于AI的精确制冷,其基本原理在于:i实时响应变化,利用传感器监测室外环境的变化、IT负载的变化、室内环境的变化,并作出合理的调整。ii降低冗余,基于对变化的实时响应即可控制冗余,在每个瞬间提供恰到好处冗余。 空调制冷系统示意图 液冷系统示意图 AI制冷原理示意图 # 3.3 余热利用提效降碳,提升PUE表现 从数据中心产生的 $20 \sim 90^{\circ} \mathrm{C}$ 低品位热能若直接排放不仅浪费能源,还会增加碳排放。国家发改委《数据中心绿色低碳发展专项行动计划》也提出“加强数据中心余热回收利用,鼓励企业自建热量回收系统,用于园区供热、城市供暖、设施农业等”。对余热的利用主要有以下两种方案:i余热发电方面,最常用的技术之一是通过ORC直接发电,ORC 的工作原理与蒸汽朗肯循环相同,但因其使用沸点低得多的有机流体作为工作流体,因此可利用余热。ii余热供热方面,数据中心的低温余热可用于周边用户。iii余热制冷,吸收式制冷及吸附式制冷技术成熟可靠,理论上均可以用于数据中心余热回收;余热制冷消耗数据中心废热同时提供冷量,可以显著降低数据中心 PUE,投资回收期短。 智算中心余热利用示意图 表 1 国家有关部委关于数据中心余热回收的部分政策 <table><tr><td>发布年份</td><td>发布机构</td><td>文件名称</td><td>余热回收相关内容</td></tr><tr><td>2017</td><td>工业和信息化部</td><td>关于加强“十三五”信息通信业节能减排工作的指导意见</td><td>推广余热利用、绿色智能服务器、自然冷源、分布式供能的应用,加快建设绿色数据中心[4]。</td></tr><tr><td>2019</td><td>工业和信息化部国家机关事务管理局国家能源局</td><td>关于加强绿色数据中心建设的指导意见</td><td>明确加强绿色设计,鼓励在自有系统中设计余热回收利用系统[5]。</td></tr><tr><td>2021</td><td>国家发展和改革委员会中央网信办工业和信息化部国家能源局</td><td>全国一体化大数据中心协同创新体系算力枢纽实施方案</td><td>推动数据中心采用新型机房精密空调、高密度集成高效电子信息设备、机柜模块化、液冷及余热回收等节能技术[6]。</td></tr><tr><td>2023</td><td>国家发展和改革委员会工业和信息化部国家能源局国家数据局</td><td>数据中心绿色低碳发展专项行动计划</td><td>提出加强数据中心余热回收利用,鼓励企业自建热量回收系统,用于园区供热、城市供暖、设施农业等。要求到2030年底,明显提升我国北方采暖地区新建大型及以上数据中心的余热利用率[7]。</td></tr></table> 智算中心成核心算力载体,能耗需求爆发式增长 AIDC三重挑战:生存、经营与发展的全维度制约 03 以算电协同为核心,多维度突破约束 技术路线分化与生态协同,引领可持续发展 05 投资建议 风险提示 # 4.1 供配电架构四代演进:UPS-现阶段重要配套备用电源 UPS是现阶段AIDC供电系统的重要配套。根据Precedence Research的统计与预测,全球电能质量治理市场规模有望从2024年的386亿美元增至2030年的563亿美元,复合年增长率(CAGR)达到 $6.5\%$ 。不间断电源(UPS)作为现阶段AIDC供电系统的重要配套,也迎来了重大发展机遇。 $\diamond$ 智算中心向MW级,超高效及高密化演进。UPS单机容量由600kVA提升至1MVA及1.2MVA,减少并机台数,同时可进一步节省系统占地及后期运维成本,成为演进的趋势。同时,UPS需要持续提升功率密度,减小设备占地,以改善供配电设备辅助占比。以600kVA UPS为例,业界常规占地宽度一般为1200mm,但业界已有头部厂商通过架构及器件创新,将宽度缩减至600mm,功率密度提升 $100\%$ ,占地面积下降 $50\%$ 。 UPS各工作模式主要特性 <table><tr><td>IEC62040 标准定义</td><td>UPS模式</td><td>效率</td><td>特点</td><td>IEC62040切换动态响应</td><td>电网要求</td><td>应用场景</td></tr><tr><td>VFI</td><td>在线模式</td><td>高达97%</td><td>可靠供电,模式间0ms切换</td><td>Class1</td><td>电网质量中等或较差</td><td>超过95%的场景和几乎全部的数据中心场景</td></tr><tr><td>VFD</td><td>ECO模式(类阻性负载)</td><td>高达99%</td><td>切换至电池有最大10ms的间断,负载谐波会反馈至电网</td><td>Class3</td><td>电网质量优,负载谐波含量低</td><td>负载接受间断时间<10ms的场景</td></tr><tr><td>VI</td><td>ECO模式(非阻性负载)</td><td>高达98.5%</td><td>切换至电池有最大10ms的间断,负载谐波会经过逆变器滤波</td><td>Class3</td><td>电网质量优,负载谐波含量高</td><td>负载接受间断时间<10ms的场景</td></tr></table> 600kVA UPS功率密度提升 # 4.1 供配电架构四代演进:HVDC-800VDC-当前主要方向 $\Leftrightarrow$ 高压直流(HVDC)供电架构的出现标志着第二代技术变革。通过省去UPS的逆变环节,HVDC实现了更短的供电路径和更高的效率水平。行业实测数据显示,HVDC架构的实际运行效率可达 $95\%$ 以上,较传统UPS提升10个百分点。特别值得关注的是,HVDC架构不仅提升了能效,还因其与服务器直流供电需求的天然契合性,为后续技术演进指明了方向。 2025年10月,英伟达在北美OCP全球峰会上正式发布《下一代AI基础设施的800伏直流架构》白皮书,明确800V高压直流(HVDC)将成为未来AI数据中心供电主流方案,标志着行业从传统UPS交流架构向高压直流架构转型。测试结果显示,英伟达推出的Kyber机架架构体积减少 $26\%$ ,能耗降低约 $8\%$ ,同时支持超过每机架1MW的持续负载能力。 Hopper架构到Blackwell架构的演进 传统415V交流系统与800V直流架构对比 # 4.1 供配电架构四代演进:巴拿马电源-集成化电源技术代表 $\Leftrightarrow$ 巴拿马电源作为第三代技术代表,在HVDC基础上实现了进一步创新。巴拿马电源具备更高的可用性、高效率、低成本、模块化、维护方便、占地空间小等优势,为数据中心供电提供一种革命性的供电方案。 $\Leftrightarrow$ 以华东某机房为例,巴拿马电源设备占地面积与240VDC系统相比,巴拿马电源设备占地面积由原来的约 $300\mathrm{m}^2$ ,变为 $110\mathrm{m}^2$ ,仅为原来占地面积的 $36\%$ 。 $\Leftrightarrow$ 巴拿马电源由传统变压器改为移相变压器,省掉功率因数调节环节,移相变压器的效率为 $99\%$ ,整流调压部分的峰值效率为 $98.5\%$ ,整体峰值效率可达到 $97.5\%$ 。 传统240VDC系统与巴拿马电源布局 巴拿马电源方案效率可提升至97%以上 # 4.1 供配电架构四代演进:SST-有望成为终极解决方案 2025年11月20日,2025 CDCC SUMMIT中国数据中心标准大会在行业瞩目下隆重召开。会上,台达宣布,基于SST(固态变压器)的智能直流供电系统方案正式全球首发。这一具有里程碑意义的创新方案,标志着算力供电领域迎来“极简高效、安全可靠”的革命性突破,为解决算力爆发带来的电力瓶颈提供了全新路径。 $\diamond$ 在数据中心供电架构中采用SST替代巴拿马电源中的移相变压器,能够进一步提高效率、减轻重量、节省空间。根据台达,SST方案的系统效率可以达到 $98.5\%$ ,单功率柜输出功率达1MW,占地面积仅 $1\mathrm{m}^2$ ,相较传统方案占地面积减少 $50\%$ 以上。 台达SST系统 直流环节SST图 # 4.2 SST终极解决方案:各AIDC供电技术对比 <table><tr><td>技术名称</td><td>UPS</td><td>HVDC</td><td>巴拿马方案</td><td>SST</td></tr><tr><td>原理</td><td>最经典的数据中心供电架构,它通过整流、逆变、旁路等多级转换,为服务器提供稳定电力。</td><td>依赖传统的工频变压器和电力电子转换器。</td><td>高度集成的中压直流配电系统,它将传统数据中心的多个电力转换环节——包括变压器、整流器、配电单元等——整合为一个紧凑的模块化系统。</td><td>利用高频电力电子变换技术,完全取代了传统变压器的电磁感应原理,实现了电能形式的直接高效转换。</td></tr><tr><td>功率优势</td><td>典型的2N配置UPS系统全链路效率通常只有92-95%,以一座30MW的AIDC为例,每年会浪费约1300万度电。</td><td>整体效率提升至96-97%,空间占用减少约30%,模块化、效率高、可靠性高、成本更低。</td><td>通过减少转换环节,将整体效率提升至97-98%,比传统UPS高出3-5个百分点。一体化设计使占地面积减少40-50%,为机柜腾出更多空间。模块化设计支持预制化生产和现场快速安装,缩短建设周期。</td><td>基于先进的宽禁带半导体(如碳化硅和氮化镓),SST方案在各级转换中实现了更高效率。实际测试数据显示,SST整体效率可达98.5-99%,比传统UPS高出4-6个百分点,比HVDC方案高出1-2个百分点。</td></tr><tr><td>占地面积</td><td>占地面积大,需要专用的电力室,效率存在物理上限。</td><td>设备体积和重量仍然较大,功率密度有限。面临物理极限。</td><td>传统磁性变压器的体积和重量与功率近似成正比增长,高功率密度下空间占用问题突出。传统电力电子器件的开关频率受限导致滤波元件体积庞大,限制了功率密度的进一步提升。</td><td>从工频50/60Hz提升至20kHz以上,使变压器体积减少70-80%。这意味着在相同空间内,SST可以支持高出2-3倍的功率容量,直接解决了AIDC高密度部署的空间瓶颈问题。</td></tr></table> # 4.2 SST终极解决方案:SST方案突出技术优势 $\diamond$ SST方案优势突出。效率高:省去多次AC/DC转换环节,端到端效率突破至 $98\%$ ;面积小:简化了供电链路的多级配电,空间利用率更高;安装快:中压接口、功率转换、控制全部集成一体,预先装好,工厂预制化的生产方式可使现场安装周期缩短 $75\%$ ;维护简单,可融合HVDC方案:模块化插拔设计,维护极其简单,能轻松匹配各种主流数据中心供电架构(2N、 $\mathrm{N} + \mathrm{X}$ 、市电+HVDC混合等);AI级响应速度:毫秒级动态响应,GPU负载波动下<5ms响应时间,精准匹配AI智算中心的瞬态特性,设置了功率模块冗余、中压故障隔离等多级保护,供电系统安全可靠;集成APF、SVG功能:可实现电能质量的主动治理,完成谐波补偿,可输出感性无功和容性无功,无需额外配置谐波治理模块及无功补偿装置,额定工况下10kV输入侧电流谐波小于 $1\%$ ;可接入绿电:以两端口固态变压器为基础,可以迭代为具备多电压等级交直流端口的“能量路由器”,支持风光储氢接入,助力AIDC用户绿电消纳比例提高至 $50\%+$ 。完美适配新一代智算中心需求。 数据中心供电发展方向 数据中心全直流比例 # 4.2 SST终极解决方案:SST方案突出成本优势 $\Leftrightarrow$ 与传统的UPS供电链路相比,SST系统的传输电压高、链路短、设备节点少,全链路效率可提升 $3 \%$ 以上。以一个2.5MW的系统为例,若负载率为 $90 \%$ ,则每年可以节省59.13万度电。同时进行新能源并网时SST以DC800V输出,该电压可以很好地与分布式光伏、储能等源网荷储设备进行直流侧并网,与交流并网相比,SST系统减少了很多转换或调整环节,更加的简单和可靠,也降低了成本。 $\diamond$ 减少用铜量:SST系统的一个主要特征就是硅进铜退,采用半导体器件进行调压和整流,替代传统的铜制变压器。据查阅,一台2500kVA容量的10/0.4kV三相交流变压器大概用铜1400kg,而相同容量的SST设备则无需使用。市场上铜的价格一直居高不下,而半导体原材料在自然界中的含量非常高,随着技术的进步和市场用量的增加,半导体器件的价格将呈下降趋势。 • DC800V与AC220V相比,传输同等功率的电力所需要的线缆或铜排截面积也有差异。二者相比,2.5MW的功率以DC800V电压传输所需的用铜量是以AC380/220V电压传输所需用铜量的三分之一。 $\diamond$ 总的来看,虽然SST核心器件成本较高;安装需要专门培训的技术人员,初始投资明显高于传统方案,但在高功率密度、高电价的数据中心场景中,其能源节省带来的长期收益可能抵消前期投入。 # 4.2 SST终极解决方案:SST与800V直流相互适配 $\diamond$ 800V直流供电系统可以浓缩入SST系统内,是在数据中心历史供电架构基础上发展的,顺应AI智算、IT机柜高功率密度需要。800V直流供电系统更方便匹配分布式光伏、储能等新能源系统并网,实现真正意义上的光储柔直系统。未来数据中心可能采用微电网技术,逐步接入分布式光伏、储能等多种能源,通过DC/DC等设备实现新能源的高比例接入,形成“源网荷储”一体化的能源管理系统,支持动态负载调节和削峰填谷。 $\diamond$ 直流柔性供电技术深度赋能算电协同发展,一是具备快速功率调节与电压稳定能力,可以平抑新能源的波动性;二是通过减少交直流转换损耗,结合液冷技术,可大大降低数据中心PUE;三是降低“源-算”空间约束,通过提高电压等级,降低输电损耗,增加能源和算力负荷的部署距离;四是支撑高密度算力的电力需求,采用直流柔性供电架构,可减少电源转换层级,提升供电电压,适配AI算力集群的高功耗需求;五是促进可再生能源与储能整合,光伏发电、电池储能等均为直流输出,800V直流母线可无缝对接,减少逆变环节,提升新能源利用率。 800伏MGX机柜概述 数据中心架构演进历程 # 4.3 SST 市场前景与商业化预测 $\diamond$ 全球AIDC每年装机增量预测:在IEA基准情景中,全球数据中心总装机容量从2024年的100GW增长到2030年的225GW,其对应的复合年增长率约为 $14.5\%$ 。假设每年按照复合增速平均增长,且增量均为AIDC机房,同时中国作为全球第二大AIDC市场,增量受头部云厂商(阿里、腾讯、字节)AI算力投资驱动,假设国内AIDC每年新增装机量占全球的比重分别为从 $35\%$ 逐步提高至 $62\%$ ,由此得出2030年国内AIDC新增装机量达17.7GW。 $\diamond$ SST年均复合增速达64.9%。假设SST单价变化为5元/W~2.5元/W,测算可得2030年sst市场空间达132.7亿元,年均复合年增长率达64.9%,市场前景良好。 <table><tr><td></td><td>2024</td><td>2025E</td><td>2026E</td><td>2027E</td><td>2028E</td><td>2029E</td><td>2030E</td></tr><tr><td>全球AIDC装机量(GW)</td><td>100</td><td>114.5</td><td>131.1</td><td>150.1</td><td>171.9</td><td>196.8</td><td>225.3</td></tr><tr><td>假设每年复合增速</td><td>14.50%</td><td>14.50%</td><td>14.50%</td><td>14.50%</td><td>14.50%</td><td>14.50%</td><td>14.50%</td></tr><tr><td>全球AIDC每年增量(GW)</td><td></td><td>14.5</td><td>16.6</td><td>19.0</td><td>21.8</td><td>24.9</td><td>28.5</td></tr><tr><td>国内占比</td><td>35%</td><td>50%</td><td>52%</td><td>55%</td><td>57%</td><td>60%</td><td>62%</td></tr><tr><td>国内智算中心增量(GW)</td><td></td><td>7.3</td><td>8.6</td><td>10.5</td><td>12.4</td><td>15.0</td><td>17.7</td></tr><tr><td>sst渗透占比</td><td></td><td>3%</td><td>8%</td><td>15%</td><td>20%</td><td>25%</td><td>30%</td></tr><tr><td>sst单价(元/W)</td><td></td><td>5.0</td><td>4.5</td><td>4.0</td><td>3.5</td><td>3.0</td><td>2.5</td></tr><tr><td>国内sst市场新增量(亿元)</td><td></td><td>10.9</td><td>31.1</td><td>62.7</td><td>86.8</td><td>112.2</td><td>132.7</td></tr><tr><td>yoy</td><td></td><td></td><td>186%</td><td>102%</td><td>38%</td><td>29%</td><td>18%</td></tr></table> 资料来源:IEA《Energy and AI》,电力变压器视界,华金证券研究所 # 4.4 供配电架构:国际高压直流与国内多元路线并存 $\Leftrightarrow$ 英伟达在COMPUTEX2025上宣布,从2027年开始率先将数据中心机架电源从54V往800V HVDC过渡,通过高压架构以支持1MW以上的数据中心IT机架。 $\diamond$ 这一转变的核心驱动力首先是空间限制:目前NVIDIA GB200 NVL72或NVIDIA GB300 NVL72配备多达八个电源架,为MGX计算和交换机架提供电力支持。如果在未来MW级别的机架中使用相同的54V DC直流配电,意味着电源架将消耗高达64U的机架空间,几乎没有留给计算卡的空间。 $\diamond$ 其次是铜缆重量:英伟达测算,1MW机架用54V DC配电需200kg铜缆,1GW数据中心机架式母线铜缆用量达50万吨,其重量与成本对数据中心而言难以承受。 $\diamond$ 转换效率:在当前54V配电系统中,会有多个重复的AC/DC转换过程,多级转换带来的效率损失在高功率场景下变得不可忽视,800V直流架构可将转换效率提升至 $98\%$ 以上。800V HVDC架构将支持1MW以上的数据中心IT机架,适配超高密度智算需求。 当前数据中心电源架构 NVIDIA 800 V HVDC 架构 # 4.4 供配电架构:国际高压直流与国内多元路线并存 $\Leftrightarrow$ 受芯片稀缺、项目节奏、硬件设施及投资限制等因素影响,国内单机柜仅放置1-4台服务器,功率普遍停留在10-40kW区间,中低密度(10-40kW/机柜)为短期市场主流。 $\diamond$ 目前,交流供配电架构数据中心仍作为当前主流存在,因为交流供配电系统生态成熟,运行稳定性经过长时间验证,但国内从机柜侧也在跟随高密度和直流路线。所以在可预见的未来,数据中心存在如下4种主要供配电架构形式:交流不间断电源方案为市场主流,输出电压AC400V,适用于运营商、政府、科研、金融机构及制造企业算力中心;DC240V高压直流方案最早由电信行业推进,应用于部分数据中心项目;巴拿马方案整合变压器、整流模块和直流输出柜,输出IT DC240V/动力DC540V,适配大型互联网数据中心或智算中心;800V直流方案以新型电力电子变压器(SST)替代传统变压器,实现AC/DC10kV向DC800V高效变换,适用于对IT产出率要求高的大型智算中心。 2023-2028年数据中心单机柜功率密度趋势对比(英伟达vs国内产商) # 4.4 供配电架构:国际高压直流与国内多元路线并存 $\diamond$ 国内数据中心向更高功率供电架构演进是必然趋势,800V直流供电架构或成基础设施重要发展方向,但国内落地需更长时间,关键在于把握服务器功率密度提升节奏并借力新能源产业红利,其发展受多关键因素影响。 $\diamond$ 服务器功率密度提升:200-300kW/机柜为技术临界点,功率密度突破后800V HVDC系统在节省柜内空间、能源转换效率上优势显著;风光直流特性适配:新型电力系统下,风光发电(原生直流)与IT设备(直流负载)可直接互联,省去两级交直流转换,有望提升系统效率;大型互联网企业技术推动:主导AI发展的大型互联网公司具备创新意愿和技术储备,未来或基于现有直流方案持续迭代;新能源直流供应链迁移:国内在新能源和电动汽车领域积累的400V/800V直流技术及供应链,可向数据中心领域迁移,加速HVDC高压化演进。 800VDC对传统UPS的潜在可替代性 <table><tr><td>功能</td><td>传统UPS体系</td><td>800VHVDC体系</td></tr><tr><td>电压稳压</td><td>AC-DC-AC变换稳压</td><td>DC母线恒压控制</td></tr><tr><td>备用电源</td><td>UPS内置铅酸/锂电池</td><td>外挂电池系统直接接入母线</td></tr><tr><td>功率调节</td><td>逆变器切换</td><td>电力电子模块实时响应</td></tr><tr><td>电能质量</td><td>依靠滤波器</td><td>直流供电无谐波问题</td></tr></table> # 4.5 生态协同:跨领域合作与标准机制构建 $\Leftrightarrow$ 政策密集赋能:“东数西算”“双碳”政策引领,650号文、1192号文构建绿电直连制度框架,能源局将“算力与电力协同”纳入新型电力系统试点,青海等资源型地区成为核心试验场。 政策赋能下AIDC电源生态协同典型项目 <table><tr><td>项目类型</td><td>案例</td><td>关键成效</td></tr><tr><td>绿电直供示范</td><td>三大运营商在青海打造100%绿电消纳数据中心</td><td>绿电占比达100%,超国家80%目标</td></tr><tr><td>技术协同应用</td><td>青海移动联合中兴通讯,采用间接蒸发冷却技术建设绿电智 算基地</td><td>实现PUE<1.2</td></tr><tr><td>源网荷储一体化</td><td>中金数据、世纪互联在内蒙古推进“源网荷储一体化”数据 中心项目</td><td>融合风电、光伏及储能设施</td></tr><tr><td>技术融合创新</td><td>智光储能中标全国首个级联型高压技术与半固态电池结合的 调频型独立储能电站;山东莱城电厂投运全国首个“高压级 联+集中液冷”项目,由100兆瓦锂电池与1兆瓦铁铬液流电池 组成</td><td>转换效率超90%,为大规模长时储能 提供新范式</td></tr><tr><td>智能调度实践</td><td>商汤科技与达卵科技合作,通过能源大模型实现源网荷储协 同调度</td><td>打通算力与电力数据壁垒</td></tr><tr><td>绿色算力服务</td><td>优刻得整合屋顶光伏、海上风电PPA、储能资源,提供绿色算 力智能调度服务</td><td>适配绿电波动性需求</td></tr></table> 资料来源:IDC圈,中国通信工业协会数据中心委员会,数字储能网,华金证券研究所 $\diamond$ 主导模式:头部企业牵头构建全链条生态,英伟达牵头800V HVDC联盟(适配AIDC兆瓦级机柜电源需求)。 $\Leftrightarrow$ 英伟达联合上下游合作伙伴构建起覆盖芯片、电源、电气工程、数据中心运营的完整协同网络。技术合作方面,英伟达与纳微半导体联合开发基于GaN及SiC的800V HVDC电源架构,率先应用于下一代AI数据中心与Rubin Ultra计算平台;供应链协同方面,英伟达与英飞凌(SiC器件)、台达(电源系统)、维谛技术(直流母线槽)等厂商合作,确保核心组件的供应与技术兼容。 $\diamond$ 技术复用:固态电源技术的进步与电动汽车行业的成熟发展,为800V系统在安全性、能效及成本控制上提供了坚实保障。依托电动汽车领域成熟的800V高压直流技术,加速AIDC高功率电源架构商业化。 英伟达800 VDC系统合作厂商 智算中心成核心算力载体,能耗需求爆发式增长 AIDC三重挑战:生存、经营与发展的全维度制约 以算电协同为核心,多维度突破约束 技术路线分化与生态协同,引领可持续发展 05 投资建议 风险提示 $\Leftrightarrow$ 技术迭代驱动AIDC电源产业升级,800V HVDC与高压级联储能技术加速落地,高功率、高适配性电源架构成为AI数据中心核心基建。因算力密度爆发与绿电消纳需求,AIDC电源在“东数西算”“新型电力系统”政策催化下,将成高功率供电与能源协同的关键赛道。AI产业高速发展与新型电力系统建设的双重背景下,以算电协同重塑能源范式,为AI浪潮提供可靠基础底座。供电架构逐步进阶,以SST为代表的技术路线有望打造行业增长新引擎。 $\diamond$ 建议关注:1)SST技术龙头:四方股份、中国西电、金盘科技、特变电工;2)800V HVDC系统:中恒电气、科华数据、禾望电气;3)AI服务器电源:麦格米特、欧陆通、爱科赛博;4)固态断路器:泰永长征、良信股份。此外,关注新特电气、新风光、盛弘股份、双杰电气等潜在标的,以及布局功率半导体与上游材料的云路股份、三安光电、英诺赛科等。 智算中心成核心算力载体,能耗需求爆发式增长 AIDC三重挑战:生存、经营与发展的全维度制约 以算电协同为核心,多维度突破约束 技术路线分化与生态协同,引领可持续发展 05 投资建议 风险提示 $\diamond$ 技术迭代风险:AIDC电源在高效能、高可靠性、智能化管理等技术层面仍面临诸多挑战;同时,新型供电架构的技术成熟度不足,相关测试与生产工艺尚未完全标准化,产品良率提升存在瓶颈。若在电源效率提升、智能监控、兼容多类型算力设备等关键技术上无法实现突破,可能导致技术满足不了数据中心对能耗、可靠性的要求,产业化进程延迟,大规模商业化应用受阻。 $\diamond$ 政策变动风险:AIDC行业发展与新基建、数字经济等政策紧密关联,当前各地对算力基础设施的补贴政策、人工智能产业扶持政策等对AIDC电源的市场需求有显著拉动作用。若未来相关政策出现调整,如政策支持力度减弱、行业规范趋严超预期等,可能导致下游AIDC项目建设节奏放缓,对AIDC电源的需求增长不及预期,影响行业发展速度。 $\diamond$ 市场竞争加剧风险:全球AIDC领域竞争日益激烈,若在技术创新、成本控制、品牌建设上无法形成优势,可能在市场竞争中处于劣势,市场份额被竞争对手抢占。 # 公司投资评级: 买入 — 未来6-12个月内相对同期相关证券市场代表性指数涨幅大于 $15\%$ 增持 — 未来6-12个月内相对同期相关证券市场代表性指数涨幅在5%至15%之间; 中性 — 未来6-12个月内相对同期相关证券市场代表性指数涨幅在 $-5\%$ 至 $5\%$ 之间; 减持 — 未来6-12个月内相对同期相关证券市场代表性指数跌幅在5%至15%之间; 卖出 一 未来6-12个月内相对同期相关证券市场代表性指数跌幅大于 $15\%$ 。 # 行业投资评级: 领先大市 — 未来6-12个月内相对同期相关证券市场代表性指数领先10%以上; 同步大市 — 未来6-12个月内相对同期相关证券市场代表性指数涨跌幅介于-10%至10%; 落后大市 — 未来6-12个月内相对同期相关证券市场代表性指数落后 $10\%$ 以上。 # 基准指数说明: A股市场以沪深300指数为基准;新三板市场以三板成指(针对协议转让标的)或三板做市指数(针对做市转让标的)为基准;香港市场以恒生指数为基准,美股市场以标普500指数为基准。 # 分析师声明 贺朝晖、周涛声明,本人具有中国证券业协会授予的证券投资咨询执业资格,勤勉尽责、诚实守信。本人对本报告的内容和观点负责,保证信息来源合法合规、研究方法专业审慎、研究观点独立公正、分析结论具有合理依据,特此声明。 # 本公司具备证券投资咨询业务资格的说明 华金证券股份有限公司(以下简称“本公司”)经中国证券监督管理委员会核准,取得证券投资咨询业务许可。本公司及其投资咨询人员可以为证券投资人或客户提供证券投资分析、预测或者建议等直接或间接的有偿咨询服务。发布证券研究报告,是证券投资咨询业务的一种基本形式,本公司可以对证券及证券相关产品的价值、市场走势或者相关影响因素进行分析,形成证券估值、投资评级等投资分析意见,制作证券研究报告,并向本公司的客户发布。 # 免责声明: 本报告仅供华金证券股份有限公司(以下简称“本公司”)的客户使用。本公司不会因为任何机构或个人接收到本报告而视其为本公司的当然客户。 本报告基于已公开的资料或信息撰写,但本公司不保证该等信息及资料的完整性、准确性。本报告所载的信息、资料、建议及推测仅反映本公司于本报告发布当日的判断,本报告中的证券或投资标的价格、价值及投资带来的收入可能会波动。在不同时期,本公司可能撰写并发布与本报告所载资料、建议及推测不一致的报告。本公司不保证本报告所含信息及资料保持在最新状态,本公司将随时补充、更新和修订有关信息及资料,但不保证及时公开发布。同时,本公司有权对本报告所含信息在不发出通知的情形下做出修改,投资者应当自行关注相应的更新或修改。任何有关本报告的摘要或节选都不代表本报告正式完整的观点,一切须以本公司向客户发布的本报告完整版本为准。 在法律许可的情况下,本公司及所属关联机构可能会持有报告中提到的公司所发行的证券或期权并进行证券或期权交易,也可能为这些公司提供或者争取提供投资银行、财务顾问或者金融产品等相关服务,提请客户充分注意。客户不应将本报告为作出其投资决策的惟一参考因素,亦不应认为本报告可以取代客户自身的投资判断与决策。在任何情况下,本报告中的信息或所表述的意见均不构成对任何人的投资建议,无论是否已经明示或暗示,本报告不能作为道义的、责任的和法律的依据或者凭证。在任何情况下,本公司亦不对任何人因使用本报告中的任何内容所引致的任何损失负任何责任。 本报告版权仅为本公司所有,未经事先书面许可,任何机构和个人不得以任何形式翻版、复制、发表、转发、篡改或引用本报告的任何部分。如征得本公司同意进行引用、刊发的,需在允许的范围内使用,并注明出处为“华金证券股份有限公司研究所”,且不得对本报告进行任何有悖原意的引用、删节和修改。 华金证券股份有限公司对本声明条款具有惟一修改权和最终解释权。 # 风险提示: 报告中的内容和意见仅供参考,并不构成对所述证券买卖的出价或询价。投资者对其投资行为负完全责任,我公司及其雇员对使用本报告及其内容所引发的任何直接或间接损失概不负责。 华金证券股份有限公司 办公地址: 上海市浦东新区杨高南路759号陆家嘴世纪金融广场30层 北京市朝阳区建国路108号横琴人寿大厦17层 深圳市福田区益田路6001号太平金融大厦10楼05单元 电话:021-20655588 网址:www.huajinsc.cn