人工智能为何如此耗电

3.0 闻远设计 2024-11-18 33 4 9.54KB 2 页 2光币
侵权投诉
    全球 AI 耗电现状 
    总体来看,伴随着人工智能技术的迅猛发展,以及产业指数级增长,作为重要支撑的数据
中心耗电总量和占比大幅上升。据测算,AI 大语言模型 GPT-3 一次训练的耗电量就达 1287
瓦时,大概相当于 3000 辆特斯拉电动汽车共同开跑、每辆车跑 20 万英里所耗电量的总
和。ChatGPT 按每天响应约 2亿个请求计算,这一过程消耗超过 50 万度电。国际能源署 2024
1月发布报告称,2022 年全球数据中心的总耗电量约 460 太瓦时(1太瓦时=1x10?千瓦时=10
亿度),约占全球用电量的 2%;到 2026 年,这一数据将超过 1000 太瓦时,大约是整个日本
2022 年全年的用电量。与此同时,大量的碳排放和数百万加仑淡水的消耗也不容小觑。 
    欧美等国家 AI “ ”耗电形势严峻。以跨国公司数据中心 扎堆 的爱尔兰为例,数据中心的耗
电量已超过该国所有城市家庭用电量的总和,占比约为 21%。波士顿咨询集团则预计,到 2030
年,美国数据中心的用电量将是 2022 年的三倍,而这一增幅主要来自人工智能。OpenAI 首席
执行官萨姆·奥特曼和特斯拉首席执行官马斯克都曾多次表达了对电力供应的担忧。 
    从中国来看,AI 耗能问题也是日益严重。2022 年全年,我国数据中心耗电量达到 2700 亿
千瓦时,占全社会用电量约 3%。预计到 2025 年,这一占比将提升至 5%,到 2030 年全国数据
中心耗电量将接近 4000 亿千瓦时,数据中心的节能降耗迫在眉睫。数据中心是数字经济发展
“ ”的基石,从全国一体化大数据中心体系构想到部署 东数西算 ,数字中国战略持续深化落地,
算力不断提高,必然需要更高的能源电力,7x24 小时连续运行,电力成本占运营总成本的 60%
—70%,规模增长迅速。伴随着我国产业转型升级和数据中心规模不断扩大,耗电量会持续攀
升。 
    总之,人工智能及支撑它的数据中心所带来的耗电问题困扰着全世界,是约人工智能技
速发展的主要障碍之一。 
    AI 成为耗电大 
    AI 成为耗电大原因较复杂及数据处理、计算需求、芯片技术、算力中心等多个
方面 
    ,从芯片分析,大语言模型需要大的算力支撑,特行计算能力的
GPU处理器)。在大模型训练过程中,需要多GPU 接连不断运转,一GPU 的能耗
CPU(中央处理器)高10—15 倍。A100GPU 耗为 400 瓦。GPT-3 训练用
到了 1024 A100 芯片,而 GPT-4 更攀升至 25000 续将更H100B200,型的提
升和数量的导致能耗显著增加。到 2027 年,英达将推出 150 A100 服务器
95%应用于 AI 行业。每一台服务器如果内置 8A100 芯片,以 1240 A100 芯片的耗电
算,耗电量将高达 85—134 太瓦时,这个已接近瑞典或荷兰全年总用电量,相当于当
全球用电量的 0.5% 
    次,从运行机制分析GPU 构在 AI 计算中虽具备并处理优势,非常适合 AI
以节计算时但其前利率较低32%—36%),且故障率高,导致训练周期
长,GPT-4 训练耗时长达 90—100 天,发长的能源消耗。相比之CPU 经近
80 年发展,技术成熟且节能高;而 GPU 现不到 30 年,尚存利率低差错率高的
战,这导致了能源消耗的增加。此,GPU 构以提高其效率稳定性,对于减少能源
消耗至重要。 
    最后,大语言模型从规模应,随着数和数据规模的提高,大模型的智能表现将
升。此,大公司都在不断地扩大模型规模,这电能消耗带来了大的力。如果大模
型所用到的算力集中在一个数据中心里,在有空范围内进行训练,会给局部电带来非常
大的用电负荷导致整个电崩溃 
    AI 耗电问题的解决方案 
    AI 的耗电量在社会总用电量中的占比不大,与家庭用电量相比,已经非常可观
了,而增速太如果不加以控制,将导致巨大能源力。如何应对人工智能带来的
大能耗,是业高度重的问题。 
    ,在技术层面各种方法芯片耗需求是业界努力的方向。英达、
公司等多的尝试力,化算模型,如牺牲点性能以大大减少计算源和
而带来能耗效率的大幅提升;用光纤连接芯片减少原芯片外部的电力动和电
/电转换环节,从而减少能耗;发高芯片散热技术将散热效率提升百倍;积极研
型计算和传输架构以提升计算机处理速度能耗;等等。 
    次,数据中心的能耗心布加以化。如针对能耗中的散热问题,从最初
风冷,到现在的液冷业都在尝试各种方法为数据中心散热:微软尝试部署海下数据
中心,Facebook 数据中心选址北极圈附近,岛湖数据中心使用深层湖制冷等,我
“ ”业则数据中心布在水电丰富的西。 东数西算 的则也是对数据与算
合理匹配,将大量的算力源部署到西部地,以降能耗。 
    次,在能源层面建立化的能源用体系。集中力量开发太能、能等可再生
能源,扩大应用强储能技术发,确保稳定供电。鼓励企探索建设分式光伏发电、
摘要:

  全球AI耗电现状   总体来看,伴随着人工智能技术的迅猛发展,以及产业指数级增长,作为重要支撑的数据中心耗电总量和占比大幅上升。据测算,AI大语言模型GPT-3一次训练的耗电量就达1287兆瓦时,大概相当于3000辆特斯拉电动汽车共同开跑、每辆车跑20万英里所耗电量的总和。ChatGPT按每天响应约2亿个请求计算,这一过程消耗超过50万度电。国际能源署2024年1月发布报告称,2022年全球数据中心的总耗电量约460太瓦时(1太瓦时=1x10?千瓦时=10亿度),约占全球用电量的2%;到2026年,这一数据将超过1000太瓦时,大约是整个日本2022年全年的用电量。与此同时,大量的碳排放和...

展开>> 收起<<
人工智能为何如此耗电.docx

共2页,预览1页

还剩页未读, 继续阅读

作者:闻远设计 分类:其它行业资料 价格:2光币 属性:2 页 大小:9.54KB 格式:DOCX 时间:2024-11-18

开通VIP享超值会员特权

  • 多端同步记录
  • 高速下载文档
  • 免费文档工具
  • 分享文档赚钱
  • 每日登录抽奖
  • 优质衍生服务
/ 2
客服
关注