标题摘要内容
当前的位置:
详情
【产业要闻】AI“电荒”警告!黄仁勋、奥特曼:AI尽头是光伏和储能
来源: | 作者:深圳市人工智能产业协会 | 发布时间: 2024-03-15 | 407 次浏览 | 分享到:

近日,AI芯片龙头英伟达的创始人兼CEO黄仁勋表示,AI的未来发展与状态和储能紧密相连。他强调:“不应仅仅关注计算力,而是需要更全面地考虑能源消耗问题。AI的尽头是光伏和储能。我们不能只想着算力,如果只考虑计算机,我们需要烧掉14个地球的能源。

同时,近期OpenAl的创始人山姆·奥特曼也提出了类似的看法。他认为:“未来AI技术的发展将高度依赖于能源,特别是光伏和储能技术的进步。未来AI的技术取决于能源,我们需要更多的光伏和储能。


ChatGPT日耗电超50万度

在OpenAI训练的AI聊天机器人ChatGPT大火之后,谷歌、Meta等科技巨头们加大了在生成式人工智能研发和应用领域的投入,这也给诸多领域带来了新的发展机遇,尤其是提供算力支持的芯片,英伟达H100、A100等供不应求,大幅推升了他们的营收和利润。

不过,生成式人工智能研发和应用的热潮,也有不利的一面,例如对电力的消耗据《纽约客》杂志报道,ChatGPT每天需要处理约2亿次请求,日耗电量超过了50万千瓦时。报道中指出,根据2022年的数据,美国家庭的日均用电量是29千瓦时。50万千瓦时就已能满足17241个美国家庭一天的用电需求,是47个美国家庭一年的用电量。

如果将ChatGPT等生成式人工智能技术整合到热门的应用中,电力需求就将更大。根据发表在《焦耳》杂志上的一项研究表明,人工智能对环境的影响可能比之前认为的要大。研究发现,人工智能每年最终消耗的能源与荷兰、瑞典等国家一样大,甚至更多,可能会破坏全球减少碳排放的努力。

这篇论文的作者——阿姆斯特丹自由大学商业与经济学院的博士候选人德弗里斯(Alex de Vries)表示,基于技术的发展速度,这可能在短短几年内实现。

德弗里斯在他的研究中解释道,像ChatGPT这样的大型语言模型(LLM)需要大量的数据集来训练人工智能。他称,“如果你要花费大量资源,建立这些真正的大型模型,并尝试运营一段时间,那将是潜在的巨大能源浪费。”

AI模型经过训练阶段后,会过渡到推理阶段,然后根据新的输入生成信息。而推理阶段消耗的能源似乎更多。

研究公司SemiAnalysis表示,OpenAI公司需要3617台英伟达的HGX A100服务器,总共28936个图形处理单元(GPU)来支持ChatGPT,这意味着每天的能源需求就要达到564兆瓦时,这要比训练阶段的能源需求高得多。

德弗里斯还指出,谷歌报告显示,从2019年到2021年,其与AI相关的能源消耗中有60%来自所谓的生成推理阶段。

过去的工作常常关注的是AI训练所消耗的能量,但德弗里斯提醒道,需要有更多的工作来考虑AI的整个生命周期。

该研究论文指出,随着AI产品的广泛使用以及被更多公司采用,对AI芯片的需求正在上升。

英伟达生产的GPU芯片作为人工智能领域的命脉,该公司在2023年第二季度的收入为135亿美元,其数据中心业务较上一季度增长了141%,这一点足以证明人工智能产品需求的迅速增长。

德弗里斯告诉媒体:“考虑到未来几年的预期产量,到2027年,新制造的AI设备的用电量将与荷兰一样多,这也与瑞典、阿根廷等国的用电量处于同一范围。”

德弗里斯还承认:“最坏的情况就是,仅谷歌一家公司的AI就可以消耗与爱尔兰等国家一样多的电力。”

德弗里斯在论文中设想,如果将生成式人工智能集成到谷歌的每一个搜索中,那么届时谷歌就会大幅增加对电力的需求。

SemiAnalysis估计,在每个谷歌搜索中实现类似ChatGPT的AI,将需要51.28万个英伟达A100 HGX服务器,总计410.26万个GPU,每台服务器的电力需求为6.5千瓦,这将相当于每天80吉瓦时的电力消耗和每年29.2太瓦时的电力消耗。

另一家研究机构New Street Research也得出了类似的估计,认为谷歌将需要大约40万台服务器,这将导致每天消耗62.4吉瓦时,每年消耗22.8太瓦时的能源。

不过,《纽约客》杂志在报道中也提到,由于在推进AI研发及应用的科技巨头们,并未披露电力消耗方面的数据,因而计算AI总的耗电量并不容易。亚历克斯·德弗里斯也是基于英伟达公开的数据,给出相关的预期的。

但无论AI领域的电力需求是否容易计算,这一领域的电力消耗在大幅增加都是不争的事实。而随着AI的发展,对电力的需求预计还将持续增加。


马斯克:AI缺芯之后是缺电

今年2月底,在“博世互联世界2024”大会上,马斯克最新采访表示:芯片短缺的情况可能已经过去,但AI和电动汽车正在以如此迅猛的速度扩张,明年全球将面临电力和变压器供应紧张的问题。

回想去年此时,在一轮由ChatGPT掀起的大模型创业潮里,AI芯片成了抢手货,其中GPU最为明显。马斯克指出:“就我目力所及,我从未见过任何技术能比AI计算能力的发展更快,AI上线的算力似乎每6个月就会增加10倍。显然,这种情况不可能永远以如此高的速度持续下去,否则会超过宇宙的质量,但我从未见过任何类似的事情。这就是为什么Nvidia市值如此巨大的原因,因为他们目前拥有最好的神经网络芯片。淘“芯”热远远超过历史上所有的淘金热。”

马斯克同时指出:“AI算力的限制是可以预见的,事实上我在一年多前就预测到了这一点——一年多前的芯片短缺,神经网络芯片。然后,很容易预测,下一个短缺将是降压变压器(voltage stepdown transformers)。如果你从电力公司获得 100-300 千伏的电力,而它必须一直降压到 6 伏,这就是一个很大的降压过程。”

随后,他警告称:“那么,接下来短缺的将是电力。我认为明年,没有足够的电力来运行所有的芯片。电动汽车和人工智能的同步增长,两者都需要电力,都需要变压器——我认为,正在创造对电气设备和发电的巨大需求。”

值得注意的是,这已经不是马斯克第一次试图引起业界对于缺电危机的更大关注。

去年以来,马斯克已经多次在各个场合预警可能即将到来的电力短缺。当地时间7月14日,马斯克在xAI公司会议上预测,未来两年将经历从硅料短缺到电压器短缺,再到电力短缺,单位能源有效计算量会是最重要指标。

7月底,马斯克在太平洋瓦电公司PG&E主办的创新峰会上重申,美国2年内将爆发大缺电,到2045年美国的电力消耗将增加2倍,处理不当将阻碍AI、电动车发展机遇。他呼吁电企,尽快提升紧迫感,警告必须采取更快的行动。



AI不仅耗电还耗水

AI除了耗电量惊人,同时还非常耗水。

无论是训练阶段还是推理阶段,AI都离不开大规模的数据中心。而数据中心服务器运行的过程中会产生大量热量,水冷是服务器最普遍的方法,这就导致了巨大的水资源消耗。

有数据显示,GPT-3在训练期间耗用近700吨水,其后每回答20-50个问题,就需消耗500毫升水。弗吉尼亚理工大学研指出,数据中心每天平均必须耗费401吨水进行冷却,约合10万个家庭用水量Meta在2022年使用了超过260万立方米(约6.97亿加仑)的水,主要用于数据中心。微软在其最新的环境报告中透露,2022年公司用水量同比去年激增了34%,达到640万立方米,比2500个奥林匹克标准游泳池的水量还多。谷歌发布的2023年环境报告同样显示,其2022年消耗的水量高达212亿升,比上一年增加了 20%,其中有约196亿升的水用于数据中心。

此外,AI另一个重要基础设施芯片,其制造过程也是一个大量消耗能源和水资源的过程。能源方面,芯片制造过程需要大量电力,尤其是先进制程芯片。国际环保机构绿色和平东亚分部《消费电子供应链电力消耗及碳排放预测》报告对东亚地区三星电子、台积电等13家头部电子制造企业碳排放量研究后称,电子制造业特别是半导体行业碳排放量正在飙升,至2030年全球半导体行业用电量将飙升至237太瓦时。

水资源消耗方面,硅片工艺需要“超纯水”清洗,且芯片制程越高,耗水越多。生产一个2克重的计算机芯片,大约需要32公斤水。制造8寸晶圆,每小时耗水约250吨,12英寸晶圆则可达500吨。

台积电每年晶圆产能约3000万片,芯片生产耗水约8000万吨左右。充足的水资源已成为芯片业发展的必要条件。2023年7月,日本经济产业省决定建立新制度,向半导体工厂供应工业用水的设施建设提供补贴,以确保半导体生产所需的工业用水。

长期来看,AI、无人驾驶等推广应用将导致芯片制造业进一步增长,随之而来的将是能源资源的大量消耗。



AI耗能之困何解?

AI背后,是算力,算力背后是能耗。随着算力、性能的不断提升,人工智能飞速发展的背后,能源和水资源的消耗问题也日益凸显,成为了业内关注的焦点。

根据国际能源署估计,数据中心的用电量占全球电力消耗的1.5%至2%,大约与整个英国的耗电量相当。预计到2030年,这一比例将上升到4%。

面对AI的能耗之困,OpenAI 和微软押注的便是核聚变。

2021年,奥特曼向美国私有核聚变公司Helion Energy投资了3.75亿美元。Helion Energy声称正在建设世界上第一座核聚变发电厂。目前,该公司已经签署了一项电力购买协议,未来几年将用核聚变为微软提供能源。该协议将使世界上第一台商业核聚变发电机接入华盛顿的电网,其目标是产生至少50兆瓦的电力,比美国头两个海上风电场装机容量还多42兆瓦。Helion公司最乐观的估计是,到2029年,其将产生足以为40,000个美国家庭提供能源的能量,目前来看,远水解不了近渴。

技术路线上,微软更青睐小型模块化反应堆(SMR)。据《华尔街日报》报道,微软正在计划利用下一代核反应堆,即所谓的小型模块化反应堆,来支持其数据中心和AI项目。微软是首批对SMR表现出兴趣的公司之一。AI训练和推理的高能耗使得微软需要更多能源支撑其业务。

与投资者熟悉的光伏、风能不同,核能的优势在于能够提供全天候的稳定能源。但这项能源也有一个极其显著的障碍:令人生畏、成本高昂的核能监管程序。

人工智能的加速发展,正在加剧人们对AI和数据中心的电力消耗和潜在环境影响的担忧。据估计,由生成式人工智能驱动的搜索所消耗的能量是传统网络搜索的四到五倍。在未来几年内,大型人工智能系统可能会需要与整个国家相当的能源供应。

今年2月1日,以马萨诸塞州参议员埃德·马基为首的美国民主党提出了《2024年人工智能环境影响法案》。该法案指示国家标准与技术研究所与学术界、工业界和民间社会合作,制定评估人工智能环境影响的标准,并为人工智能开发商和运营商创建自愿报告框架。从长远来看,要真正解决人工智能对环境的影响,需要采取多方面的方法,包括人工智能行业、研究人员和立法者。在工业领域,可持续实践势在必行,并应包括测量和公开报告能源和水的使用情况;优先发展节能硬件、算法和数据中心;并仅使用可再生能源。独立机构的定期环境审计将支持透明度和对标准的遵守。