业界关注:训练出ChatGPT需要消耗多少电力
,AI 已经重新成为科技行业的热门话题,预计它将彻底改变从零售到医药等价值数万亿美元的行业。但每创造一个新的聊天机器人或图像生成器都需要耗费大量的电力,这意味着这项技术可能释放大量温室气体,进而加剧全球变暖问题。
微软、谷歌和 ChatGPT 制造商 OpenAI 都要使用云计算,而云计算依赖于全球海量数据中心服务器内数以千计的芯片来训练被称为模型的 AI 算法,分析数据以帮助这些算法“学习”如何执行任务。ChatGPT 的成功促使其他公司竞相推出自己的 AI 系统和聊天机器人,或者开发使用大型 AI 模型的产品。
与其他形式的计算相比,AI 需要使用更多的能源,训练单个模型消耗的电力超过 100 多个美国家庭 1 年的用电量。然而,虽然 AI 行业增长非常快,但却不够透明,以至于没有人确切知道 AI 的总用电量和碳排放量。碳排放量也可能有很大差异,这取决于提供电力的发电厂类型,靠烧煤或天然气发电供电的数据中心,碳排放量显然高于太阳能或风力发电支持的数据中心。
虽然研究人员已经统计了创建单一模型所产生的碳排放量,有些公司也提供了有关他们能源使用的数据,但他们没有对这项技术的总用电量进行总体估计。AI 公司 Huging Face 研究员萨莎?卢西奥尼写了一篇论文,量化了她旗下公司 Bloom 的碳排放情况,Bloom 是 OpenAI 模型 GPT-3 的竞争对手。卢西奥尼还试图根据一组有限的公开数据,对 OpenAI 聊天机器人 ChatGPT 的碳排放情况进行评估。
提高透明度
卢西奥尼等研究人员表示,在 AI 模型的电力使用和排放方面,需要提高透明度。有了这些信息,政府和公司可能会决定,使用 GPT-3 或其他大型模型来研究癌症治疗或保护土著语言是否值得。
更高的透明度也可能带来更多的审查,加密货币行业可能会提供前车之鉴。根据剑桥比特币电力消耗指数,比特币因其耗电量过大而受到批评,每年的耗电量与阿根廷一样多。这种对电力的贪婪需求促使纽约州通过了一项为期两年的禁令,暂停向以化石燃料发电供电的加密货币采矿商发放许可证。
GPT-3 是功能单一的通用 AI 程序,可以生成语言,具有多种不同的用途。2021 年发表的一篇研究论文显示,训练 GPT-3 耗用了 1.287 吉瓦时电量,大约相当于 120 个美国家庭 1 年的用电量。同时,这样的训练产生了 502 吨碳,相当于 110 辆美国汽车 1 年的排放量。而且,这种训练只适用于一个程序,或者说是“模型”。
虽然训练 AI 模型的前期电力成本巨大,但研究人员发现,在某些情况下,这只是模型实际使用所消耗电力的 40% 左右。此外,AI 模型也在变得越来越大。OpenAI 的 GPT-3 使用了 1750 亿个参数或变量,而其前身仅使用了 15 亿个参数。
OpenAI 已经在研究 GPT-4,而且必须定期对模型进行再训练,以保持其对时事的了解。卡内基梅隆大学教授艾玛?斯特鲁贝尔是首批研究 AI 能源问题的研究人员之一,她说:“如果你不对模型进行再训练,它甚至可能不知道何为新冠肺炎。”
另一个相对的衡量标准来自谷歌,研究人员发现,AI 训练占该公司总用电量的 10% 至 15%,2021 年该公司的总用电量为 18.3 太瓦时。这意味着,谷歌的 AI 每年耗电量达 2.3 太瓦时,大约相当于亚特兰大所有家庭的 1 年用电量。
科技巨头作出净零承诺
虽然在许多情况下,AI 模型变得越来越大,但 AI 公司也在不断改进,使其以更高效的方式运行。微软、谷歌和亚马逊等美国最大的云计算公司,都做出了碳减排或净零承诺。谷歌在一份声明中表示,到 2030 年,该公司将在所有业务中实现净零排放,其目标是完全使用无碳能源运营其办公室和数据中心。谷歌还在使用 AI 来提高其数据中心的能效,该技术直接控制设施中的冷却系统。
OpenAI 也列举了该公司为提高 ChatGPT 应用程序编程接口的效率所做的工作,帮助客户降低了用电量和价格。OpenAI 发言人表示:“我们非常认真地承担起阻止和扭转气候变化的责任,我们对如何最大限度地利用我们的计算能力进行了很多思考。OpenAI 运行在 Azure 上,我们与微软团队密切合作,以提高运行大型语言模型的效率并减少碳排放。”
微软指出,该公司正在购买可再生能源,并采取其他措施,以实现之前宣布的目标,即到 2030 年实现净零排放。微软在声明中称:“作为我们创造更可持续性未来承诺的一部分,微软正在投资于研究,以衡量 AI 的能源使用和碳排放影响,同时致力于提高大型系统在培训和应用方面的效率。”
耶路撒冷希伯来大学教授罗伊?施瓦茨与微软的一个团队合作,测量了一个大型 AI 模型的碳足迹。他表示:“显然,这些公司不愿透露他们使用的是什么模型,以及它排放了多少碳。”
有些方法可以让 AI 更高效地运行。能源咨询公司 Wood Mackenzie 的本?赫兹-沙格尔表示,由于 AI 训练可以随时进行,开发者或数据中心可以将训练安排在电力更便宜或过剩的时候,从而使它们的运营更加环保。AI 公司在电力过剩时训练自己的模型,然后可以在营销中将其当成一大卖点,以此表明他们注重环保。
芯片运行耗电量惊人
大多数数据中心使用图形处理单元来训练 AI 模型,这些组件是芯片行业制造的最耗电组件之一。摩根士丹利分析师本月早些时候发布的一份报告称,大型模型需要数万个 GPU,培训周期从几周到几个月不等。
AI 领域更大的谜团之一是与所使用芯片相关的碳排放总量。最大的 GPU 制造商英伟达表示,当涉及到 AI 任务时,他们的芯片可以更快地完成任务,总体上效率更高。
英伟达在声明中表示:“与使用 CPU 相比,使用 GPU 来加速 AI 速度更快,也更高效。对于某些 AI 工作负载来说,能效通常可以提高 20 倍,对于生成式人工智能必不可少的大型语言模型,能效则可提高 300 倍。”
卢西奥尼说,虽然英伟达已经披露了与能源相关的直接排放和间接排放数据,但该公司并没有透露更多细节。她认为,当英伟达分享这些信息时,我们可能发现 GPU 消耗的电量与一个小国用电量差不多,“这可能会让人抓狂”!
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。