AI大模型技术的高能耗问题正在被学术界以及产业界高度关切。
近日,特斯拉总裁埃隆·马斯克表达担忧:“AI技术的发展速度前所未见,到了明年人类就没有足够的电力来运行所有的芯片了。”
在年初达沃斯会议上,OpenAI首席执行官萨姆·奥特曼表示,AI技术消耗的电力将远远超出人们预期。
AI大模型所带来的这一轮技术革命,被认为将深刻影响人类的生产和生活。然而,在看到AI大模型的技术价值的同时,也不能忽视所伴随的能耗难题。AI大模型对环境究竟产生怎样的影响?有哪些潜在的手段来消除负面效应呢?
ChatGPT一次训练造成
相当于126个家庭一年的碳排放量
多项研究表明,AI大模型运行极其耗电,会带来极高的碳排放量。根据斯坦福人工智能研究所发布的《2023年人工智能指数报告》,大语言模型GPT-3一次训练的耗电量为1287兆瓦时。而一辆特斯拉Model Y每跑100英里耗电28千瓦时。知名计算机专家吴军借此打了个形象的比方——ChatGPT训练一次要耗多少电?大概相当于3000辆特斯拉电动汽车共同开跑、每辆车跑20万英里。
前述报告同时提出,大语言模型GPT-3一次训练,相当于排放了552吨二氧化碳,约等于126个家庭每年的碳排放量。这显然与“双碳”目标背道而驰。
研究人员亚历克斯·德·弗里斯2023年10月10日在《Joule》上发布的论文显示,在AI技术加持下,传统互联网运行的耗电量会成倍数增长。论文数据显示,一次标准谷歌搜索耗电0.3瓦时,AI大语言模型ChatGPT响应一次用户请求耗电约2.96瓦时,在AI大模型驱动下的一次谷歌搜索则耗电8.9瓦时。
除了耗电,AI大模型还非常耗水。支撑大模型运算的数据中心服务器会需要消耗大量的水资源来散热。有研究显示,AI大语言模型GPT-3在训练期间耗水近700吨,其后每回答20至50个问题,就需消耗500毫升水。弗吉尼亚理工大学研究指出,Meta在2022年使用了超过260万立方米的水,主要就是数据中心使用。
AI高能耗问题何解?
该如何解决AI大模型的高能耗问题呢?
学者们认为,首先要正视并科学量化AI技术的能耗。2023年11月10日,研究者夏洛特·德布斯等人在《自然》杂志上发表论文表示:“AI技术的兴起会带来对能源日益增长的需求,对环境的负面影响可能会超过技术的积极影响。为了引导AI技术走上更可持续的道路,量化AI技术的能源消耗非常关键。”
2024年1月29日,美国信息技术与创新基金会(ITIF)发布报告《重新审视对人工智能能耗的担忧》称,应为AI模型制定能源透明度标准。
其次,通过提升软硬件性能、完善数据中心的设计构建从而降低AI能耗势在必行。2020年2月28日,埃里克·马萨内特等人发表在《科学》杂志上的研究指出,在2010年至2018年间,全球数据中心的运算量增长550%,存储空间增长2400%,但耗电量仅增长6%。
值得一提的是,近年来,液冷的散热方式成为高密度算力中心的部署趋势。数据显示,与传统的风冷系统相比,新型液冷系统可节省用电量的30%至50%。国际数据公司IDC最新数据显示,2023年上半年,中国液冷服务器市场规模6.6亿美元,同比增长超过280%,预计全年将达15亿美元。该机构预测,2022年至2027年,中国液冷服务器市场年复合增长率将达54.7%,2027年达到89亿美元。
此外,产业界也在积极寻找更终极的解决方案,即通过更绿色环保的新能源来代替传统能源驱动AI技术。2023年5月10日,微软公司宣布已经与核聚变初创公司Helion Energy签署购电协议,计划2028年向后者购买其核聚变发电厂的50兆瓦电力。而Helion Energy背后最大的投资者,则是OpenAI的首席执行官萨姆·奥特曼。
萨姆·奥特曼曾表示:“我认为OpenAI和Helion Energy的目标非常一致。如果我们能推动技术成本和能源成本一路走低,就能用越来越少的钱让AI系统变得强大,所有人的生活质量都将得到提高。”