ITCOW牛新网 3月10日消息,近期热门聊天机器人ChatGPT的电量消耗问题引发了广泛关注。据The New Yorker报道,ChatGPT每天需要处理超过2亿次请求,其电量消耗可能高达每天50万千瓦时。这一数字令人震惊,因为相比之下,美国普通家庭每天的平均用电量仅为29千瓦时,意味着ChatGPT的日耗电量是普通家庭的1.7万倍以上。

an artist s illustration of artificial intelligence ai this illustration depicts language models which generate text it was created by wes cockx as part of the visualising ai project l
Photo by Google DeepMind on Pexels.com

随着生成式人工智能的快速发展和普及,其电量消耗可能会进一步激增。荷兰中央银行数据科学家Alex de Vries在一份发表于可持续能源期刊《焦耳》上的论文中进行了相关计算。他估计,如果谷歌将其生成式人工智能技术应用于所有搜索,每年将消耗约290亿千瓦时的电量。这个电量相当于肯尼亚、危地马拉和克罗地亚三个国家一年的总发电量。

然而,要准确评估蓬勃发展的AI行业究竟消耗了多少电量并不容易。据The Verge报道,尽管大型科技公司在AI领域处于领先地位,但它们对于自身的能源消耗情况却保持神秘,不愿公开具体数字。此外,不同的人工智能模型运行方式也存在巨大差异,使得电量消耗难以一概而论。

尽管如此,de Vries还是根据英伟达公布的数字进行了粗略计算。据CNBC报道援引New Street Research的数据,英伟达在图形处理器市场份额中占据了约95%的份额。de Vries估计,到2027年,整个AI行业每年将消耗85到134太瓦时(相当于1340亿千瓦时)的电量。他在接受《The Verge》采访时表示:“这相当于到2027年,人工智能的电量消耗可能占到全球电量的一半左右。我认为这是一个相当可观的数字。”

与世界上一些耗电量最大的企业相比,AI的电量消耗也显得非常庞大。根据Businessinsider基于消费者能源解决方案报告的计算,三星的年耗电量接近23太瓦时,而谷歌等科技巨头的数据中心、网络和用户设备每年耗电略高于12太瓦时,微软的耗电量则略高于10太瓦时。然而,与AI行业未来可能的电量消耗相比,这些数字仍然相形见绌。

AI技术的电量消耗问题不仅引发了对其环境影响的关注,也促使人们思考如何更有效地管理和利用能源。随着AI技术的不断进步和应用领域的扩展,解决其能源消耗问题将变得越来越紧迫。