近期有媒体披露,OpenAI旗下的热门聊天机器人ChatGPT的每日电力消耗惊人,可能超过50万千瓦时。这一数字相比美国普通家庭日均29千瓦时的用电量,显得尤为突出,高达近1.7万倍之多。

展望未来,随着生成式AI的广泛应用,其电力消耗恐怕还会进一步攀升。荷兰国家银行的数据科学家Alex de Vries在一项研究中预测,到2027年,整个人工智能行业每年的电力消耗将达到85至134太瓦时,这一数字几乎相当于肯尼亚、危地马拉和克罗地亚三个国家一年的总发电量。

然而,要精确评估AI行业的实际电量消耗并非易事。尽管大型科技公司在AI领域占据主导地位,但它们往往对自身的能源消耗情况保持沉默,这使得我们难以获得全面准确的数据。

此外,不同的人工智能模型在运行方式上存在的巨大差异,也为电量消耗的估算带来了额外的复杂性。这种差异不仅体现在模型的规模和复杂度上,还与模型的训练方式、运行环境以及使用频率等多种因素有关。

值得一提的是,英伟达在图形处理器市场的地位举足轻重,占据了约95%的市场份额。根据de Vries的估计,到2027年,整个AI行业的电量消耗将达到85至134太瓦时之间,这一数字之大,足以引发人们对全球电力供应的担忧。甚至有人认为,未来AI行业的电量消耗可能会占到全球电量的一半左右,这无疑是一个值得警惕的趋势。