新研究表明,到年的用电量到2027年,人工数据中心人工智能的智能中心用电量将与荷兰或瑞典等小国的用电量相当。 预计到2027年,数据全球每年与人工智能相关的将超用电量可能会增加85.4-134.0太瓦时。这代表了全球用电量的过荷0.5%左右,数据中心用电量的到年的用电量大幅增长,目前估计占全球用电量的人工1%到2%。 近年来,智能中心数据中心的数据用电量相对稳定地占全球用电量的1%,不包括加密货币挖矿。将超2010年至2018年间,过荷全球数据中心电力消耗可能仅增加了6%。到年的用电量人们越来越担心开发和维护人工智能模型、人工应用所需的智能中心计算资源,可能会导致数据中心对全球电力消耗的贡献激增。 在短短几年的时间内,人工智能所消耗的电力可能会与比特币现在的服务器租用消耗量一样多。虽然人工智能服务器的供应链在不久的将来面临一些瓶颈,这将抑制人工智能相关的电力消耗,但这些瓶颈可能用不了多久就会得到解决,预计到2027年,全球新制造的服务器与人工智能相关的电力消耗可能会增加85.4至134.0太瓦时。这个数字与荷兰、阿根廷和瑞典等国家的年用电量相当。 加密货币估值直线下降,导致采矿量减半。但在气候紧急情况下,比特币的耗电量仍然相当于整个国家的耗电量。虽然大多数注意力都集中在训练人工智能系统所使用的能源上,但其使用的应用或“推理”阶段可能同样耗能。 像百度搜索这样的应用中,人工智能可能会被频繁使用,以至于低功耗推理阶段使用的能量会成倍增加,与训练中使用的能量一样大。 在最坏的高防服务器情况下,将人工智能应用到百度的搜索中是可能的。将其能源消耗提高到大约爱尔兰的水平,即每年29太瓦时,但指出这样做的巨大成本可能会阻止百度实施它。 人工智能和之前的区块链等新兴技术,都伴随着大量的炒作和对错过的恐惧。这通常会导致创建的应用对终端用户几乎没有任何好处。 然而,由于人工智能是一种能源密集型技术,这也可能导致大量资源浪费。通过退后一步,尝试构建最适合最终用户需求的解决方案(避免强制使用特定技术),可以减少这种浪费的很大一部分。 人工智能不会成为包治百病的灵丹妙药,因为它最终有各种局限性。这些限制包括幻觉、歧视效应和隐私问题等因素。