网赚论坛

标题: 别再喷比特币挖矿耗电了!互联网消耗的能源更夸张 [打印本页]

作者: Baisvohib    时间: 2020-6-21 13:15
标题: 别再喷比特币挖矿耗电了!互联网消耗的能源更夸张
在美国俄勒冈州一个叫做普赖恩维尔的小镇上,坐落着 Facebook 三个庞大的数据中心,你上传到 Facebook 的度假照片,很有可能就储存在这里,而这家公司还计划再建两个数据中心。在这些比航母还大的厂房里,成千上万的电路板一排排陈列在架子上,一直延伸到没有窗户的大厅尽头,距离长到工作人员得骑着滑板车穿过。
这些庞大的建筑是新行业之王——信息提供商——的宝库。按市值计算,当前全球五大公司分别是苹果、亚马逊、Alphabet、微软和 Facebook,取代了壳牌和埃克森美孚等巨头。尽管信息工厂不会喷出滚滚黑烟,也不会有嘎吱作响的齿轮,但不代表它们就不会对环境造成影响。随着互联网和手机流量需求暴增,信息产业的能源消耗也将迎来爆炸式增长。

图 | Andrae, A. & Edler

目前,数据中心每年消耗约 200 TWh 电力,超过伊朗等一些国家全国的电力消耗,不过该电量仅是全球交通用电的一半,也相当于全球电力需求总量的 1%(参见「能源规模」)。数据中心占全球碳排放的 0.3% 左右,而信息与通讯技术(ICT)生态系统——包含个人数字设备、手机网络、电视在内的宽泛定义——占全球碳排放的比例达到 2% 以上。这使得 ICT 的碳足迹与航空业排放量相当。
未来会发生什么很难预测。但最令人担忧的一个模型预测,在今天出生的孩子长成青少年之时,ICT 的用电量将超过全球用电量的 20%,而其中数据中心占据 1/3 以上(参见「能源预测」)。如果计算密集型加密货币比特币持续发展,那么能源需求的急剧增长可能还要更早一天到来(参见「比特币之噬」)。
比特币之噬

自从 2008 年比特币诞生以来,人们越来越担心挖币会导致能源需求急速上升。虚拟货币由矿工挖采,矿工会购买专门的服务器在不断扩大的区块链中处理时间密集型计算——区块链可以证明新型加密货币的有效性。国际专业服务公司 PwC 的数据顾问亚历克斯·德弗里斯(Alex de Vries)表示,到 2018 年中期,全球的比特币矿工每年或将消耗 20 TWh 电力,低于数据中心使用的 10%,在全球总用电量中占不到 0.1%。不过,对于他们的用电量增长有多快的预测是存在争议的。
德弗里斯估计,到目前为止,比特币正在吞噬全球至少 0.33% 的电力,如果加上以太币等其它加密货币,则该数字会升至 0.5%。「我觉得这很令人震惊。」他说。
但是其他人,包括加州加密货币研究员马克·贝万德(Marc Bevand),都认为这些数字夸张了,它们所基于的是粗糙的假设。贝万德估计,到 2019 年 1 月,能源使用量至低会达到德弗里斯当前预估数字的一半。「确实有增长,但大家太夸张了。」加州的一名 IT 顾问乔纳森·库梅(Jonathan Koomey)这样说道,他目前在收集加密货币的用电量数据。
眼下,比特币挖矿只在电价便宜的地方有利可图,其中包括中国、冰岛和北美哥伦比亚河沿岸水力发电丰富的地区(贝万德认为这里所谓的便宜指电价为全球平均水平的一半左右)。当比特币矿工进入一个地区并对电网造成压力,能源公司会通过提高费用做出应对。而这可能会促使矿工要么关闭系统,要么采取措施大幅提高其硬件或系统冷却的能耗效率。
贝万德说,比特币可能会迁移到能源密集度较低的区块链系统(正如以太坊正在计划的那样)。或者,库梅指出,「如果比特币因某种原因而崩溃;所有这些设施都将消失。」
就目前而言,尽管对数据的需求不断增长,但是 ICT 的电力消耗几乎保持平稳,这是因为互联网流量和数据负载增加的同时,能源效率也在提高,比如关闭老旧设施,取而代之以像普赖恩维尔镇上那样的超高效中心。
不过,这种乐观的情况可能维持不到 10 年。美国能源部劳伦斯伯克利国家实验室的数据中心能效专业中心负责人戴尔·萨托尔(Dale Sartor)说:「现在的趋势是好的,但无法保证 5-10 年后是什么样。」
随着能源紧张的未来一步步逼近,学术实验室的科学家和世界上一些最富有公司的工程师开始探索如何控制 ICT 行业对环境的影响。他们正在简化计算流程,转用可再生能源,研究更好的方法来冷却数据中心并回收废热。
伊利诺伊州西北大学的工程师埃里克(Eric Masanet)表示,必须「严密控制」ICT 的能源消耗。Masanet 是去年国际能源署(IEA)数字化与能源报告的联合撰写人。他说,如果我们要未雨绸缪的话,那么应当控制未来的能源需求。
切换高速道

或许对 ICT 未来能源需求最令人震惊的预测来自 Anders Andrae,他在华为瑞典从事 ICT 可持续方面的工作。据他预测,到 2030 年,数据中心用电量将增长 15 倍左右,达到全球用电量估值的 8%。
这些骇人的数字引发了不少争议。Masanet 说:「这些年来,人们对 ICT 的能量消耗做出了许多耸人听闻的预测,后来都被证明是杞人忧天。」去年,IEA 的报告预测,尽管数据中心工作负载将迎来暴增——2020 年达到 2014 年的 3 倍——但能效的提升意味着用电需求只会增长 3%。有研究人员表示,到 2020 年,随着智能手机逐渐取代较大型设备,ICT 碳足迹甚至会减少。
在过去 5 年里,数据中心电力需求大致保持平稳,部分原因在「超大规模数据中心的转变」——也就是超高效信息工厂的兴起。这些工厂采用有组织的统一计算架构,能够轻松扩展数十万台服务器。
开放计算项目的首席技术官比尔·卡特(Bill Carter)告诉我们,超大规模数据中心大约 10 年前出现,当时亚马逊和谷歌等公司对服务器的需求开始超过 25 万台,甚至更多。在那时候,遵循常规的做法,使用计算公司现有的硬件毫无意义。
「你有机会层层简化直到刚好达到你所需要的程度,使之特适于你的应用。」卡特说。新的超大规模数据中心专门设计了准系统服务器。「因为没有视频监视器,我们去除了视频连接器;因为没有人在机架上走,我们取消了闪烁的灯光。服务器上也没有螺丝钉。」平均而言,超大规模数据中心的一台服务器相当于传统中心的 3.75 台。
超大规模数据中心节省的成本可以从它们的电力使用效率(PUE)中得知,PUE 也就是所有运作所需要的电力——包括灯和冷却系统,除以计算的电力消耗(1.0 的 PUE 是一个完美的分数)。传统数据中心的 PUE 一般是 2.0;超大规模数据中心将这个数字砍到大约 1.2;而谷歌的所有中心,都达到傲人的 1.12。
老旧或技术落后的数据中心设备混杂,可能很难优化——其中一些设备甚至已经无用了。2017 年,来自加州的一名 IT 顾问兼领先的国际 IT 专家 Jonathan Koomey 和一位同事一起,调查了藏在企业壁橱和地下室的 16000 多台服务器,发现其中 1/4 是「僵尸」,一边耗电,一边什么作用也没派上——或许只是因为某个人忘记把它们关掉。「这些服务器待在那儿什么也不做,光耗电,这太过分了。」库梅提到。
在 2016 年的一份报告中,劳伦斯伯克利国家实验室估计,如果美国小型数据中心 80% 的服务器迁移到超大规模数据中心,那么将节省 25% 的能耗。这项工作已经在推进中。
今天,全世界大约有 400 座超大规模数据中心,其中许多为小公司或大学提供服务,过去,这些机构都是有自己的服务器的。目前,超大规模数据中心占全世界数据中心电力用量的 20%。IEA 称,到 2020 年,这一比例将达到近 50%(参见「超大规模数据中心转变」)。

图 | IEA

冷热之战

当超大规模数据中心的负载达到极限后,想要再进一步提升效率就难了。但企业仍在不断努力。比如有一项新兴的管理技术,可以确保服务器尽可能长期地处于全负荷状态,而其它的则处于关闭而不是闲置状态。
Facebook 开发了一个叫做 Autoscale 的系统,能够减少低流量时间所需服务器的数量;该公司在 2014 年的一份报告中指出,试验显示,这一系统减少了约 10%-15% 的用电量。
超大规模数据中心之所以能够让 PUE 降下来,一个重要方法是解决冷却问题。在传统数据中心,标准空调装置的电费支出要占到 40%。而冷却塔——也就是通过蒸发水来冷却空气——却会导致另一个环境问题:水消耗。据估计,2014 年美国的数据中心使用了大约 1000 亿升水。弃用脱压缩冷却器和冷却塔,既节省能源,也节省水。
一种流行的解决方案是将数据中心设在气候凉爽的环境中,让外部的空气吹进去。这类数据中心不需要处于冰冷地区,普赖恩维尔已经足够凉爽,能够利用所谓的「自然空气冷却」,许多其它数据中心的选址也是如此,IBM 研究院的物理学家英格玛·梅耶尔(Ingmar Meijer)说道。

在谷歌位于俄勒冈州的数据中心,蓝色管道输送冷水,红色管道输送需要冷却的温水 | Connie Zhou/Google/Zuma

自来水是更好的热导体,数据中心可以用温水来冷却,这样冷却系统中生产和再循环消耗的能量较少。即便是在温带气候下,温水冷却也已经成为管理运行速度快、易热的高性能计算机冷却的不二选择,包括美国能源部的实验室和巴伐利亚科学院位于德国的 SuperMUC 超级计算机。
温暖气候区的商业数据中心有时也会投资这些系统,比如 eBay 位于亚利桑那州凤凰城的 Project Mercury 数据中心。
对于高密度、高功率计算,最高效的方法是将服务器浸入非导电石油或矿物中。Facebook 在 2012 年曾尝试这样做,以维持服务器的高速运转但避免其过度发热。梅耶尔说,目前浸入式冷却是一项维护起来非常棘手的专业领域。
2016 年,谷歌指派 DeepMind 人工智能研究团队调整公司数据中心的冷却系统,以适应天气和其它因素。谷歌表示,在测试中,团队减少了 40% 的电力用费,创造出了「测试数据中心有史以来最低的 PUE」。今年 8 月,谷歌宣布部分数据中心的冷却系统采用其人工智能算法。
卡特说,探索创新的冷却方案,并降低现有冷却方案的成本,在未来几年内会变得非常重要,「当我们连接世界时,会有地方无法享受自然空气冷却。」他指的是非洲和南亚。同时,其它方面的发展会以新的方式对 IT 基础架构造成重压。
举例而言,如果自动驾驶汽车涌上街头,用于帮助这些汽车通讯和处理数据的移动信号塔的小型服务器将需要能够实时处理 AI 工作负荷的高功率设备,也需要更好的冷却系统。
今年,开放计算项目(Open Compute Project)启动了一个先进冷却项目,旨在提升高效冷却系统的易用性。卡特说:「这些超大规模数据中心已经找到解决方案了,它们效率非常高,我们正在努力帮助其他人。」
图 | IEA/A. Andrae



与提高冷却系统效率相辅相成的,是利用服务器废热,这样就能够节省其它地方的电力需求。「这就像一笔免费资源。」IBM 研究员帕特里克·鲁赫(Patrick Ruch)说。举几个例子:巴黎的 Condorcet 数据中心将其废热直接送到旁边的气候变化植物园,那里的科学家研究的是高温对植物的影响。
在瑞士,IBM 的一个数据中心还给附近的游泳池加温。不过,热不能很好地传输,所以废热利用往往局限于靠近数据中心的客户,或是本身就使用管道热水给家庭供暖的城市。
数据中心分散在各个地方,能够使废热得到更广泛的利用,包括尝试将其转化为电力。也有些地方想用废热来运行冷却设备,比如 IBM 投资 200 万美元的 THRIVE 项目,正在开发可以更好地吸收水蒸气并在受热时释放的全新材料,以便打造出更高效的「吸附式热泵」,给数据中心降温。
电力战

归根究底,数据中心的能力取决于它们的处理器——而处理器是有升级空间的。自上世纪 40 年代起,计算机消耗每千瓦时电力所能达到的运行次数峰值大约每 1.6 年翻一番,平均值每 2.6 年翻一番。也就是说,50 年来提升了 100 亿倍。根据 Koomey 的计算,从某种程度上说,自 2000 年以来,计算机的提升速度已经放缓,而当前一代计算将在几十年内遇到限制晶体管功能的物理障碍。
「我们正面临提升速度放缓的限制。」库梅说。他认为今后要实现较可观的效率提升,需要在硬件构建和计算方面进行变革:可能通过转向量子计算。 「这基本上不可能预测。」
虽然核心重点是减少 ICT 的能源消耗,但值得注意的是,信息产业也能让我们在其它地方的能源利用更加智能和高效。
IEA 指出,如果所有的车辆都自动化,那么存在这样一种乌托邦式的可能性,即交通流量变稳和拼车变容易将使交通业总能源需求减少 60%;建筑物占过去 25 年全球电力需求增量的 60%,在提高能效方面存在巨大的进步空间:基于建筑传感器和天气预报的智能供暖和制冷,可以减少建筑物未来 10% 的能源需求。
布鲁塞尔的一个行业协会——全球电子可持续发展倡议的主管奇亚拉·文图里尼(Chiara Venturini)估计,IT 行业目前的碳足迹减少了 1.5 倍,到 2030 年这一数字可接近 10。
ICT 还可以通过用可再生能源替代化石燃料的方法,减少全球碳排放。2010 年,环境保护组织绿色和平(Greenpeace)发布了首份 ClickClean 报告,该报告对主要公司进行了排名,并重点关注了 IT 造成的环境负担。
2011 年,Facebook 承诺将使用 100% 可再生能源;2012 年,谷歌和苹果紧跟 Facebook 步伐。2017 年,近 20 家互联网公司采取了相同的做法(不过,中国互联网巨头百度、腾讯和阿里巴巴并没有效仿)。
早在 2010 年,IT 公司对能源公司的可再生能源购买协议贡献微不足道;而到了 2015 年,它们的贡献率已经达到一半(参见「绿色增长」)。谷歌是全球最大的可再生能源采购企业。
图 | IEA

减少对数据的需求或许是防止能源消耗无限增长的终极办法。但恐怕很少有人同意,比如少看一会儿 Netflix (Netflix 占到美国互联网流量的 1/3)。英国咨询工程师、数据中心专家 Ian Bitterlin 表示,仅在手机上禁用高清彩色摄像头就可以将欧洲的数据流量减少 40%。但他补充说,谁也不敢制定这样的政策,「我们没法把潘多拉的盒子再盖上,但我们可以减少数据中心用电。」
翻译:施普林格·自然上海办公室
原文以 How to stop data centres from gobbling up the world’s electricity 为标题,发布在 2018 年 9 月 12 日《自然》新闻特写上




欢迎光临 网赚论坛 (http://www.caifuba.net/) Powered by Discuz! X3.1