揭秘Facebook北极圈数据中心 每天处理45亿个“赞” 它看起来就像一个外表不规则的飞船。走进内部,又像极了《银翼杀手》中的场景:一条一条狭长的走廊发出嗡嗡声,忙碌中的服务器不停闪烁蓝光,巨大的风扇高速运转。这里利用当地便宜的水电来运转,借室外的冷空气降温,这里修筑的围墙不是为了拦截间谍,而是用来拦麋鹿的。 欢迎来到Facebook在位于瑞典北部Lulea的一个数据中心——Node Pole,它离北极圈仅一步之遥,处理着你发到Facebook上的任何自拍和任何一个点 "赞"。 Node Pole早在2013年已开始运行,最近陆续向一些媒体公开。 Node Pole藏身于一大片神秘的松林、湖泊和众群岛中间,由数以千计的矩形金属板组成,是Facebook首次在美国以外的地区开设数据中心,同时也是欧洲最大的数据中心之一。Node Pole中心长300米宽100米,差不多四个足球场大。 Facebook每天处理来自全球的3.5亿张照片、45亿个“赞”和100亿条消息,这意味着Facebook需要为此配备难以置信的、巨大的技术基础设施。不管你在香港上传自拍、在巴黎更新个人状态,你的数据都会被存在Lulea,这个栖息着麋鹿和能看到北极光的地方。你要翻出一张2008年拍的照片,也靠这个中心的服务器做出应答。在瑞典建这个数据中心主要就是为了处理来自全世界惊人的数据量,按规律,每18个月产生的数据就会翻倍。 和多数互联网企业会直接去购买服务器不同,Facebook几年前就开始通过设计自己的系统和外包基建项目来建立自己的服务系统。以所有公开的标准来衡量,Node Pole是目前为止能效最高的计算机设施。 相对于传统服务器厂商的产品,这一项目开发的服务器硬件性能高38%,而运营费用则低24%。Lulea数据中心还是Facebook第一次使用来自自主“开放计算项目”的服务器硬件。 针对这些服务器,Facebook的工程师做了极大的简化,去除了许多典型的组件,如额外的内存插槽、电缆和塑料保护包装。服务器基本上就是一个简装和外露的主板,被放置在冰箱大小的机架上,这种设计的目的是让通风效果更好。基于这种服务器架构的系统需要的冷却也更少。 这里冬天平均气温差不多零下20度,外界的冷空气被泵进中心大楼内,服务器产生的大量热空气和进来的冷空气循环交换,形成自然冷却的过程。 大量风扇维持着室温的恒定。 Facebook选择这里的另外一个原因就是看上这里的供电。大约一个世纪之前,瑞典为帮助国内的钢铁、造纸等工业发展修建了水电大坝,但随着部分产业的衰落,这里的电用不完了。Facebook数据中心就利用了这些富余的电能。负责该数据中心运营TomFurlong所说,Facebook在节能环保上已经下了很大功夫,目标是到2018年,所有数据中心50%靠清洁能源和可再生能源运行。甚至有人脑洞大开,设想把多余的热能输送给游泳池,Furlong也承认Facebook确实考虑过这个点子,但发现这样做并不经济。 中心内部混搭了瑞典和加州风格。中央是一个六边形的雪花和Facebook的Logo;前台墙上挂着彩色的麋鹿图案油画;涂鸦的蓝色Facebook占据了一整面墙体。不同的时钟显示着位于北卡、艾奥瓦以及俄勒冈其他几个数据中心的时间。包括Lulea在内,Facebook在美国已有四个大型数据中心,为了迎接下一个10亿用户,今年7月Facebook又宣布将在得克萨斯的Fort Worth建第5座数据中心。 现在中心一共有150个员工,大部分是当地人。员工们认为数据中心建在Lulea棒极了,甚至有人冬天滑雪、骑着摩托雪橇来上班。他们还会一起去冰钓。 “两周前我骑车下班回家,路上竟然看到了北极光!” 中心经理Joel说。 有传言,当初为了给遥远的Lulea招商引资,Lulea也做了很多工作。2009年Matz Engman作为代表飞到硅谷见了多位科技大佬,并在接下来的两年里基本过着和瑞典9小时时差的美西时间,进过多次谈判才最终落实了Node Pole计划。为了保密,Engman甚至给Facebook数据中心项目取了代号:黄金工程。 Lulea也因是全世界最安全稳定的地方被大家知道。资料显示,瑞典最近一次战争发生在1814年,距今已有200多年;地震活动极少。 不过,到现在为止,听说小扎同学还没有到Lulea中心看看,但2012年他因为在个人主页上贴出Facebook标志性点赞大拇指的巨大冰雕照片,1分钟内引来网友点赞1000次,也瞬间让Lulea处于休眠状态的地方网站被全世界的网友挤爆。 据说,现在另外5家公司也将在附近建起数据中心。今年下半年,在它旁边的第二个数据中心将完工。