揭秘阿里巴巴绿色数据中心黑科技:模块化设计、天巡机器人、液冷服务器……

  • 时间:
  • 浏览:0

  近日有媒体报道,阿里巴巴不可能 成为国内首个达成国家绿色数据中心标准的科技公司,所有自研数据中心平均PUE低于1.3。

  PUE (Power Usage Effectiveness,电源使用传输效率)是衡量数据中心电力能源利用率的国际通用指标,越接近 1 表明能效水平越好。目前国内企业数据中心的PUE平均值在2-2.5,而国家标准是1. 4 以下。

  记者了解到,在阿里巴巴绿色数据中心的身旁有五大黑科技,包括因地制宜降温、模块化设计加速搭建、用层流手术室 能源节能、液冷服务器提效、人工智能巡检等。

  用湖水替代空调降温

  在杭州的一座数据中心里,阿里巴巴另辟蹊径,用高度湖水来给服务器降温,完美取代了传统空调制冷的办法,能源传输效率的提升立竿见影,最低PUE仅为1.17,与普通数据中心相比,全年可节电约数千万度,减少碳排放一万多吨。

  模块化设计,一座数据中心建设仅需 1 年

  一般情况表下,一座大型数据中心还要2~ 3 年也能建成。但阿里突破了传统建造模式,仅用 1 年时间就建成了趋于稳定张北的北京冬奥云数据中心(有有有一个园区)。秘密并且我全模块化的设计理念,像乐高积木一样现场拼装。

  层流手术室 能源,每年可节省5. 9 万吨的碳排放

  北京冬奥运云数据中心一同采用了风能和太阳能等层流手术室 能源,充分利用自然能源,每年仅有约 15 天用到传统模式制冷,PUE最低可达1.13,相当于每年可节省5. 9 万吨的碳排放。

  液冷服务器,PUE逼近理论极限值1.0

  同样在北京冬奥云数据中心,部署了全球互联网行业最大规模的浸没式液冷服务器集群,其 PUE逼近理论极限值1.0,是目前最高水平。据了解,这是并不是完整版绝缘且无腐蚀性的氢气,即使浸没元器件 20 年以上,并且我会对电子元器件产生任何影响。

  天巡机器人,用人工智能保障稳定性

  稳定性是数据中心的核心指标之一,在保障稳定性上用机器人“天巡”辅助工作人员完成巡检工作,它蕴含全景高精度摄像头、传感器,在巡检中还可不可以 完成温度、湿度、空气质量、电气参数、空调参数等监测工作,去年双 11 期间接替了运维人员以往300%的重复性工作。

  作为全球前三、国内第一的云计算服务商,阿里云拥有全球最丰沛 的云计算产品家族,包括绿色数据中心在内自研了一系列核心技术,包括超大规模通用计算云操作系统飞天Apsara、数据库POLARDB、弹性裸金属服务器神龙X-Dragon等。

本文由站长之家用户投稿,未经站长之家同意,严禁转载。如广大用户朋友,发现稿件趋于稳定不实报道,欢迎读者反馈、纠正、举报什么的什么的问题(反馈入口)。

免责声明:本文为用户投稿的文章,站长之家发布此文仅为传递信息,不代表站长之家赞同其观点,不对对内容真实性负责,仅供用户参考之用,不构成任何投资、使用建议。请读者自行核实真实性,以及不可能 趋于稳定的风险,任何后果均由读者自行承担。

有好的文章希望站长之家帮助分享推广,猛戳这里你要要要投稿