PTTP普天泰平 PTTP-DLG电力屏柜 47U国网机柜(高2260X宽800X深800)PTTP普天泰平PTTP-DLG电力屏柜 47U国网机柜(高2260X宽800X深800)
『PTTP普天泰平|国网电力屏柜|国家电网机柜|国网标准柜|国家电网标准柜|电力机柜|国网电力保护屏柜|远动通讯屏|光伏远动通讯屏柜|UPS直流配电单元交流配电盘ATS配电单元开关机柜IDC网络机柜|服务器机柜|网络机柜|壁柜』数据中心机柜系统|室内机柜|服务器机柜|IDC网络机柜|机房机柜|工业通信机柜|机房网络机柜|网络机柜|IDC服务器机柜|通信机柜|室内机柜|服务器机柜|网络布线机柜|电磁屏蔽机柜生产厂家机柜一般是冷轧钢板或合金制作的用来存放计算机和相关控制设备的物件,可以提供对存放设备的保护,屏蔽电磁干扰,有序、整齐地排列设备,方便以后维护设备。机柜一般分为服务器机柜、网络机柜、控制台机柜等。
网络机柜,是用来组合安装面板、插件、插箱、电子元件、器件和机械零件与部件,使其构成一个整体的安装箱。根据类型来看,有服务器机柜、壁挂式机柜、网络型机柜、标准机柜、智能防护型室外机柜等。容量值在2U到47U之间。
电力机柜
电力机柜主要应用于变电站和发电厂,以及大型工程的电力系统等。设计和制作符合相关标准,安全可靠,通用性强。机柜主体材料为1.2-2.0mm优质冷轧钢板,框架焊接式结构。内嵌式柜门,前门采用5mm钢化玻璃制作。
产品特点:
电力行业机柜采用标准网络机柜的规格和架构,柜体外形尺寸的宽度扩大到800mm,使柜内设备舱更宽敞。机柜前门为内嵌式钢化玻璃主体门,后门为对开式冷轧钢门,柜顶安装有60mm屏眉,美观大方。内部可配置活动棉板及电器横梁布线方便。结构可选择各种横梁、立柱结构,完全模块化的理念,使用更为灵活便捷。根据实际应用需求的不同,可以制作适合在室内或室外安装使用的不同规格电力机柜,均可达到防护等级标准。
规格参数及产品特征:
1、规格尺寸(宽*高*深,单位:mm): 800*2260*600
2、材质:优质冷轧钢板。
3、颜色:RAL7032、RAL7035也可以订做。
4、材质厚度:主体框架2.0mm,其余1.5mm
5、结构:焊接式框架结构,结构牢靠、工艺精湛、尺寸、外形美观。
6、层板:固定式非标设备安装层板和推拉式层板(选配)。
7、柜门:内卧式钢化玻璃前门,对开式冷轧钢后门,下部预留进风口。
8、表面处理:经脱脂、酸洗、防锈磷化、防腐、清洗等工艺后,采用大型静电喷塑处理。
9、特点:标准19英寸式结构,具有上架方便、布线快捷、快速散热等优点。
10、可选配件:导轨、理线器、智能照明、设备面板、盲板、承重底框等。
▎规格参数
外形尺寸:2260*800*600(高×宽×深,单位:mm)
机架规格:标准19英寸机架和21英寸两种,47U
主体材质:优质冷轧钢板,U柱厚2.0mm,其它部位厚1.0-2.0mm
表面处理方式:磷化,静电喷涂;颜色:卵石灰RAL7032、浅灰RAL7035、冰灰GY09等
前门类型:钢化玻璃主体,冷轧钢门边。单开,门轴在右侧,左侧装配三点锁止式柜锁
后门类型:冷轧钢板制作,下部有通风散热孔。对开,门轴在两侧,中间装配三点锁止式柜锁
托盘类型及数量:2块固定式设备托盘
散热设备:置顶式风机散热单元,带防尘滤网
接地铜排:柜底后部安装有接地铜排
并柜设计:两侧立框上各有6个并柜连接孔,右侧前立框和左侧后立框的连接孔附带螺母
顶部穿线设计:顶部左右侧各有一排穿线孔
底部穿线设计:底部设有7个长方形穿线窗,每个穿线窗使用1块可拆卸底板进行封闭
安装方式:底设有4个16mm×60mm长圆形安装孔
其它附件:2条柜顶屏楣,4只搬运吊环,40套U孔浮动螺丝
产品参数:
名称:电力调度数据网络接入设备屏柜
品牌:PTTP普天泰平
型号:电力调度数据网络接入设备柜
材料:冷轧钢板、铝合金型材
颜色:浅灰
防护等级:IP55(GB4205-1993)
标准配置:柜体、玻璃门板、双开门、电气安装架、前后门带锁
钢板厚度:框架(铝合金)
前门板带玻璃(1.0—2.5mm)
后门板双开(1.0—2.5mm)
框架(九折型材3mm)
柜体尺寸:2260(高)*800(宽)*600(深)
2260(高)*600(宽)*600(深)
2260(高)*800(宽)*1000(深)
47U机柜:
2200*800*800/2200*800*600/2200*600*1000/2200*600*800/2200*600*600
42U机柜:
2000*800*800/2000*800*600/2000*600*1000/2000*600*800/2000*600*600
37U机柜:
1800*800*800/1800*800*600/1800*600*1000/1800*600*800/1800*600*600
32U机柜:
1600*800*800/1600*800*600/1600*600*960/1600*600*800/1600*600*600
27U机柜:
1400*800*800/1400*800*600/1400*600*1000/1400*600*800/1400*600*600
22U机柜:
1200*800*600/1200*600*1000/1200*600*800
18U机柜:
1000*600*800/1000*600*600
随着企业数字化转型速度的加快,传统企业逐步开始适应云服务。据相关数据显示,2018年下半年,占比大的IaaS(基础设施即服务)市场同比增长88.4%。全年市场规模(IaaS/PaaS/SaaS)首次突破70亿美元大关。这就使得作为云服务载体的数据中心发展也随之水涨船高。
很多政企出于自身需求,也在不断建设自用数据中心。据统计,目前全国公共机构数据中心已经超过4万个。这些数据中心对于社会经济的发展贡献极大,但其产生的能耗问题也令人侧目。目前,数据中心用电量占公共机构总用电量的比例已经达到8%左右,而中央国家机关数据中心用电量占比更是高达30%。
耗电如此弥巨,但数据中心本身对所在地的税收贡献微乎其微。在运营方来看,耗电量占其数据中心整体运营成本的比重也并不很大,改造或者应用新技术去节约能源的动力不足。这就使得北,上,广,深等一线城市只能不断对数据中心加码严控。
在这种背景下,如何降低能耗,就成为了数据中心建设和运营方不得不考虑的问题。众所周知,空调系统是目前数据中心能耗的大户。尤其是对于夏天的南方各省来说尤甚。目前液冷技术经过多年的发展已经取得了长足进步,但成本制约因素很大,在相同规模下,传统的液冷在建设成本比采用气冷方式的数据中心要高出15%-20%。况且全浸式液冷,还需要对建设场地的承重有较高要求。再加上需要专业团队进行长期运维,很难在近两年内形成优势。
笔者曾经走访过南方很多数据中心,有少部分应用了一定的水冷技术,但主要还是以风冷为主。这些数据中心在机房内部密闭的空间里,通过冷风将服务器散发出来的热量带走。这种制冷方式的优点在于建设成本很低,但缺点是建设周期长,且能耗极高。
日前,笔者参观了中国移动南方基地,在这里见到了一种采用“热管水冷+空调/自然气冷”为核心技术的双通道散热系统。该系统“分而治之”的思路,或许能为我们降低数据中心能耗带来一些不错的启示。