导读 | 超大规模和大型云数据中心往往是塑造行业的早期采用者,其实践最终成为数据中心设计和部署的标准。这些空间中当前的连接趋势正在支持对新兴技术的响应,以及在不断发展的数字经济和COVID-19世界中对高速、低延迟性能的需求,以快速、经济高效地增加容量的需求。 |
数十年来,在新兴技术和不断增长的数据的推动下,数字经济的发展对数据中心基础设施提出了巨大的要求。研究表明,2010年至2019年间,数据中心的空间和容量增加一倍。预计在接下来的十年中,COVID-19大流行将继续推动这一增加趋势,其正在改变人们的生活和工作方式以及世界开展业务的方式,从而进一步推动了数据中心的发展。数据中心需要快速增加容量以支持远程IT功能、更多的电子商务、增加的视频流和游戏,以及对诸如远程医疗、远程学习和在线协作等应用的更大需求。而且,他们正致力于低延迟连接。
超大规模和大型云数据中心往往是塑造行业的早期采用者,其实践最终成为数据中心设计和部署的标准。这些空间中当前的连接趋势正在支持对新兴技术的响应,以及在不断发展的数字经济和COVID-19世界中对高速、低延迟性能的需求,以快速、经济高效地增加容量的需求。
随着企业业务由于各种挑战而重新评估公共云,并开始意识到具有成本效益的超融合基础设施技术的好处,这些技术正变得越来越主流,从而使其能够模仿超大规模产品,因此他们需要采用正确的架构、部署拓扑和组件。当他们这样做时,从点对点布线转移到永久的、灵活的和基于标准的结构化布线最佳实践是可以理解的。
新兴的物联网/工业物联网(IoT / IIoT)和支持5G的技术如无人驾驶汽车、虚拟现实和增强现实、人工智能(AI)、机器对机器(M2M)通信和高级数据分析等,由于已经为数据中心的发展提供了动力,因此COVID-19大流行使人们更加需要减少等待时间(即,传输和处理数据所花费的时间)。
低延迟连接已成为外界和数字就绪的纽带,这可以通过互联网使用的显着增加以及视频流、电子商务和在线游戏的激增来证明,这使得Netflix和YouTube降低了视频质量,亚马逊网络服务(AWS)提高了容量,Microsoft Azure全天候工作以部署新服务器。
同时,公共部门和私营部门的企业都必须快速改造自己,采用完全数字化的方法来处理远程劳动力、保持业务连续性并为客户提供“一切如常”的表象,如远程医疗中的所有内容、远程学习、在线订购和交付、视频会议、在线协作和虚拟事件。因此,企业数据中心还必须通过虚拟专用网络和远程访问功能快速响应对增加带宽和最小停机时间的需求。实际上,有报告表明,自2019年3月大流行以来,美国的虚拟网络使用率增长了100%以上。
“为应对最近的大流行,对数据中心容量、网络要求和数据安全性的需求不断增长,”企业级数据中心、云和互连的提供商Databank销售运营副总裁Wendy Stewart说。美国各地的数据中心设施提供服务”之所以增加数据中心容量,部分原因是企业需要更多的基础设施来支持对远程生活(工作、学校和娱乐)的持续需求。企业不仅要满足他们当前的需求,而且还计划为将来提供一个由更多远程和虚拟生活组成的未来,这将需要更加关注正常运行时间、可伸缩性、地域多样性和安全性。”
大流行对各种类型和规模的数据中心造成的影响是不可否认的,这给现有的IT基础设施带来了巨大压力,数据中心管理人员争先恐后地扩展容量,同时确保高速、低延迟的带宽以最大程度地延长正常运行时间。延迟是由许多因素引起的,这些因素包括数据必须经过的距离、交换机之间的网络跳数以及可用带宽。尽管以前的延迟只是一个烦人的事情,即加载网页需要10秒钟,在线视频游戏中偶尔出现的抖动或暂停缓冲,但对于新兴技术和现在许多应用已经不能再容忍这样的延迟。
例如,我们考虑以下创新应用及其要求:
- 自动驾驶汽车和M2M通信需要毫秒级的信号传输。
- 企业承受不起延迟,导致与客户进行的在线视频会议持续中断。
- 在远程学习和远程医疗会议期间,需要清楚地看到和理解医学专业人士和教师。
- 娱乐业必须确保虚拟事件、视频流和在线游戏提供不间断的无缝体验。
“在COVID-19期间,我们的许多数据中心客户都面临着与快速扩展需求或远程工作的新现实有关的挑战,”数据提供商Flexential互连产品管理总监Mike Peterson说。中心、主机托管、云、连通性和数据保护,整个北美有近30个数据中心。“虚拟网络变得拥挤不堪,带宽被消耗,过时的交换网络以设计它们时从未想到的方式被推动。企业开始认识到传统的集中式方法会导致瓶颈和延迟问题。运行优化的网络体系结构,使网络集线器在内部和外部都靠近用户,可以使流量决策更靠近边缘,从而提高性能并降低延迟。”
大型超大规模和云数据中心采用的架构、拓扑和组件可提供低延迟、高带宽连接,同时优化可扩展性,从而证明其在支持新规范和增加互联网使用率、视频流、电子商务和在线游戏方面的关键作用。Netflix和Hulu都将AWS的公共云用于其大部分数据中心运营。这些功能在大流行期间使企业业务连续性发挥了举足轻重的作用,如Zoom、Microsoft 360、Salesforce、DocuSign等基于云的平台。由于这些设施在实现更快的部署、更好的性能、可伸缩性和灵活性方面非常有效,因此它们还为这些大型技术提供商提供了更快、更经济地推出新技术的方式。
尽管企业业务将云用于通用业务应用,以及廉价的存储和平台来开发和压力测试新的数字创新,但以前预期的将综合遗留IT向公共云的转移从未完全实现。许多企业业务从来没有足够的自信将敏感或关键的工作负载放置在云中,而是一直采用一种混合方法,在该方法中,内部系统仍由本地或托管空间私有托管。
现在,许多其他企业业务正在重新评估公共云方法,其中有一些将应用拉回内部。最近的调查显示,企业目前仅将大约18%的工作负载放在云中,并且大多数工作负载预计仍将是私有托管的。随着托管数据中心的出现在更多地方,使它们更靠近用户以提供更好的延迟,预计我们将看到更多的企业将这些空间用于其私人托管资产。
将IT预算从资本支出转移到运营支出,并可以访问无限的IT存储和计算资源的最初的云技术吸引力,在很多方面已被各种关注和挑战所掩盖,其中包括以下方面。
安全性—由于基于云的模型可以从任何地方访问数据,因此企业担心网络安全风险的增加和关键业务信息的暴露。
法规遵从性—受严格的数据隐私法规监管的医疗保健、金融和其他行业越来越关注公共存储数据的复制和位置,这可能会违反这些规则。
控制—缺乏对数据的完全控制和可见性,例如数据的位置和管理方式以及自定义功能的不足,使许多企业数据中心经理和IT专业人员感到沮丧。
成本—运营支出的转移加上缺乏可见性通常导致云超支,并且数据传输成本的总和远远超出了许多企业业务预期的水平。
“许多采用云优先心态的企业正在意识到在多个地方缺乏控制的情况下拥有数据的安全性问题,这就是为什么某些处理严格的隐私数据法规的行业(例如医疗保健和金融行业)从未完全采用公共云的原因,而是选择私有或混合云解决方案,” StrategITcom的RCDD / NTS、CNID、CDCP、AWS CCP负责人兼首席技术官Carrie Goetz说道,他在数据中心的设计,运行和审计方面拥有数十年的经验。
“其他认真考虑成本上升和预期增长的人意识到,公共云最终可能太昂贵了,这就是为什么Dropbox和Uber这样的公司将数据资产移回内部自己的数据中心设施的原因,他们将拥有更多的控制权和灵活性。在大流行初期,许多企业将云作为使服务启动和业务运营的阻力最小的途径,但是对于许多人来说,它也是一个束手无策的选项。向前迈进,这些公司将需要退后一步,确定将满足其长期战略并支持新的无处不在工作思路的方案。这将在企业可以维护自己的基础设施的业务位置附近产生更多的本地和边缘数据中心。”
过去,在公有云不再具有财务价值之前,企业业务的IT工作量和计算需求需要达到一定规模,但由于具有成本效益的超融合基础设施技术和大型超大规模数据中心(例如,Microsoft、Google、Facebook)和云数据中心所采用的技术现在正变得越来越主流。通过高级开源协议、白盒硬件和软件定义的网络,企业企业现在能够更紧密地模仿超大规模并部署高度虚拟化的服务器环境,这将进一步推动向公共云的转移。这些超融合的基础设施环境极大地简化了企业业务的可扩展性和可管理性,从而可以快速、经济高效地扩展容量并支持数字创新,这将使它们能够继续经受住COVID-19风暴,甚至有可能在其中蓬勃发展。
“我们的主要业务是主机托管,尤其是中小型企业,我们看到了持续的增长。尽管某些客户应用仍在使用公共云,但对于另一些客户应用来说,可能不适合技术、性能或财务状况,因此这些业务将转向托管空间和我们的基础设施。”加拿大最大的电子服务公司eStruxture高级副总裁James Beer表示,拥有网络和云中立性数据中心提供商,在蒙特利尔、温哥华和卡尔加里设有据点。“我们绝对不会看到托管需求的下降。”
近年来,数据中心已趋向于使用全网状、叶脊结构结构,该结构可减少延迟并支持虚拟化服务器环境中的数据密集型和时间敏感型应用,其中特定应用程的资源通常分布在多个服务器上。与传统的三层体系结构(通过多个交换机创建南北向流量模式)相比,叶脊方法通过减少交换机数量来优化东西方数据中心流量,以实现低延迟服务器到服务器的通信。信息必须流通,这是通过将每个分支交换机连接到结构中的每个其他分支交换机和主干交换机来完成的。
叶-脊柱结构将每个叶开关连接到结构中的每个其他叶和脊柱开关。这优化了东西向数据中心的流量,以实现低延迟服务器到服务器的通信。
从拓扑的角度来看,过去十年来,具有短点对点连接性的机架顶(ToR)部署成为支持企业数据中心中交换机到服务器连接的主要手段。但是,许多数据中心经理现在意识到,ToR拓扑不能有效地支持企业业务所需的低延迟性能和可伸缩性的现代虚拟化叶脊环境。只有永不过时的,基于标准的光纤结构化电缆才可以灵活地支持这些环境。
首先,在每个机柜中都有一个ToR分支交换机,这使得将每个分支交换机连接到其他分支交换机非常不切实际。由于一个机柜中的服务器需要与另一个机柜中的服务器“对话”,这在虚拟环境中很常见,这还意味着由于需要额外的交换跃点而导致更高的延迟。 ToR拓扑还限制了可伸缩性,因为单个交换机升级仅提高了与交换机所在机柜中服务器的连接速度。每个机柜中都有一个ToR叶子交换机,需要在整个数据中心内提供更多电源,并且需要为脊骨交换机提供更高的端口密度,这可能会导致进一步的可伸缩性约束。
此外,由于它们与小巧的SFP或QSFP模块或嵌入式收发器的内在本质,用于ToR点对点连接的组件,例如短长度直接连接线缆(DAC)和有源光缆(AOC),不支持多个未来的应用,因此随着速度的提高,将需要对其进行替换。
“作为重新唤醒IT资源并将其带回内部的一部分,企业业务将需要检查其空间并确定他们可以提供的支持。如果他们没有能力装满机柜,那么ToR就不会有多大意义,而使用集中式开关将是一个更好的选择。” Goetz说。 “还有浪费因素。那些最初以DAC支持10 Gb /秒服务器链接,而现在准备迁移到更高速度的驱动器将不得不丢弃DAC并购买新产品。距离、速度和生命周期成本都必须进行评估,以获得最佳的长期设计策略。”
ToR配置还意味着需要维护更多的交换机,这可能很快成为操作负担。端口利用率是另外一个成本问题。在使用ToR部署时,数据中心可能会发现由于电源和散热问题而导致它们无法充分利用所有交换机端口,而这通常会限制每个机柜中的高性能虚拟化服务器的数量。这些未使用的跨多个机柜的交换机端口可能加起来,最终等于不必要地购买了交换机以及相关的维护和电源。
相比之下,光纤结构的布线更适合支持虚拟化环境,支持服务器之间的低延迟通信,并提供了快速、经济高效地扩展所需的灵活性和可扩展性。使用较长距离的结构化布线,可以将较大的分支交换机放在一排机柜的末端,并通过结构化布线互连或交叉连接连接到该排中的多台服务器。通过将所有服务器连续连接到同一行末尾(EoR)叶子交换机,当位于不同机柜中的两台服务器需要进行通信时,就不会有额外的交换机跃点。
与ToR交换机不同,较大的EoR交换机不会限制可扩展性。升级EoR交换机可以加快与该行中所有服务器的连接速度,而不仅仅是单个机柜中的服务器。核心交换机对端口的较低要求也为增长提供了空间,基于标准的光纤结构线缆支持多代应用—多模和单模光纤目前支持高达400 Gig,标准机构的目标是800 Gig或更高。
还应该注意的是,与点对点组件不同,各种知名线缆制造商提供的基于标准的光缆可互操作,具有更长的保修期和第三方验证的性能,可与任何供应商的设备一起使用。结构化布线和EoR交换机还可以最大程度地提高端口利用率,因为交换机端口不限于单个机柜。可以根据需要将高密度EoR分支交换机上的交换机端口分配到连续几个机柜中的任何服务器。只需要每行维护一个开关,而不是每个机柜中维护一个开关,也可以帮助降低成本。
在机架顶部拓扑中的服务器到服务器通信,信号必须通过三个交换机传播。在具有结构化布线的行尾拓扑中,服务器到服务器的通信仅需要一个交换跃点。
第二个图显示了具有点对点连接的ToR拓扑与使用结构化线缆的EoR拓扑之间的服务器到服务器通信的差异。可以清楚地看到,当服务器A需要在ToR拓扑中与服务器B进行通信时,信号必须通过三个开关-从一个ToR分支交换机,到主干交换机,再回到第二个ToR分支交换机。即使每个ToR分支交换机都连接到其他ToR分支交换机,信号仍然需要通过两个交换机。具有结构化布线的EoR配置只需要一个交换机跃点,服务器A就可以与服务器B进行通信。
“ToR交换机供应商不会对客户进行结构化布线方面的培训,因为他们将出售较少的交换机端口,并且最初认为这种拓扑是最简单的解决方案。每个人都喜欢简单的按钮,” Goetz补充说。 “但是,有了开源的白盒解决方案以及更多的(有时功能更丰富的)供应商,现在有更多的参与者。要理解采取简易路线和重新部署的长期后果,还有很多话要说。根据未来的业务需求评估所有选项。”
在整个数据中心使用光纤结构的线缆,可以将分布区域与传统的交叉连接一起使用,以实现设备之间基于标准的灵活连接,包括从叶子交换机到服务器,从叶子交换机到主干交换机以及从服务器到存储设备。交叉连接的使用简化了虚拟服务器环境中的扩展,并使服务器群集能够更轻松地共享计算和存储资源。交叉连接的优点在于,通过使用光纤面板来镜像连接设备上的端口,数据中心管理人员可以实现“多对多”的方案,其中任何设备端口都可以通过简单地重新放置光纤跳线而连接到任何其他设备端口。
交叉连接为虚拟化环境提供了一个方便、高度灵活的“任意点对点”方案,在该环境中,任何设备端口都可以通过光纤跳线连接到任何其他设备端口。
新服务可以通过交叉连接快速上线。主分布区域(MDA)中的主干交换机可以通过永久固定链路连接到交叉连接,新的分支交换机可以轻松连接到交叉连接处未使用的主干交换机端口。当需要在会议厅外快速将客户设备连接到服务提供商设备且无需访问设备时,这在托管数据中心中尤其理想,从而在不中断数据中心的情况下提供了更高级别的安全性和保证操作。这就是为什么在这些环境中将交叉连接视为如此宝贵的资产的原因。
Databank的Stewart说:“结构化布线是一种方便、经济高效、高效且安全的方法,可将最终用户连接至Colo空间中的ISP。” “您不再需要五天时间就能将最终用户连接到ISP。由于基础设施已经就绪,因此连接可以在24小时内完成。”
eStruxture的Beers 对此表示赞同。“我们的交叉连接量逐季度增长。显然,有很多行业网络活动和流量增长,并且客户需要连接到更多的服务提供商和更多的位置。作为与运营商无关的colo提供商,我们有多个站点光纤入口和MMR,而交叉连接是一种收入来源,这意味着将我们的租户与其首选的运营商联系起来。这些最终客户交叉连接的机会也使我们能够吸引更多的运营商。”
交换机与服务器之间以及叶子交换机与骨干交换机之间的交叉连接支持灵活性和快速扩展。
交叉连接的好处在位于企业客户托管空间或本地数据中心空间中的设备分布区域(EDA)中是正确的。如果需要将新服务器添加到一行中,则可以轻松地将它们连接到交叉连接处的EoR叶子交换机。光纤结构线缆支持的距离从100米到10公里(取决于应用),这也意味着这些交叉连接几乎可以位于数据中心的任何位置。
“一旦部署了机柜或机架,交叉连接将使客户能够利用相邻的服务、合作伙伴、运营商和其他生态系统,” Flexential的Peterson说。 “交叉连接在连接到某些服务或合作伙伴时会运行到MMR,或者它们可能直接从客户网箱运行到另一个网箱。随着距离的增加,这些交叉连接越来越依赖光纤,随着带宽需求的增加,交叉连接也越来越多。对于我们来说,交叉连接就是支持我们的客户连接需求及其数字化旅程。”
企业业务及其支持的托管服务提供商利用超融合基础设施技术以及源自超大规模和云数据中心的技术,并通过永久、灵活和基于标准的结构化布线最佳实践的支持,它们将具有灵活、经济高效地扩展的灵活性。他们努力通过新的数字在线工具和功能在COVID-19时代重塑自己。
原文来自:
本文地址://gulass.cn/datacenter-structured-cabling.html编辑:清蒸github,审核员:逄增宝
Linux大全:
Linux系统大全: