第3章 骨干网组网架构和方案 3.1骨干网业务需求 骨干传输网络(简称骨干网)是用来连接多个区域或地区的高速网络,是跨城市、跨省、跨国的信息高速公路,骨干网需满足业务网络的互连和带宽流量需求。 近10年互联网发展快速,互联网流量年增长在40%以上,而且随着数字新基建的启动,5G、数据中心等新型基础设施的建设,以及数字化办公、远程医疗、远程教育的发展,网络容量的增长速度更快。业务流量带的增长推动了骨干网带的发展,如图31所示,预计骨干网的容量、单节点的容量增长率均将保持在20%以上。 图31骨干网容量和增长率 互联网的业务流量以南北向为主,早期的骨干网以链形、环形网络为主,随着数据中心建设的加速,数据中心互连的东西向流量增加,骨干网络架构需要适配新的业务需求,网络架构向立体骨干网方向演进。高端跨省政企专线提速,对网络提出了9999%的可靠性需求,同时需要具备灵活调度能力。 骨干网需要满足线路超大带宽、节点大容量、灵活调度等需求,同时提升网络性能,实现低时延、低抖动、低丢包、高可靠、高安全,以支撑数字经济时代未来千行百业上云、工业4.0智造的网络诉求。为实现这些业务目标,骨干网需要在技术和架构上持续创新,引入200Gb/s或400Gb/s高速线路,OXC/集群大容量设备、光电协同、智能化管控(SoftwareDefined Networking,SDN)等先进技术。 立体骨干网是一种新的组网架构。针对大带宽、低时延、快速提供业务的诉求,在传统链形、环形组网架构的基础上,通过对网络接口进行调整,将网络架构Mesh(网格)化、扁平化、立体化,以支撑新的能力需求。 立体骨干网主要针对互联网业务、云间高速业务、政企专线业务等大带宽业务需求构建,同时兼容承载其他传统业务。 1. 互联网业务需求 互联网业务模型经过多层汇聚后,在骨干网上传输带宽大,主要是各省出口与核心节点间的大带宽连接,业务接口速率以100GE/10GE为主,未来将逐步演进要求支持400GE及以上。 2. 云间高速业务需求 (1) 低时延: 数据中心对不同业务有不同的时延要求,同城双活要求数据中心间传输网络双向时延小于2ms,并且越低越好。跨城市的业务也要求时延尽可能低,以提升云间运算、存储的效率,业务组网时要求尽可能按最短路由直达,减少转接和绕远。 (2) 大带宽: 云间计算和存储需要大带宽互连,云间带宽一般以100Gb/s起步,大DC间带宽达到太比特每秒(Tb/s)级别以上。 (3) 高可靠: 数据中心间数据实时频繁交互,需要高可靠的网络支撑,当网络间发生断纤类故障时,能提供保护,防止业务中断。 3. 政企专线业务需求 (1) 高可靠: OTN政企专线一般用于金融、政府、大企业等高端客户,对业务可靠性要求非常高,要求业务可用率高于99.99%。 (2) 稳定低时延: 金融、证券类业务,交易时效性要求非常高,要求业务时延低,且时延抖动小。 (3) 硬管道独享: 各个企业租赁政企专线,传输的信息涉及企业机密信息,不同企业间的传输管道不能共享,需要独立的硬管道隔离,实现信息隔离。 (4) 业务带宽及种类多: 各类企业传输要求及内容差异,需要各种业务接口,包括以太网业务、SDH业务、OTN业务等各种业务接口,并且各企业带宽需求不一样,各自需求的带宽也不一样,需要网络能适配各种业务接口及各种带宽诉求。 下一代网络的骨干网架构需要考虑满足骨干网超大带宽的传输、节点间的流量不均衡、超高可靠性等要求。节点调度需考虑光、电多种调度技术,满足超大容量、全颗粒业务的按需调度。线路侧需满足干线长距离传输的能力需求,同时考虑更高带宽、更高速率技术,实现单纤更大容量传输。随着新型网络架构的使用以及对业务品质要求的提升,网络的运维能力也需要提升,需考虑智慧运维能力的提升。 3.2骨干网当前组网架构和痛点 骨干网传统的组网方式以链形组网和环形组网为主,主要满足早期的以南北向业务为主的流量模型。 1. 链形组网 如图32所示,链形组网主要是点到点业务传输,链形组网适合比较固定的节点间业务传输,组网简单,单条链路运维简单。 图32链形组网 链形组网的主要不足是: (1) 跨链路间业务无法调度,多节点传输需要建设不同的链形网络。 图33环形组网 (2) 业务调度需要人工规划和跳纤,节点数量增加后,网络复杂,无法高效运维。 (3) 保护需跨链路,系统无法协同,需要人工规划和控制。 2. 环形组网 如图33所示,环形组网是多个节点之间组成环,环上多个节点间业务可随意调度,环形组网优势是组网简单,在环上的两个方向都可以提供保护。 主要不足: (1) 环形组网上节点到核心节点主备两条路径,远路径距离绕远,时延大。 (2) 环间业务调度时,需通过环相交节点调度,无法直达,存在路径绕远情况。 (3) 环上两条路由保护,双纤故障后,无法满足99.99%的高可用率要求。 传统的组网架构较好地满足了早期业务的需求,但随着业务种类和需求的增加,已经无法满足新的骨干业务需求,无法实现业务低时延、灵活调度、超高可靠,需要新的网络架构以满足新的业务需求。 3.3骨干网新的组网架构和方案 3.3.1骨干网新架构 传统骨干网是分层建设的,分为国干、省干,业务分层转接。随着数据中心业务、政企专线业务的发展,骨干传送网架构需要升级调整适配这些新的业务需求。 新的业务模型存在如下特点: (1) 业务不均衡,部分区域流量大,导致部分段落提前用满。 (2) 新建的DC节点不在原先的骨干网络上,需要调整网络架构,满足低时延要求。 (3) 数据中心间业务可靠性要求高,并要求低时延直达。 1. 骨干网组网原则 根据业务流向和传输距离,以核心节点为中心,划分不同的子区域,再由多个子区域组成一张网络。业务流量大的网络节点间,可以建立直达链路,构建超高速平面,减少网络拥塞。 2. 骨干网组网方式及特点 骨干网按Mesh化、扁平化、立体化的方式建设。 传统骨干网以链形或环形组网为主,新的DCI业务、专线业务的发展,要求低时延,要求骨干网架构满足新的需求。 (1) Mesh化: 如图34所示,骨干节点间增加多方向连接,形成Mesh化的组网,业务可以按需选择最短路由,传输距离更短,有效降低时延。 (2) 扁平化: 如图35所示,新增的DC节点、大业务量节点,通过网络扁平化,直接纳入到骨干网中,可以有效减少不同网层间转接绕远,减少传输距离。例如,国干省干融合、省本一体化,减少网络层次,达到扁平化的目的。 图34Mesh化网络 图35扁平化网络 (3) 立体化: 如图36所示,骨干网核心节点间,业务流量比较大,核心节点间链路提前用满,导致网络总体流量不均衡,形成拥塞,需要建立核心节点间的直达超高速链路,形成立体化网络,不仅能均衡网络流量,还可以实现核心节点间的高效传输。 图36立体化网络 (4) 业务调度: 在子区域内,波长直接传输,无须加中继,可以基于波长级光交叉调度技术完成业务调度。各子区域间传输距离较远,部分业务需要增加电中继,且可能存在波长冲突,通过OTN电层的电交叉调度技术实现业务调度。在骨干网络中,需要光交叉、电交叉协同调度,实现高效调度。 3. 骨干网架构及关键技术 骨干网业务的主要特点有传输距离长、带宽大,为了实现高效传输,要求线路侧单波带宽尽可能大、并且传得远,同时要求单纤传输带宽尽可能大。考虑到新型网络架构下的光电调度需求,骨干网需要在如下技术支撑的网络中构建。 骨干网实际组网应用时,综合考虑网络光缆路由、站点分布、业务路由及业务需求等因素后,多种组网方式会在同一网络中并存,会同时存在Mesh化、扁平化、立体化,综合后的组网架构如图37所示。 图37骨干网架构 多种新型组网方式融合的网络,统称为立体骨干网,可以满足业务的低时延要求,Mesh化后,可选择最短路由,扁平化可以减少网层间转接,有效降低时延。 Mesh化和立体化后的网络,单节点光方向数超过两个,主备双断后,可通过ASON重路由的方式恢复业务,实现业务高可靠承载。 (1) 高速长距线路: 骨干业务传输平均距离在1500km以上,要求支持无电中继传输1500km以上,考虑线路大带宽,需要单波200Gb/s及以上技术,满足单纤≥16Tb/s大容量传输。 (2) 光调度: 为实现一跳直达,骨干网需要支持波长调度。核心机房的空间、供电紧张,传统的ROADM设备无法满足未来的扩容需求。基于波长级调度的新型OXC设备,支持节点内多方向间波长任意调度,成为骨干网核心节点的第一选择。骨干网线路维度数量多,本地上下波数多,需要更多的维度,并考虑网络可扩展性,需使用20维/32维的高维度OXC设备。 (3) 电调度: 骨干单节点容量大,需要设备单机支持32Tb/s及以上大容量OTN调度,支持框间调度,多框容量在100Tb/s以上。 (4) 光层频谱: 为实现骨干大容量传输,需要挖掘光纤频谱的潜力。新型掺杂工艺的EDFA放大器支持更宽的增益频谱,可以在原有C波段4THz频谱(对应于50GHz间隔的80波)的基础上,通过频谱扩展到6THz(对应于50GHz间隔的120波),有效提升可用频谱。对于光纤资源紧缺的网络,未来可以考虑同时使用C波段和L波段,进一步增加到可用频谱达到10THz甚至更高。 (5) ASON: 数据中心互连业务、政企业务,安全性要求高,骨干网络传输距离远,存在多次断纤风险,传统的1+1保护无法适应Mesh化组网的需求。骨干网需要备抗多次断纤能力,通过引入光层和电层ASON,提升网络业务的自愈能力,保障网络的安全性。 3.3.2长距离传输解决方案 骨干网实现跨地市、跨省、跨国的业务承载,传输距离远。骨干网节点间传输带宽大,但光缆敷设成本高,需要单纤实现超大容量传输。为满足骨干的长距离、大带宽传输需求,需要多项技术配合满足要求。 1. 长距传输系统的组成与关键因素 骨干传输系统主要由线路侧板卡(OTU)、分合波、光放大器等多个部件组成。主要系统组成如图38所示。 图38长距传输系统组成 对于长距传输系统来说,决定传输能力的关键因素有线路侧的OSNR容限、光放大器的噪声系数(NF)、系统代价。 (1) 线路侧OSNR容限越低,对应系统的OSNR容限越低,可传输的距离增加。 (2) 光放大器噪声系数越小,每经过一级放大器OSNR下降得越慢,就能传输越多的跨段。 (3) 系统代价包括色散代价、PMD代价、非线性代价、滤波代价等,代价越小,系统可用OSNR余量增加。 2. 系统容量影响因素 系统容量受限因素包括单载波速率、系统频谱宽度。 (1) 单根光纤所能传输的光信号的容量取决于信号的频谱效率和可用频谱带宽,当前主流的线路侧速率是100Gb/s、200Gb/s,正在向400Gb/s演进,在速率提升的同时,需要保持传输能力不变,且能提升频谱效率,这面临着较大挑战。 (2) 系统容量的另一个受限因素是频谱宽度,当前主要应用是C波段,有80波、96波系统(50GHz间隔),业界已经在技术上实现了Super C(120×50GHz)频谱扩展,同时在研究使用L波段。 3. 长距传输系统优化方法 在高速线路侧、EDFA光放器性能已经确定的情况下,如何进一步提升系统传输性能,也是一个研究方向,目前业界主要使用的方法有以下两种。 (1) 减少跨段距离,减缓OSNR劣化速度。 如图39所示,系统中存在100km以上或损耗大于30dB的跨段时,收端光放信号输入光信号偏小,光放增加的噪声总量是相对固定的,输入信号越小,OSNR比值越低,经过放大器的系统OSNR劣化更多,对传输距离影响较大。 图39调整跨段距离 通过调整跨段距离,例如,调整到80km每跨,则传输距离能增加,如果调整到60km每跨,则传输距离还能再次增加。 (2) 长跨使用拉曼放大器。 网络中存在一些长跨系统,一般是穿越无人区、跨海等地方,中间无法增加光放站,传统的EDFA无法传输,通过使用拉曼放大器,在光纤中对光信号进行放大,能有效提升系统OSNR值,实现更远距离的传输,如图310所示。 图310拉曼应用图示 3.3.3大容量节点解决方案 在骨干系统中,在业务交汇节点需要进行业务调度,常见的业务调度方式有电层交叉调度和光层交叉调度。骨干系统容量大,对节点的电层、光层需要较大的调度容量。 1. 电交叉调度 骨干传输,客户侧接入的业务种类的多样化,线路侧速率逐步提升并大于客户侧业务速率,业务还需要能灵活调度,为了满足这些需求,可采用OTN电层调度。 网络应用时,电交叉调度主要完成业务上下和不同方向间业务的调度,如图311所示。 图311核心站点多方向电层调度示意图 业务上下: 客户侧不同颗粒的业务,通过电交叉调度后,统一送到对应方向的OTU处理后,输出到光缆进行长距传输。接入的业务可以是1~100Gb/s不同速率的业务。 业务调度: 不同方向的OTU输入的业务,在调度站点不落地,需要继续传输,需要电交叉调度到对应目的方向的OTU板卡上,继续传输。 骨干节点需要调度的业务较多,要求节点的OTN设备电交叉设备具备大容量调度能力。当前业界可以实现单设备32Tb/s的电交叉容量,可满足较多站点的电交叉调度需求。 通过引入电交叉集群技术,可以实现跨子架的电交叉调度,支持单节点电交叉大容量调度。 1) OTN集群实现方案 现有网络和核心节点的调度容量超大,达到100Tb/s以上,基于单设备继续提升交叉容量调度,主要有两个问题。 (1) 槽位数量限制。即便单槽位能力提升到1Tb/s,甚至2Tb/s,单机的槽位容量终归是有限的,无法满足多个方向、多层网络聚合带来的端口数量需求。 (2) 可部署性。当前业务量的井喷式增长,使得单机业务密度快速提升,每3年达到2倍甚至更多倍的增长,因此设备的功耗持续增长,导致机房局部制冷能力跟不上,产生局部热点问题。 通过引入电交叉集群技术,可以实现跨子架的电交叉调度,支持单节点电交叉大容量调度。 (1) OTN集群系统的组成。 如图312所示,OTN集群系统由业务框和中央交换框两部分组成。业务框的作用是进行业务的接入,包括客户侧业务和线路侧业务; 中央交换框的作用是进行多个业务框框间业务的交叉调度功能。业务框和中央交换框之间用集群光模块将各自的交叉板互连,则各个业务框的支路板或线路板业务可以通过交叉层面实现互连互通。 (2) OTN集群的连接方式。 在业务框中,支路业务和线路业务分别从支路板和线路板接入,通过框内的高速背板分发给业务框交叉板。业务框交叉板既可以将任意一个业务槽位的业务交叉给业务框内其他槽位业务板,也可以将业务交叉到框间。 业务框交叉板和中央交换框交叉板之间一一对应地通过框间互连光纤连接,形成多个交叉平面。业务框交叉板接收来自任何一个业务框的框间业务,可以实现任意两个框、任意两个槽位的业务交叉功能。 2) OTN集群应用场景 OTN集群主要用于枢纽节点和核心节点的调度,也可以灵活应用于跨环/跨平面的业务调度和业务扩展。 (1) 超大站点部署场景。 ① 国干枢纽节点: 作为连接周边省份、业务中继、业务调度和业务上下功能型节点,如武汉、南京、北京、广州、上海等关键节点,如图313所示。 图312OTN集群实现方案 图313国干枢纽节点 ② 城域核心站点: 作为核心层Mesh互连的调度功能和衔接多个汇聚层功能型节点,往往形成容量超大的核心节点,如图314所示。 图314城域核心站点 集群在这类大容量调度应用场景中,提供了更多的槽位,同时分摊了功耗密度,解决了大容量OTN设备的容量增长和可部署性的矛盾。因此可以完成在可部署前提下的大容量、干线业务处理。 (2) 跨环/跨平面业务调度场景。 由于网络平面数量的快速增加,有的业务需要进行跨环、跨平面调度。当前基于传统OTN的普遍做法是在环间的OTN子架上各自配备线路板并进行背靠背互连。这种做法不仅占用业务槽位,同时由于线路板卡的高功耗和高成本直接导致投资成本增加,另外,在维护角度,必须以互连的线路板卡为节点分段式配置和监控业务状态,使用复杂。 OTN集群采用低功耗和低成本的专用集群光模块在交叉层面实现互连互通,不仅不占用业务槽位,实现了更低功耗和更低成本,而且由于集群子架采用主从子架的方式实现,多个子架在逻辑上是一个子架,实现业务端到端一站式配置和监控,使用更简单。传统OTN与OTN集群的差异如图315所示。 图315OTN集群跨环业务调度示例 (3) 扩展站点槽位资源场景。 如图316所示,在当前业务规划中,有时会出现线路侧业务需要落地时,用于落地的支路板槽位不够的情况。当前的解决办法是新增一个业务框,将包含原有已落地或穿通业务在内的支线路板割接到新子架中,再新增支路板卡用于新落地业务的处理。这种操作比较复杂,且会中断原有业务。采用集群扩展则不需要割接,直接通过新增子架与原子架形成集群系统,只要在新子架中配置支路板,进行业务配置落地即可,操作简单且不会中断原有业务。 图316业务落地能力提升场景 3) OTN集群需要的关键技术: 大容量芯片和高速互连电缆 (1) 大容量和多通道交换芯片技术。 OTN集群在保留单框交换能力的基础上,增加框间交叉功能,这实质上要求交叉芯片的处理能力成倍提升。 图317给出了传统OTN单框和OTN集群应用上对交叉芯片的处理要求差异。在传统单框OTN应用中,交叉芯片只需要支持N条链路总线及这N条链路上的业务交叉功能。而在OTN集群应用时,除了保留原有框内N条链路和其业务处理,还需要增加框间的M条链路及其业务交叉功能,实际上要求支持OTN集群的交叉芯片在高速链路数和处理容量上相比单框成倍增长。 图317OTN集群交叉芯片处理能力要求 (2) 可插拔集群光模块技术。 因为集群系统中每个单框具备各自框内的交换能力,所以在部署初期,可能不需要配置集群光模块或者配置少量带宽的集群光模块,未来业务量增长时再进行扩容。另外,由于集群系统往往在一个站点,不需要太长的传输距离,因此对于集群互连光模块来说,应具备如下几个特征。 ① 低功耗。集群光模块的作用类似背板延长技术,越低功耗则系统实现代价越低。 ② 高密度。对传输设备来说,面板空间是一种重要的资源,要实现具备从交叉板输出整框业务调度能力的带宽,其光模块的密度需要远高于普通客户侧光模块。 ③ 低成本。当前往往通过使用短距离的垂直腔面发射激光器(Vertical Cavity Surface Emitting Laser,VCSEL)技术来实现集群光模块的低成本。 ④ 满足距离应用需求。网络应用中存在少量跨机房的互连场景,跨机房应用下,互连光缆长距一般需要100m左右,集群互连光模块需要满足100m传输能力要求。 2. 光交叉调度 如图318所示,大数据时代,业务数据种类多样,数据价值更加凸显,进一步加剧数据流量的爆发式增长,对传输网络骨干节点的处理容量及调度能力提出直接挑战。 图318大带宽、低时延的网络需求 低时延网络已渐渐成为人类生活中愈发重要的高感知基础设施,如4K视频的极致体验,需要超低时延网络保障,而传统传输网络骨干节点存在机制性时延,难以满足不断降低的时延诉求。 全光交换具备大颗粒业务调度能力、天然超低时延等优势,是应对流量洪流与超低时延诉求的最佳选择。 如图319所示,最初的光层只具备分合波功能,是FOADM的方式实现,上下业务波长固定,且无法调度,只能人工跳纤。后续通过引入ROADM技术,可实现光交叉调度。 图319OTM/FOADM调度 1) ROADM光交叉调度 ROADM基于WSS技术,可实现波长级别的光交叉调度,通过波长无关、方向无关、冲突无关等多种应用的组合,满足不同网络的应用需求,具体请参考2.3.2节。 2) OXC光交叉调度 传统ROADM设备将交叉能力构建在单模块上,当调度维度逐渐增大时,需要多个ROADM设备共同组网才能满足高维度业务调度需求,占用大量机房空间,同时还需预防高维交叉调度时的波长冲突问题,难以实现端到端动态全光交叉。 传统ROADM设备由于架构设计的特点,在搭建光交换ROADM系统时完全依靠单板堆叠,导致在业务上下路节点和再生节点均需要大量复杂的人工连纤,耗时长,存在错连风险,且调度维度越高系统越复杂,后续运维挑战大。 如图320所示,8维ROADM站点的ROADM连纤达到56根,32维的达到992根,随着维度数增加,内部连纤数量呈倍数上升,存在连纤错误或连接不良的情况,需要更可靠的设备形态,实现光交叉。 图320多维ROADM调度节点内光纤连接示意图 OXC由光线路、光支路、光背板组成,采用极简架构设计,通过集成式互连构建全光交叉资源池,免除板间连纤,实现了单板即插即用,极大地降低了运维难度。 OXC是一种更灵活的全光交叉方式,天然具备超大容量、超低时延传输能力,还能实现高集成度、单板即插即用的全光交叉,有效提升了大颗粒业务的交换效率。 OXC支持环形、Mesh化和立体化骨干网多种场景下的应用。 (1) 环形组网方式中所有业务在源节点和目的节点配置光电转换OTU,在中间节点全部采用光层波长直通方式; 当源宿节点间的距离过长时,可在中间合适节点进行电再生。 (2) Mesh化网络中所有业务在源节点和目的节点配置光电转换OTU,而在中间节点全部采用光层波长直通方式; 当源宿节点间的距离过长时,可在中间合适节点进行电再生。 (3) 立体骨干网通过OXC/ROADM的光交叉调度,可实现任意方向、任意节点间的光波长调度,可让系统选择直达路由、最短路由。 光交叉设备目前具备最多32维能力,根据网路网络方向数、上下波维度数、未来扩容需求,选择合适的设备; 光交叉设备需具备波长无关性和方向无关性,支持无冲突特性。32维光方向的全光交叉节点,可实现320~640Tb/s超大容量全光交叉能力。 OXC实现的光交叉,通过内部数字化管理,实现全方位监控。 (1) 通过对波长增加数字化调顶信号,可以监控波长在OXC内部的调度方向和信号强弱。 (2) 通过内部监控点,监控设备内部的衰减异常,提供具体排查点,降低故障处理难度。 3.3.4骨干网智慧运维解决方案 1. 自动化运维: 在线监控(OSNR/光功率、衰耗、平坦度) 网络从链形、环形组网、Mesh化、扁平化、立体化发展后,组网架构变复杂,运维难度增加,需要有自动化运维接收端提升运维效率。主要通过如下功能特性实现。 1) 在线监控 在线监控功能对波分网络光层性能进行端到端、精细化、数字化管理; 通过一键式功能配置,完成网络性能自动化监控、分析。在线性能监控包括在线OSNR监控、在线光功率监控、在线衰耗监控、在线平坦度监控。 (1) 在线OSNR可实时监控中间节点及接收端每个波长的OSNR值,用于判断对应波长的接收端性能,如图321和图322所示。 图321在线OSNR可实时监控 图322频谱数据 (2) 在线光功率监控。监控系统中的单波功率和合波功率,如图323所示。 图323在线光功率监控 2) 在线OTDR 在线光时域反射仪(Optical Time Domain Reflectometer,OTDR)依据光纤的瑞利散射、菲涅尔反射两种独特的物理现象实现对光纤的测量,可以探测出光纤的断纤点、异常接头点的具体位置,利于快速光缆故障定位。在线OTDR可以在业务正常运行的时候进行实时探测,且不影响运行的业务,实现实时探测,如图324~图326所示。 图324在线OTDR探测 图325OTDR实时探测 图326OLA站点探测 2. 自动调测: 开局调测、扩容调测、在线优化 波分系统完成物理网络搭建后,需要进行系统光功率调测,需要根据站间衰耗调整线路VOA、光放增益,系统中同一个段落的波长间需要进行光功率调平,让接收端的OSNR保持平坦,这样可以让系统工作在较优的工作状态,保持稳定运行。 早期系统主要由人工调测,需要对系统参数进行反复查询、计算和调整设置,调测耗时长、效率低,且精度不高。引入自动调测后,能根据系统当前状态,自动判断需要调节的参数,计算出要调整的值,并进行反馈式调测,可大幅提升调测效率和精度,如图327所示。 图327自动调测 自动调测主要包括以下功能特性。 (1) 开局调测: 新建设的设备系统安装完成后,启用调测功能,系统会进行全面调测,包括站间VOA、光放增益、平坦度等参数。 (2) 扩容调测: 在正在运行的系统上,对新增扩容的波长进行调测,主要是新增波长光功率和老波长保持一致,同时不能影响到已有波长的正常工作。 (3) 在线优化: 如图328所示,系统运行一段时间后,由于光纤、激光器老化,系统的平坦度、站间衰耗会发生变化,需要进行参数优化,在不影响系统业务的情况下,进行优化调测,让系统重新工作在最佳状态。 图328系统平坦度优化