第5章 光传送网热点技术 5.1全光交叉 全光网络(AllOptical Network,AON)是指信号的传输与交换全部在光层完成,中间没有光电转换介入,并提供基于自愈和监视等功能的通信网络。数据从源节点到目的节点的传输过程都在光域内进行,各网络节点使用高可靠、大容量和高度灵活的光交换设备进行业务调度。全光网络包括光传送、光放大、光再生、光交换、光信息处理、光信号多路复接/分插、进网/出网等全光技术,具有大带宽,以及良好的透明性、兼容性、可扩展性、存活性和可靠性,是下一代光网络的发展方向。 全光交叉是对光网络系统中的光信号通过光层交叉连接进行业务调度,全光交叉可以降低网络复杂度,降低建网成本和能耗,降低业务传输时延。全光交叉同时支持本地波长业务的光分插复用功能。 5.1.1OXC是ROADM技术的演进趋势 如图51所示,与传统ROADM技术相比,光交叉连接(Optical CrossConnect,OXC)通过架构创新,采用类似于电层支路、线路分离的方式,将本地光层业务接入侧模块与线路侧模块分离,实现交叉能力从单模块能力演进到整体架构能力,极大地简化了扩维难度,使得光交叉能力向更高维度演进。 图51ROADM演进 OXC采用极简架构设计,通过集成式互连构建全光交叉资源池,免除板间连纤,实现了单板即插即用,极大地降低了运维难度。 面向未来,传输网络需要具备大容量波长级调度能力、超低时延传输能力、高维业务交换能力以及极简运维能力等。 如图52所示,OXC作为一种更灵活的全光交叉方式,天然具备超大容量、超低时延传输能力,还能实现高集成度、单板即插即用的全光交叉,有效提升了大颗粒业务的交换效率,是传输网络演进的不二选择。 图52OXC和ROADM对比 全光交叉是对光网络系统中的光信号进行全光交叉连接,解决网络间的信息耦合,并兼有节点的全光分插复用功能的全新光层调度技术,可有效提升大颗粒业务的交换效率。 OXC概念模型的基本构成包含光支路单元、光线路单元、光交叉连接矩阵功能模块和管理控制单元,如图53所示。 (1) 光交叉连接矩阵功能模块需具备光支路单元、光线路单元全Mesh互连的能力,从而实现光信号任意方向交叉调度。 (2) 光支路单元需具备本地光信号无色(Colorless)、无方向(Directionless)、无阻塞(Contentionless)接入,并通过光交叉连接矩阵功能模块调度到任意维度的光线路单元实现线路传输。 图53OXC概念模型 (3) 管理控制单元需具备对光交叉连接矩阵功能模块、光支路单元和光线路单元的数字化监控能力,实现实时波长信息可视化,简化光层运维。 然而,从概念模型到商用产品,需要多种关键技术催化,下面介绍OXC的关键技术。 5.1.2OXC关键技术 1. 关键技术一: 全光背板 光交叉连接矩阵功能模块是OXC的核心部分,充当OXC系统中光信号的调度中心。调度维度尽可能多、业务调度尽可能灵活,是该功能模块设计时必须考虑的问题。基于光纤盒的波长调度与基于全光背板的波长调度,是目前业界可见的两种解决方案,技术对比如表51和图54所示,基于光纤盒的技术方案无法完全匹配OXC光交叉连接矩阵功能模块的技术要求,相比传统分离式架构,是一种改进的临时方案,难以面向未来演进,相比之下,基于全光背板的技术方案更具优势。 表51光纤盒方案和全光背板方案对比 特性光纤盒方案全光背板方案 空间占有率高,需额外占用机房空间低 光纤接口插损高,不稳定低,一致性高 手工连纤数中不需要 故障检测能力弱强 应用灵活性差强 图54光纤盒和全光背板方案 通过在背板上封装高密度互连光纤,实现OXC系统中所有光信号的集中交换、传输和连接功能。为满足电信级应用,全光背板要求具备全光互连、高可靠、低插损、接口防尘等能力,为此,需引入光纤电路印制技术和高密度光连接器技术。 高密度光连接器技术、光纤电路印制技术构筑了OXC内部全Mesh互连的光信号“高速公路网”,为实现多方向业务上下并保障光纤链路不受灰尘影响,“高速公路网”需要设置“出闸口”,即在全光背板上装载光连接器。“高稳定性”与“高洁净度”是全光背板光连接器的主要诉求,为此,高密度光连接器技术应运而生,完美匹配了全光背板光连接器的需求。如图55所示,高密度光连接器技术可实现单连接器内20+根光纤封装,并具备如下特点。 图55光连接器和内部构造 (1) 大容差,支持多级导向,可实现光连接器之间微米级对位,精度高。 (2) 插损低且稳定性高,能够支持单板与全光背板之间多次插拔可用。 (3) 设有闭合式防尘门,实现单板插入时自动开启,拔出时自动关闭,直接阻挡灰尘。 (4) 接口具有灰尘不敏感性,即便灰尘渗入,也不影响光学性能。 2. 关键技术二: 高维度WSS 光交换的本质上是实现光信号的重构,对应于OXC模型,即将光支路单元通用端口输入的波长信号灵活交换到任意一个光线路端口输出,可调度维度的高低是衡量光信号重构能力的指标之一。 1) 光线路WSS 为实现多维度业务能自由交换到任意本地方向落地,光线路侧需具备高维光信号重构能力。目前业界有多种光信号重构方案,如基于LCoS、基于MEMS和基于LC的方案,3种方案的对比结果如表52所示,可以看出,基于LCoS技术实现光信号重构具有巨大优势。 表52光信号重构方案 能力基于LCoS基于MEMS基于LC Flexgrid支持支持支持 分辨率高低中 支持维度支持双20+维WSS,支持ADWSS通常支持4维、9维支持双9维/20维WSS 插损较低较低较高,随维度增多而增加 长期可靠性高,温控,无活动部件,已有成熟算法控制差,有高压驱动的活动部件,长期使用存在磨损和黏滞可能高,无活动部件和温控,硬软件控制简单 Flexgrid WSS即灵活栅格可调WSS,实现灵活栅格可调依赖于WSS模块内部对光斑的独立相位控制能力,独立相位控制单元区域越小,分辨率越高,反映到光频谱上实现的切片越小,性能也越好。LCoS天然具备高维度灵活栅格能力,同时基于相控原理,LCoS可产生不同的空间衍射方向,从而轻松实现20维以上的波长交换,可满足OXC高维度调度的需求。此外,LCoS还具备失效率低的特点,每个波长的光斑在LCoS阵面划分为多个像素点,部分像素点失效,不影响整体性能。从技术性能对比来看,基于LCoS技术的WSS将是未来的主流发展方向。 由于带宽需求的不断增长和光电子技术的不断发展,OTN系统波长向着高速率、大带宽方向逐步演进,单个波长占用的通道间隔也越来越大。如在长距离骨干OTN系统,100Gb/s波长占用的通道间隔为50GHz,200Gb/s波长占用的通道间隔为75GHz,400Gb/s波长占用的通道间隔将是150GHz。而OTN光层系统要求具有长周期和前瞻性,通常希望光层系统一次建设能满足未来8~10年的扩波要求,这就要求同一个光层系统能够支持多种通道间隔。因此,具备通道间隔任意可调能力的Flexgrid WSS将是业界主流的应用技术和发展趋势。 2) 光支路WSS 为满足全场景应用,OXC光支路单元需具备无色、无方向、无阻塞的光信号上下能力。目前业界常见的有基于多通道广播功能光开关(MultiCast Switch,MCS)技术的MCSCDC(Colorless & Directionless &Contentionless,无色无方向无阻塞)方案和基于LCoS技术的分/插光波长选择开关(Add/Drop Wavelength Selective Switching,ADWSS)方案,二者的技术对比如表53所示。 表53光支路WSS技术对比 特性MCSCDCADWSS 插损17dB8dB 上下波端口数1624 模块失效率2A fitA fit 高维度能力难以实现商用支持商用 批量加工能力器件堆砌,手工加工自动化 fit: 单位时间失效性(failures in time),指的是1个(单位)的产品在1×109小时内出现1次失效(或故障)的情况。 MCS技术采用耦合器/分离器进行合分波,插损大,需引入阵列式光放,同时,受分离器及耦合器架构限制,MCSCDC光口数量有限,集成度较低,因此随着维度和带宽的不断增加,MCS技术无法满足未来演进的需求。 MCS技术采用耦合器/分离器进行合分波,插损大,需引入阵列式光放,同时,受分离器及耦合器架构限制,MCSCDC光口数无法做得太高,集成度较低,因此随着维度和带宽的不断增加,MCS技术无法满足未来的需求,如图56所示。 图56MCSCDC方案 ADWSS基于硅基液晶(Liquid Crystal on Silicon,LCoS)技术,内部插损较低,无须内置光放补偿插损,复杂度降低,功耗降低,可靠性提升,同时,由于LCoS天然具备高维度灵活栅格能力,因此通过叠加一层LCoS阵列面,可平滑实现多维度无色、无方向、无阻塞光信号上下,如图57所示。 图57MCSADWSS方案 3. 关键技术三: 数字化光层 数字化光层技术对应OXC概念模型中的管理控制单元模块,是OXC主动运维的基础能力。通过多种技术配合,实现对光信息全程全网可视化监控,降低运维难度。波长跟踪技术,通过赋予波长“身份”信息,实现波长信息在线跟踪。波长跟踪技术可分为如下两部分。 1) 发端调制 图58对发端业务信号加载调顶信号,不同波长业务信号,调顶信号频率不同,与波长一一对应,实现业务信号的“个性化”标识。 图58发端调制 2) 过程检测 如图59所示,支持调顶信号全程检测,实现波长信息资源快速识别、波长路由可视化跟踪。 图59过程检测 5.2超大带宽: Super C 5.2.1单纤容量提升需要扩展通信波段 单根光纤所能传输的光信号的容量取决于信号的频谱效率和可用频谱带宽,频谱效率越高,可用频谱带宽越大,光纤的容量就越高。提升单纤容量,前期的主要思路是提升信号的频谱效率,带来的直观结果是WDM系统的单波长速率从10Gb/s开始向着40Gb/s、100Gb/s和200Gb/s等速率不断提高,针对现在的城域和数据中心互连应用,甚至已经出现了单波长400Gb/s、600Gb/s和800Gb/s等速率,并持续向更高的速率演进。WDM系统的单波长速率如图510所示。 图510WDM系统的单波长速率 提升频谱效率要求光信号采用更高阶的调制格式,或者更复杂的频谱整形方式、更多维度的复用手段,否则即使通过增加波特率的方式提高了单波长的速率,信号也会占用更多的频谱带宽,结果单纤容量并不会提升。然而,调制阶数越高,整形和复用方式越复杂,信号对系统噪声、线路和器件的线性和非线性损伤也更加敏感。受到香农极限的制约,随着频谱效率的不断增加,信号的传输距离将相应地不断下降。在现有的技术条件下,依靠增加频谱效率的方式来作为提升单纤容量的手段已经难以持续地演进下去。如3.3.2节中的描述,可以通过增加可用频谱带宽解决长距离传输问题。扩展可用光频谱带宽,或者说扩展波段,是现阶段提升单纤容量的有效手段,而且存在着巨大的挖掘空间。 5.2.2超大容量系统组成 超大容量系统由高速线路、Super C光层系统组成,高速线路要求单波大容量200Gb/s或400Gb/s,并具备长距离传输能力。光层系统需要支持更多的波长数量,频谱更宽,一般采用Super C或C+L频段,如图511所示。 图511Super C或C+L频段 5.2.3Super C关键技术 1. 宽带低噪声光放大器技术 为了延伸传输距离,在C波段波分系统中最常使用的光放大器是掺铒光纤放大器(ErbiumDoped Optical Fiber Amplifier,EDFA),用于补偿光信号在传输过程中的损耗。EDFA主要由掺铒光纤(Erbiumdoped Optical Fiber,EDF)、泵浦光源(Pump)、增益平坦滤波器(Gain Flatness Filter,GFF)等部件组成,是波分系统的核心单元之一。 目前业界商用的C80/C96系统EDFA使用的增益谱波长范围为1529~1567nm,最大带宽为38nm。如果在此基础上,直接扩展系统带宽至Super C波段,在两端扩展波长区域,EDF对信号的增益会急剧下降,特别是扩展波长的后段处于铒离子增益谱的尾端,其增益系数与C80/C96波长区域相比,有10dB左右的差异。在这种情况下,要保持各个波长的信号增益平坦,需要抬高整个频谱带宽的增益系数,然后匹配以深度更大的GFF,其结果是EDFA的噪声指数显著劣化,导致扩展波段范围后系统的传输性能变差。为了扩大EDFA的带宽使用范围,解决传输性能问题,需要对增益光纤进行创新优化。除了在光纤中掺入铒离子外,还可以增加新的掺杂元素,通过适当浓度配比,可以提升Super C波段中扩展区域波长的信号增益。采用新型掺杂增益光纤后,扩展波长区域的信号增益可以有明显提升,使得工作波段从C80/C96扩展后,噪声指数劣化程度变小。宽带低噪声光放大器技术如图512所示。 图512宽带低噪声光放大器技术 采用新型掺杂增益光纤后,Super C波段光放大器的性能可以与C80非常接近,两者噪声指数的差值可以保持在0.2dB以内。 2. 扩波段可调谐激光器技术 相干光模块中的可调激光器一般采用可调激光器技术(Distributed Bragg Reflector,DBR),波长的调谐通过基于光栅结构的前级反射镜(Front Mirror,FM)与后级反射镜(Back Mirror,BM)的调谐来实现。当前C80/C96波段的DBR可调激光器采用的是二级离散光栅结构,该结构可以保障其覆盖的38nm范围内的波长输出光功率平坦。但是如果在Super C波段继续沿用二级离散光栅结构,那么扩展波长区域的输出光功率会大幅降低。也就是说,目前采用二级离散光栅结构的可调激光器,其调谐波长范围不能满足Super C波段的频谱范围需求。 如图513所示,通过将光栅改进为新型的三级离散光栅结构,可以增大可调波长范围,满足Super C波段的波长调谐要求。在保证扩展波长输出功率、功耗、SMSR等指标规格不变的情况下,器件整体性能相比C80/C96波段无劣化,确保Super C波段内各波长输出光功率平坦。 图513三级离散光栅结构 3. 轻掺杂低插损调制器技术 基于现有的调制器技术,当波段范围从C80/C96扩展到Super C波段后,通过调制器进行电光转换时,在扩展波长区域由调制器引入的插损会随之变大。为了防止信号的损耗劣化,除了提升光源的性能之外,还应考虑改进调制器技术。其中调制器的插损是调制器的关键指标之一,是改进调制技术的关键所在,如图514所示。 图514轻掺杂低插损调制器技术 对于MZ调制器,其MZ波导的PN结掺杂是决定调制损耗的关键因素。通过优化调制器中MZ调制器的PN结掺杂结构,降低掺杂浓度,实现高良率的轻掺杂后,可以在达到同样调制效果的情况下,降低调制器的损耗,从而减小扩展区域光信号在进行电光转换时的耗损,有效补偿Super C波段扩展区域光信号的损耗劣化。长期来看,随着掺杂结构的不断优化,调制器损耗也将随之进一步降低,如图515所示。 图515掺杂结构优化 4. 高性能宽谱宽WSS技术 目前市场上主流的WSS技术都是基于LCoS技术实现的,具有结构紧凑、控制灵活的特点,且能够支持Flexgrid的应用。WSS中通过衍射光栅将不同波长的光分离开来,使它们最后垂直入射到LCoS面板的不同像素单元上,再对每个像素单元的反射光的相位进行调制,来控制反射光的偏转角度,进而使其在特定通道输出,再通过半波片调节线偏振光的偏振角度来控制输出光的强度。因此,LCoS的特性对WSS的性能有着决定性的作用。高性能宽谱宽WSS技术如图516所示。 图516高性能宽谱宽WSS技术 一方面,WSS的滤波带宽规格由LCoS可以分配给单位波长间隔的像素点数量决定,当前C80/C96系统的WSS采用的是2K像素点的LCoS,当由C80/C96演进到Super C波段时,为了确保在Super C波段维持与C80/C96系统相同的滤波带宽、通道/端口隔离度等性能规格,需要LCoS像素点提升到2.4K以上。这样可以保证每个50GHz间隔的波长所分配到的像素点数量和C80/C96系统相比是不减少的,避免因Super C波段波长数增加而引起滤波性能变差,以及因隔离度不足而引入信噪比代价。 另一方面,Super C波段意味着WSS需要在更宽的光频谱范围内实现更多的波长角度偏转,这些需要WSS的控制算法实现。配合更多像素点的LCoS芯片,需要多维度的创新性控制算法,使能多维度的调节,保证当LCoS芯片承载更多波长的时候,插入损耗、端口串扰和滤波损伤等性能不会有太大的劣化。通过上述的改进和优化,目前Super C波段的WSS在性能上已经非常接近传统C80系统广泛应用的WSS。 5.2.4扩展波段DWDM系统展望 网络流量持续高速增长的背景下,单纤容量需要继续提升。目前,业界已经开始研究支持长距干线传输的单波长400Gb/s DWDM系统,其波特率很可能达到接近2倍的长距单波长200Gb/s的波特率,这也意味着单波长400Gb/s需要更大的通道间隔(不小于125GHz间隔)。如果以80波×400Gb/s估算,所需要的光频谱带宽将至少要达到10THz。为满足单波长400Gb/s时代的光频谱带宽需求,考虑到目前L波段器件的性能和产业链情况,可以继续扩展可用频谱带宽,将L波段的光频谱资源利用起来。当前业界C+L系统的总频谱带宽约为9.6THz,可以支持76波采用125GHz间隔的单波长400Gb/s,或者64波采用150GHz间隔的单波长400Gb/s。如果希望继续保持80波波长,实现从200Gb/s到400Gb/s“距离不变,容量翻倍”,需要将可用频谱带宽扩展到不少于10THz的宽度,其频谱分布示意图如图517所示。但是要实现这样的系统,面临的主要问题包括以下几点。 图517C+L系统频谱分布示意图 (1) 关键器件性能优化: 在器件方面,L波段的激光器出光功率一般小于C波段,探测器灵敏度也稍弱一些,光放大器的转化效率相对更低,无源器件的插损一般会更大,这些因素综合起来会导致C+L的性能比单纯C波段的性能下降一些,需要通过器件的改进和优化,保障C+L系统的传输性能。 (2) 系统性能优化: 相比于传统的C波段,L波段的光纤损耗通常会更大一些,且C+L系统的合分波器会引入额外的插损。这两个因素叠加,会导致C+L系统的OSNR比传统C波段出现明显的劣化,所以需要对系统进行对应的优化设计来补偿性能损失。 (3) 抑制SRS效应的影响: 未来的C+L波段最大波长间隔达到10THz以上,波长数增加且波段变宽,SRS效应会导致短波功率更加显著地向长波长转移。若SRS导致的功率变化没有得到及时补偿,则经过多个跨段传输后,功率平坦度会出现劣化,且劣化会不断累积,最终导致系统性能严重恶化。需要研究创新的动态功率或增益控制方法,保障系统性能稳定。 (4) 系统运维优化: 在目前的技术条件下,C+L系统需要两套光层/电层,导致其相对于传统C波段系统,在规划、设计和运维等多个维度的复杂度都有增加,需要通过优化方法,降低运维的风险和成本。 面对上述挑战,产业界需要共同合作,通过技术创新等手段,推动高速大容量DWDM系统的可用频谱带宽向更宽的方向发展,同时推动系统传输性能的进一步优化,实现未来单波长400Gb/s或更高速率DWDM系统长距传输的规模商用。 5.3小颗粒交叉调度技术: OSU 随着传输技术发展,OTN已经从最初的数字包封技术,逐步演变为支持多业务承载的网络技术,OTN技术主要用于大于1Gb/s带宽和长距离的应用部署。传统OTN技术的优势体现在如下几方面。 (1) 采用时隙映射方式,不同业务在不同硬管道中承载,彼此之间物理隔离、互不影响。 (2) 网络架构稳定,从接入层到传送层,全程全网硬管道,加上超强FEC纠错能力,为业务提供零丢包,零拥塞的绝对品质保障。 (3) 时延的可确定性,OTN光网络就好比高铁,物理隔离就好比铁轨,不受红绿灯、堵车影响,具有绝对确定性低时延。 随着5G大规模部署与网络向云化趋势,可以看到未来业务的海量连接诉求,OTN光网络接入以专线和视频为代表的多样化业务时,将为OTN市场带来巨大机遇,但同时也会迎来挑战,传统OTN技术的不足: (1) 连接数不足: 传统ODUflex以N×ODU0(1.25Gb/s)进行时隙捆绑,每个ODU4(100Gb/s)最多支持80个时隙,难以支撑未来海量业务连接的诉求。 (2) 资源利用率不高: 如果接入一个100Mb/s的业务,按最小容器ODU0(125Gb/s)计算,实际的带宽利用率不到10%。 (3) 时延还不够低: 传统OTN采用多级封装映射方式,以低阶VC12为例,需经过VC12→VC4→ODU1 →ODU4→OTUCn至少5级的封装映射,虽然时延确定,但是还有进一步降低的空间。 (4) 带宽调整不够灵活: 传统OTN仅支持有损调整,即在不删除业务的情况下,短暂中断业务,然后实现端到端的ODUflex带宽增大或减小调整,整体限制较多且不够灵活。 5.3.1OSU技术定义 针对OTN技术的不足,产生了全新的光通道业务单元(Optical Service Unit,OSU)容器技术用于承载客户信号,按照灵活时隙定义OSU带宽,可以更高效地承载灵活带宽业务。 同时,OSU在复接映射路径上也做了优化。客户侧信号可以通过OSU封装映射到低阶ODU上(如图518中的路径①),也可以通过OSU直接封装映射到高阶ODUCn(如图518中的路径②)。前者适用于与现网OTN共存互通,能最大限度地保护运营商投资,后者适用于端到端部署全新网络,映射层次更加简洁。OSU灵活的复接映射方式也支持传统OTN向OSU的平滑演进。 图518面向业务的OSU映射方式 与传统OTN相比,OSU的帧结构也发生了变化,下面以OSU复用映射到高阶ODU为例讲解。 如图519所示,ODU和OTU开销与传统OTN方式一样,主要区别为OPUk净荷区域被划分为了多个净荷块(Payload Block,PB),每个净荷块对应包含通道号标识(Tributary Port Number,TPN)和OSU开销。OSU采用定长帧结构,包括开销和净荷区域,净荷区域中为承载的实际业务信号。当多个OSU复接到OPUk时,每个OSU通过TPN作为服务层中的唯一通道标识。OSU采用了定长帧、灵活时隙复接,划分成更小的带宽颗粒,从而满足城域复杂业务的承载要求。 图519OSU帧结构 5.3.2OSU技术优势 OSU技术在现有的OTN架构体系基础上,定义面向业务的灵活容器单元OSU,采用定长帧灵活复接方式,将ODU划分成更小的带宽颗粒,实现了兼容现有WDM、OTN、MSTP光传送网络的高效承载。 OSU支持最小2Mb/s颗粒的硬切片,物理管道从125Gb/s(ODU0)精细到2Mb/s(OSU); 基于OTN交换架构,实现大小颗粒统一调度; 通过TPN通道标识,实现一级快速寻址定位,在业务连接数增加的情况下,降低98%的管理复杂度,整体提升网络运营效率。 面向对业务传输品质存在要求的场景,提供超高品质的传输链路,继承了ODUk的保护能力,可提供全程分离的工作保护路径,路径发生故障时倒换对业务实现50ms倒换,甚至零丢包(需特殊设计)。 OSU通过物理隔离硬管道、更小颗粒网络切片,以确定性的网络能力可为运营商不同业务提供差异化SLA保障。整体来看,OSU作为下一代光网络技术,主要定义了四大技术优势,如图520所示。 图520OSU的四大技术优势 (1) 极简架构: 统一交叉调度,PKT/SDH/ODU→OSU(3合1),简化承载架构,构筑绿色生态,在保障业务品质的情况下实现单比特传输成本最优。 (2) 泛在连接: 灵活时隙管道,单个100Gb/s最大可支持1000条业务连接,业务连接数提升12.5倍,使能无处不在的光连接,为万物互连的智能世界构筑最坚实的全光底座。 (3) 超低时延: 简化映射机制、减少处理层级,提供差异化分级时延,基于不同业务诉求提供更丰富的时延套餐,支撑其网络时延资源的销售和商业变现。 (4) 灵活高效: 无级业务变速、无损带宽调整,可满足业务临时性、计划外的带宽需求,实现精细化的带宽资源管控,提供按需随选的带宽消费服务。 1. 极简架构,统一交叉调度 从传统OTN到MSOTN,通过不同交换平面(VC平面、OTN平面、分组平面)实现了统一的业务承载。面向专线场景,OSU可通过统一的OSU交换平面,实现了统一的业务承载界面以及统一的管道资源分配。两种技术的对比如图521所示。 图521MSOTN 3类业务管道交换与统一OSU管道交换对比 MSOTN向OSU演进,是为了满足未来光网络小颗粒业务的传输诉求,采用OSU单一容器调度,所有业务按需进行带宽资源分配,统一的调度平台能减少支路、线路板卡种类,统一OSU交叉颗粒使业务配置更加简单。 OSU将承载架构进一步的简化,从MSOTN时代的多业务多平面承载逐渐过渡到多业务接入统一承载,在保障业务品质的情况下实现每比特传输成本最优。 2. 面向业务,带宽随选的硬管道 OSU定义灵活支路单元(TUflex),1个OSU业务对应1个TUflex,相同TPN的PB对应1个OSU管道。PB代表最小带宽颗粒,OPU/TS被划分成多个PB的承载周期,而1个TUflex在承载周期内又占用多个PB,通过灵活时隙映射,实现精细化带宽管理,如图522所示。 图522灵活时隙映射 传统OTN采用固定时隙映射,最小业务调度颗粒为ODU0(1.25Gb/s),无论业务颗粒大小,都必须封装到1个ODU0中,带宽利用率低。假设业务速率为100Mb/s时,100M封装到ODU0,带宽利用率仅10%。OSU采用灵活时隙映射,通过动态染色确定PB与TUflex关系。无论是100Mb/s业务,还是10Gb/s业务,都可以为业务实际带宽定制大小合适的OSU容器,如图523所示。 图523连接数大幅度提升 基于OSU的下一代光网络作为一张基础设施网络,可以通过泛在业务连接能力,实现大小不同颗粒物理网络切片,满足不同商用场景差异化承载需求。基于OSU网络切片还能保证严格物理隔离,任何切片的运行维护不影响其他切片,包括正常业务运行、业务增删操作等,通过光传送切片网络(Optical Optical Transmission Slicing Network,OTSN),还可以实现一网多用,允许第三方大客户管理自己的切片网络,提供在线的业务状态可视、网络资源可视等功能。 3. 超低时延,适配时延敏感场景 业务每经过一次封装时延都会增加,封装层级越多则时延越大,传统OTN技术通常提供5层逐级映射封装,OSU简化了封装映射,无论业务颗粒是大还是小,都统一采用OSU封装,直接映射封装到最高阶ODUk通道,大幅降低了业务封装时延。以2Mb/s业务为例: 传统OTN经过VC12→VC4→ODU0→ODU4→OTUCn 5层封装复用,而通过OSU技术,2Mb/s业务直接通过OSU→ODU4→OTUCn 3层封装复用,极大简化了配置流程。简化业务封装如图524所示。 图524简化业务封装 另外,传统OTN技术在集中交叉处理时,严格按开销先后顺序转发,交叉处理也在一定程度上增大了时延。OSU在集中交叉处理时,开销转发按序先到先走,无须严格按序等待,大幅降低交叉处理时延。 综合多种优化方式,OSU技术可将单站传输时延降低70%,将广泛应用在金融交易、自动驾驶、工业智能制造、大规模数据中心协同计算等时延敏感的业务场景。 4. 灵活高效,无级无损调速 如图525所示,OSU采用定长帧,灵活时隙复接将ODUk划分成更小的带宽颗粒。在业务带宽分配上,相同TPN占用PB数量来确定业务带宽。由于OSU数据与时钟功能完全分离,仅需调整承载周期内PB数量就可以调整带宽,然后在接收端通过预置,就能实现带宽无损调整。下面举例说明。 图525OSU带宽调整 5.3.3OSU网络平滑演进 对运营商而言,新一代技术具备平滑演进能力而保护投资,这是非常有必要的。如图526所示,OTN设备架构上具备集成ODU&OSU的混合调度能力,可兼容传统OTN网络的平滑演进。 图526ODU&OSU混合调度 首先,OTN设备的交换网应具备ODU&OSU混合调度的能力,可以按照业务灵活配置为ODU调度或者OSU调度,这样可以保证ODU和OSU联合组网,OTN通过ODU和OSU提供从骨干到城域、接入的端到端业务传输通道,能够实现多种业务的综合承载。 其次,OTN业务单板也应具备ODU&OSU混业务接入能力和线路调度能力,OTN客户侧支持ODU&OSU混合业务接入能力,目的是保证现网OTN设备可以平滑接入最新的OSU网络; OTN线路测ODU&OSU混合业务接入能力,目的是方便现有OTN网络平滑演进到OSU网络。 在实际应用中,OTN骨干网、城域网或者城域核心网可部署光层Mesh网拓扑、光层环网拓扑或光层Mesh网和光层环网拓扑的混合。OTN节点之间的带宽需求为N×100Gb/s左右,可以采用ODU通过OTUCn/FlexO(n=2,4,6,8)或者OTU4接口进行连接。 OTN城域网或者城域汇聚网可部署点到点光层网络拓扑或者光层环网拓扑。OTN节点之间的带宽需求为100~200Gb/s。可以采用ODU或OSU方式通过OTUC1/FlexO、OTUC2/FlexO或者OTU4接口进行连接。 靠近客户侧的OTN接入网可部署点到点光层网络拓扑或者光层环网拓扑方式,OTN节点之间的带宽需求可采用OSU技术并根据客户需要灵活配置。在需要采用极致低时延的金融类高品质专线场景,需要采用光层直接穿通的方式。 5.4高精度时间同步技术 5.4.1时间同步的基本概念 时间同步(Time Synchronization)是指两个信号具有相同的频率、相同的相位,并且脉冲出现的顺序(也就是时间标志,或称为时间戳)也相同。 两个信号具有相同的频率,而且脉冲出现的顺序也相同,即信号1和信号2都是按照脉冲①、②、③、④同时顺序出现的。 (1) 如果信号1和信号2脉冲具有相位差,则这两个信号时间不同步,如图527所示。 图527时间不同步 (2) 如果信号1和信号2脉冲的相位相差为零,则这两个信号时间同步,如图528所示。 图528时间同步 相位和时间同步性能指标均以基于“秒”的系列单位来衡量,表示被测设备信号相位或时间相对于基准设备信号相位或时间的偏离值。常见的如s(秒)、ms(毫秒,1×10-3秒)、μs(微秒,1×10-6秒)、ns(纳秒,1×10-9秒)等。 5.4.2OTN网络需要支持时间/时钟同步 1. 承载网络需要OTN网络支持时间/时钟实现时钟同步 基站间需要严格实现时钟或时间同步,目前业界有多种同步解决方案,如基站卫星同步技术(如GPS和北斗)、网络IEEE 1588v2技术等。基站卫星同步技术要求每个基站都安装卫星接收天线,从卫星无线信号获取精准时间/时钟。但由于卫星无线信号存在安全和易干扰问题,基站卫星同步技术的可靠性需要考虑。对于网络IEEE 1588v2技术,网络可以通过IEEE 1588v2协议报文,传递精准的时间/时钟给基站。而且由于IEEE 1588v2通过地面有线传输,没有安全和干扰问题,但为了保证传递的时间/时钟精度,从IEEE 1588时钟源设备到基站中间的每个网络设备都需要支持IEEE 1588v2协议。目前,IP化无线接入网(IP Radio Access Network,IPRAN)/分组传送网(Packet Transport Network,PTN)/分片分组网(Slicing Packet Network,SPN)等移动回传设备需要通过OTN进行带宽传送,作为基础网,OTN是端到端承载网络的一部分,也需要支持IEEE 1588v2技术。 1) 基站卫星同步 (1) 成本高: 每个基站都需要配置一套卫星信号接收系统,包括室外卫星天线以及基站设备内的卫星接收机。 (2) 失效率高: 每个基站都只配置了一个卫星接收机(接收卫星信号的装置),无保护。 (3) 可维护性差: 如果卫星信号失效,则需要到现场更换硬件,无法远程维护。 2) 网络IEEE 1588v2同步 (1) 成本低: 只需要在IEEE 1588v2服务器安装卫星信号接收系统,就可以实现整个网络时间/时钟同步,不需要每个基站都配置卫星信号接收系统。一般网络只需要部署两个IEEE 1588v2服务器(互为备份),即只需要部署两套卫星信号接收系统。 (2) 可靠性高: 时钟或时间同步成网,可以端到端配置保护。 (3) 可维护性高: 无施工限制,部署简单,有网络管理系统统一管理。 由于IEEE 1588v2要求承载网络上的所有设备都要支持IEEE 1588v2协议,大部分OTN网络采用业务透传组网,不支持IEEE 1588v2协议的处理,而且OTN网络透传IEEE 1588v2的时钟/时间性能无法达到高精度时间的要求,因此,OTN网络可以通过线路侧带外方式支持。 2. SDH关联场景需要OTN网络支持时钟频率同步 运营商现网中还存在大量的SDH存量设备,在新老网络共同组网时,仍需满足SDH对时钟同步的要求。 SDH网络自身是同步网络,所以当用WDM/OTN网络替代SDH网络或者与SDH混合组网时,会直接处理SDH业务,构成SDH同步网的一部分,因此要求WDM/OTN网络必须支持时钟同步。 5.4.3承载网络SyncE+IEEE 1588v2逐跳同步方案 SyncE+IEEE 1588v2逐跳同步方案本质上仍然属于一种拉远的相对集中的卫星同步方案,即把卫星同步接收机移到承载网络的上层(如: SyncE+IEEE 1588v2时钟源设备上),通过相关协议将精确的频率和时间逐跳传递到基站。当前最合适的网络频率同步协议是SyncE; 最合适的时间同步协议是IEEE 1588v2,也称为精密时间协议(Precision Time Protocol,PTP)。此外,国际电信联盟标准组织ITU在IEEE 1588v2基础上做了适当优化并形成了ITUT G.8275.1等电信领域的IEEE 1588v2专用系列标准,使之更适用于电信领域,且仍能与IEEE 1588v2兼容对接。因此,在很多场合对于IEEE 1588v2和ITUT G.8275.1并没有严格区分。 ITUT G.8275.1与IEEE 1588v2比较,主要差异如下: (1) ITUT G.8275.1简化了网元模型和选源算法,更适用于电信领域。 (2) ITUT G.8275.1对报文的定义更加明确,便于互连互通。 IEEE 1588v2只定义了时间同步的协议方法,但是并没有对时间同步性能进行系统的定义。ITUT G.8273.2是由ITU对单设备的时间同步性能进行系统定义的电信标准,性能指标主要包括时间偏差、噪声容限、噪声传递、相位瞬变、保持性能。 一个完整的SyncE+IEEE 1588v2同步网络由时钟源、承载网络、基站3部分组成,如图529所示。 图529SyncE+IEEE 1588v2同步网络架构 对于时钟源,设备类型可以看成是增加了卫星输入和SyncE+IEEE 1588v2输出功能的BITS,其中SyncE和IEEE 1588v2虽然是两个不同的协议,但在实际部署中都可以从同一个物理接口如GE光口输出。时钟源注入承载网络的节点一般选择放置在无线网络控制器(Radio Network Controller,RNC)/演进型分组核心网(Evolved Packet Core,EPC)侧或骨干层,若网络规模较大,则可以放在汇聚层。一个SyncE+IEEE 1588v2同步网络一般配置一主一备两个时钟源设备,不同时钟通过配置不同的优先级实现备份。在ITUT标准中,IEEE 1588v2时钟源/服务器也被称为电信级主时钟(Telecom GrandMaster,TGM)。 对于承载设备,一般采用分层结构,可分为骨干层、汇聚层和接入层。按照不同网络规模,3个层次可以合并,如在某些场景下,骨干层和汇聚层融合。承载网络的网络拓扑一般分为环形、树形、链形、星形等,由于同步网络需要实现网络保护,故建议采用环形网络,末端可以采用链形组网。在逐跳同步的场景下,回传承载网络元在ITUT G.8273.2中被定义为电信级边界时钟(Telecom Boundary Clock,TBC)设备。 对于基站,则从承载设备的业务端口或者专用的同步端口获取频率和时间同步。 SyncE频率同步协议主要基于物理层实现,不受流量和带宽的影响,客户端恢复的频率同步性能一般仍然远远高于基站5×10-8的频率同步需求。而IEEE 1588v2属于应用层协议,客户端恢复的时间同步性能与流量带宽相关事件(如拥塞)有相关性,实际恢复精度与基站需求一般在同一个数量级,故需针对从时钟源设备,经过承载网络再到基站的端到端时间同步精度误差进行分解分配。 1. 承载网络网元的精度等级定义 ITUT G.8273.2针对承载网络网元TBC定义了Class A、Class B、Class C和Class D 4个等级,4个精度等级的具体要求定义如表54和图530所示,其主要差异在于最大时间精度误差Max|TE|、静态时间精度误差cTE、动态时间精度误差dTE等指标,用于衡量在将时钟源的IEEE 1588v2时间传递给基站的过程中,每个承载网络网元引用的IEEE 1588v2时间误差。 Class C和Class D级别的时间同步精度较高,通过时间频率精度提升,系统时间精度提升,打戳精度、信号采样精度提升等技术来满足,主要应用于5G未来对同步精度要求较高的新场景,或者在已有组网要求下,可支持更大的时间同步网络组网能力。 表54承载网络网元的精度等级 误差指标Class AClass BClass CClass D 绝对误差 Max |TE|100ns70ns30ns待定 Max |TE|L未定义未定义未定义5ns cTE50ns20ns10ns待定 MTIE40ns40ns10ns待定 TDEV4ns4ns2ns待定 dTEH70ns70ns待定待定 相对误差 cTER未定义未定义12ns待定 dTERL未定义未定义1ns待定 注:  Max |TE|——Maximum Absolute Time Error(max|TE|),最大绝对时间误差  Max |TE|L——Maximum Absolute Time Error Lowpass Filtered,经过低通滤波的最大绝对时间误差  cTE——Constant Time Error,固定时间误差  MTIE——Maximum Time Interval Error,最大时间间隔误差  TDEV——Time Deviation,时间偏差  dTEH——Dynamic Time Error Highpass Filtered,经过高通滤波的动态时间误差  cTER——Constant Relative Time Error,相对固定时间误差  dTERL——Dynamic Relative Time error Lowpass Filtered,经过低通滤波的动态相对时间误差 图530承载网络网元的时间同步精度等级 在端到端SyncE+IEEE 1588v2逐跳同步方案中,时钟源设备到基站之间所能允许的承载网络跳数取决于时钟源时间精度误差 + 相应跳数的承载网络元时间精度加权累积误差,要小于对应无线业务所允许的时间精度误差,因此需要限制承载网络的跳数。而基站频率同步精度需求很容易满足且有很大余量,不是方案规划中的瓶颈。 2. SyncE+IEEE 1588v2逐跳同步方案主要场景及精度误差分配 5G基本业务时间精度要求是±1.5μs,同TDD LTE时间同步要求相同。利用现网已有设备升级支持SyncE+IEEE 1588v2/ITUT G.8275.1方案,采用SyncE进行物理层频率同步,采用IEEE 1588v2/ITUT G.8275.1进行时间同步,可满足时间同步精度±1.5μs要求,如图531所示。 图531全网SyncE+IEEE 1588v2/ITUT G.8275.1方案 此方案要求时钟源和基站之间的所有设备都能支持SyncE+IEEE 1588v2/ITUT G.8275.1同步方案,包括中间的OTN、路由器、PON、微波等设备。 如果网络核心骨干层老旧设备无法改造支持SyncE+ITUT G.8275.1同步方案,则建议将时钟源下移,采用小型化时钟源方案,实现网络时间同步方案快速部署,如图532所示。 此方案中的小型化时钟源需要利用核心层通信楼定时供给系统(Building Integrated Timing Supply,BITS)设备作为后备频率源,网络设备逐跳SyncE同步,以实现当小型化时钟源的GPS失效后,利用上游BITS设备内置铷钟或铯钟的频率源来实现时间保持输出。汇聚层设备利用SyncE,确保24小时性能可用。核心层波分设备可以设置为比特透传模式,实现SyncE透传。 如图533所示,对于5G新场景涉及协同类应用的时间同步要求较高,例如,协同业务的时间同步精度为±350ns,这时也可以采用小型化时钟源下移到接入汇聚层,减少跳数,从而提升同步精度。接入层设备单跳最大时间偏差不超过30ns,无线基站同步精度不超过100ns。实现端到端不超过350ns,满足大部分协同业务需求。 图532时钟源下移SyncE+IEEE 1588v2/ITUT G.8275.1方案 图533协同业务±350ns同步方案 5.4.4城域OTN网络同步解决方案 如图534所示,时间同步的典型场景,OTN网络内部所有设备都需要支持IEEE 1588v2/ITUT G.8275.1。 图534OTN时间同步解决方案典型场景 1. OTN设备时间源输入/输出 (1) OTN设备通过以下方式和BITS或路由器、OLT、基站等设备对接,实现时间源输入/输出。 (2) 1PPS+TOD外时间接口: 用于和BITS/路由器/OLT/基站设备或波分光电子架之间互连,获取/发送时间源。 (3) GE外时钟端口(带外),用于和BITS/路由器/OLT设备或波分光电子架之间互连,获取/发送时间源。 (4) 以太网业务接口: 和PTN、路由器、OLT、基站等设备对接时,使用以太网业务接口发送/获取时间源。 2. OTN设备网络内部时间同步 (1) OSC方式: 使用光监控信道单板传送时间信息。 (2) ESC方式: 使用OTU单板/支线路单板/分组业务单板传送时间信息。 通过这两种同步传送方式,可满足不同的应用场景需求。 带外OSC时钟应用场合: 适用于部署OSC的新建或扩容网络,采用单纤双向技术,可避免时钟开局部署和维护中非对称延时测量,降低了系统维护工作量,如图535所示,具体优点如下。 图535OSC同步传送方式 (1) 开局无须人工测量和补偿双向线路延时,易于部署和维护。 (2) IEEE 1588v2和业务通道分离,配置简单。 (3) 在本身已经配置OSC的场景,可以不要求业务板支持IEEE 1588v2,网元单板配置不受影响。 带内ESC方式应用场合: 对于现网扩容支持IEEE 1588v2时钟的场合,采用后可减少光层改动影响,同时时钟传送没有光穿通节点数量限制; 对于接入层WDM设备通常不配置OSC单板,基于带内ESC方式无须额外配置OSC单板,减少OSC的槽位占用。(注: 这种方案如果采用双纤系统,则需要进行线路侧非对称的人工调测; 如果新建采用单纤双向方案,可支持线路侧免人工非对称测定和补偿。)在其他如超长跨等无法使用OSC的场景,可以选用ESC方式,如图536所示。 图536ESC同步传送方式 但是如果在双纤系统中应用ESC方案,则存在收发路径不一致的问题,且如果线路存在保护,则导致收发路径在不同的光缆上传输,从而带来收发时延的动态不一致,导致现网时钟同步运维困难,性能不可接受。 综上所述,ESC和OSC分别应用在不同的场景,满足不同OTN组网场景下的IEEE 1588v2时间同步需求。在建设规划阶段,考虑到光缆情况、业务保护方式等,建议选择OSC方式作为IEEE 1588v2的主流承载方式。 5.4.5时钟标准及其演进 电信网络时钟标准遵循ITUT标准体系,如图537所示,包括了物理层同步技术、IEEE 1588v2透传频率同步技术、IEEE 1588v2逐点时间同步技术以及IEEE 1588v2透传时间同步技术。其中,物理层同步技术为上述描述的SyncE频率同步技术,而其他3个都属于IEEE 1588v2技术。由于IEEE 1588v2透传频率同步技术和IEEE 1588v2透传时间同步技术精度和可靠性不高,因此主流都是采用物理层同步技术+IEEE 1588v2逐点时间同步技术,即上面描述的SyncE + IEEE 1588v2/ITUT G.8275.1解决方案。 图537ITUT时钟标准体系 另外,IEEE 1588v2技术除了在电信领域广泛应用,在电力、工业等领域也开始应用。图538展示了各领域基于IEEE 1588v2基础协议定义的IEEE 1588应用标准。2019年,IEEE 1588v2.1已经正式发布,定义了多时间域、安全、管理及高精度等特性,而且IEEE 1588v2.1可以和IEEE 1588v2相互兼容,预计后续各应用领域也会逐步把IEEE 1588v2.1的新特性逐步扩展到各自的IEEE 1588应用标准中。 图538ITUT标准体系发展 对于电信领域主流应用的IEEE 1588v2逐跳时间同步,下面介绍3个主要的标准。 1. ITUT G.8275.1 ITUT G.8275.1是基于IEEE 1588v2标准定义的,与IEEE 1588v2比较,ITUT G.8275.1标准在最优时钟源选择算法、时钟质量参数、报文封装等方面做了优化和限定,适用于电信领域,而且便于电信设备间的互连互通。 ITUT G.8275.1标准几个关键技术点如图539所示。 图539ITUT G.8275.1关键技术点 不同于物理层时钟通过业务码流恢复时钟信息,ITUT G.8275.1主要通过PTP报文交互来完成相位(时间)同步。网络采用IEEE 1588v2逐跳时间同步技术时,网络中的每个设备都必须支持ITUT G.8275.1标准。 2. ITUT G.8273.2 ITUT G.8273.2是对单设备的IEEE 1588v2时间同步性能进行系统定义的标准。主要性能指标包括时间误差、噪声容限、噪声传递、相位瞬变、保持性能。 ITUT G.8273.2的应用场景和ITUT G.8275.1相同,不再单独介绍。使用ITUT G.8273.2时,需要和ITUT G.8275.1同时配置。 3. ITUT G.8271.1 网络端到端的IEEE 1588v2性能指标分配,具体请参见ITUT G.8271.1中5.4节的描述。 5.5光虚拟专网技术: OTSN 5.5.1光虚拟专网定义 随着云计算、数据中心、视频等业务的发展,企业用户对网络服务也提出了更高的要求。例如,企业用户往往希望运营商提高网络服务的SLA,也希望将流量与其他人的流量隔离开,确保网络服务不会受到外部网络的影响(例如,断纤或流量阻塞)。鉴于企业用户的战略重要性,光网络运营商对关键企业用户的网络诉求,通常有两种应对方案。 一种方案就是建立专用网络来满足企业用户的服务要求。但是,建设物理专用网络存在以下几个问题。 (1) 投入成本高。为每个企业用户都建设物理专用网络成本极高。由于物理资源无法分级管理,导致运营商对专线的维护成本也很高。 (2) 业务上市时间(Time To Market,TTM)时间长。据统计,50%的企业客户要求TTM小于15天,甚至更短,而物理专用网络的施工建设可能长达数月,这严重阻碍了业务快速上线。 (3) 资源利用率低。物理资源不能灵活分配,无法充分利用剩余带宽,导致带宽利用率低。 另一种方案就是利用运营商的现有网络,如果能够从已有光网元、端口、链路等光网络资源中,有效地划分出不相交的集合,每个集合形成一个封闭的逻辑网络,再提供给不同企业客户使用,这样就可以充分提高网络利用率,降低成本、提高运营利润。这种从光网络中通过逻辑划分出的专用网络,就叫OTSN。 光传送切片网络(Optical Optical Transmission Slicing Network,OTSN)概念源于VPN,是VPN技术在光域的延伸。通过OTSN技术可以实现对光网络资源的分片管理,赋予不同企业用户对指定光网络资源(支持按子架、单板、客户侧端口、线路侧链路等粒度划分)的专有权,达到专网专用的目的。通常,利用OTSN技术划分出的光网络也称为OTSN或OTSN子网。 5.5.2光虚拟专网关键技术 OTSN通过在资源对象上增加标签和灵活切片算法等技术来区分不同资源隔离,形成一个个光专网,满足一网多用、综合承载支持不同SLA的诉求,如图540所示。OTSN技术包括如下几个关键技术。 图540全业务的光网络分片 (1) 不同粒度灵活切片: 基于全光网络资源,提供如下不同颗粒的资源划分,形成对应切片的专网资源,每个OTSN资源支持不同层次或不同颗粒的资源构成一个专网资源。划分的类型包括基于网元粒度划分、基于单板粒度划分、基于波长粒度划分、基于端口粒度划分、基于ODU带宽划分。 (2) 基于网络诉求自动切片: 对于不同业务应用场景,需要提供不同网络能力的虚拟专网,网络能力诉求包括带宽、时延、抖动、可靠性、隔离性等,支持一个或多个网络能力诉求的组合,通过软件定义的 OTSN切片算法计算和划分出对应的虚拟专网。 1. 多粒度灵活切片 全光网络上提供多种粒度的切片,包括子架粒度、单板粒度、端口粒度、波长粒度、ODUk粒度、OSU粒度等。通过网络中各设备节点,基于上述一种或几种粒度管道资源的组合,构成E2E切片解决方案的物理承载层,如图541所示。 图541多粒度灵活切片 (1) 子架粒度: 在一个传送站点上,当业务容量很大时,通过部署多个电子架方式实现业务调度,提供按照子架粒度划分资源切片。 (2) 单板粒度: 一个物理子架包含几个到几十个槽位,不同功能单板插到对应子架槽位,通过对不同单板粒度划分实现对不同资源的切片。 (3) 端口粒度: 一个单板上包含若干个端口,通过对不同端口粒度划分实现对不同资源的切片。 (4) 波长粒度: 一个光复用段光纤包含几十到上百波长,通过对不同波长粒度划分实现对不同资源的切片。 (5) ODUk粒度: 一个OTU端口由ODUk/ODUflex通道组成,基于ODU封装标准,支持从ODU0到ODUCn多个ODU通道,每个ODU通道带宽最小为1.25Gb/s,通过对不同ODUk粒度划分实现对不同资源的切片。 (6) OSU粒度: 当一个OTU端口具备OSU能力时,基于OSU封装标准,支持2Mb/s到线路端口线速的硬管道颗粒度,对不同OSU粒度划分实现对不同资源的切片。 2. 基于应用按需切片 基于不同业务应用场景,需要提供不同网络能力的虚拟专网,网络能力诉求包括带宽、时延、抖动、可靠性、隔离性等,支持一个或多个网络能力诉求的组合,通过光虚拟专网切片算法计算和划分出对应的专网,实现基于应用诉求的灵活切片能力,如图542所示。 图542基于应用按需切片 全光传送切片网的典型场景是专网专用,随着网络应用的蓬勃发展,各行各业对业务SLA的品质要求越来越高,且逐渐呈现差异化诉求。 (1) 如远程医疗,要求低时延和高可靠,其可靠性要求高达到6个9。 (2) 金融证券,要求极低时延,证券交易每毫秒可以进行上千次的交易,网络时延毫秒必争。 (3) 数据中心网络,数据交换量大,要求大管道大速率,大管道意味着备份时间短。 对运营商来说,为每个行业专门建网成本太高,采用综合承载建网方式比较普遍。因此,全光传送切片网正好化解了运营商要求建网成本低和行业品质差异化要求的矛盾,为运营商和行业提供低成本建网的网络切片,如图543所示。 图543网络切片 (1) 广覆盖,快速开通: MSTP/MSAP/OTN CPE/OTN P2MP多介质接入。 (2) 一跳入云,可承诺确定性网络承载: E2E硬管道,可承诺带宽/时延/可靠性。 (3) 云网协同,云网融合套餐一站受理: 云网业务一站式开通。 (4) 好云配好网,行业云用行业专网: 波长/子波长切片+面向行业的组网能力和配套软硬件特性; 垂直打通云和网,提供面向行业客户的云网一体能力。 (5) 带宽随需,应对突发事件: 分钟级按需带宽无损调整,SLA可视。 (6) 新技术匹配入云小颗粒,高汇聚模型: OSU提供任意带宽、E2E硬管道、速率无损调整、可保证时延的灵活切换网络。 5.5.3光虚拟专网的应用与价值 1. 光虚拟专网应用场景 OTSN是全光传送网关键增值业务,本节列出两种OTSN典型应用场景。 1) 应用一: 运营商使用OTSN对光网络进行切片,支持不同业务进行隔离运营 (1) 运营商配置OTSN。 ① 运营商通过网络管理系统查询到全网资源,并创建多个OTSN。 ② 运营商为每个OTSN划分网络资源。 ③ 运营商在网络管理系统查询到每个OTSN的网络资源。 (2) 运营商进行业务运营。 ① 业务发放: 运营商在网络管理系统上指定某个OTSN进行业务发放。 ② OTSN资源调整: 运营商根据业务实际需要,在网络管理系统上为该OTSN扩容或回收资源。 2) 应用二: 运营商出租网络给大企业客户,支持客户独立运营网络 (1) 运营商配置OTSN并为大企业客户授权运营权限。 ① 运营商在网络管理系统上创建OTSN用户并授权给大企业客户。 ② 运营商通过网络管理系统界面查询到全网资源,并创建多个OTSN。 ③ 运营商为每个OTSN划分网络资源,并为每个OTSN绑定一个大企业客户的网络管理系统。 ④ 使用OTSN绑定的用户在网络管理系统界面上查询到每个OTSN的网络资源。 (2) 大企业客户独立开发第三方App。该App支持通过RESTful API鉴权并登录网络管理系统。 (3) 大企业客户查询OTSN资源或业务。 ① 大企业客户使用授权用户直接登录或通过第三方App登录网络管理系统,查询资源或业务。 ② 网络管理系统返回该授权用户所绑定OTSN范围内的资源或业务信息。 (4) 大企业客户独立进行网络运营。 ① 业务发放: 大企业客户使用授权用户直接登录或通过第三方App登录网络管理系统,选择源宿端口发放业务。 ② OTSN资源调整: 大企业客户根据业务实际需要,向运营商申请资源扩容或回收。 2. 光虚拟专网应用价值 OTSN可以大幅度降低物理网络建设成本和周期,既可以为运营商提高带宽利润,又满足了企业用户快速上线业务的诉求。 1) 价值一: 对运营商的价值 (1) 通过OTSN虚拟子网隔离能力,运营商可以在不增加或少量增加基础设施投资的情况下,为不同的企业客户提供互相隔离的OTSN服务,增加带宽利润。 (2) 通过符合ACTN标准的北向接口,网络管理系统可方便地与第三方租户管理系统进行集成,将不同的OTSN子网租给不同的企业用户,支撑运营商的各种商业创新。 2) 价值二: 对用户的价值 (1) 业务安全性高。OTSN间管道硬隔离,OTN网络天然可确保业务高安全性。 (2) TTM缩短。减少了物理网络建设,OTSN能够大幅度缩短TTM,支撑业务快速上线。 (3) 支持自主运维。用户在OTSN内具有专线开通、变更、监控、故障初排等自主运维能力。从用户角度看,就好像拥有自己的光网络一样,通过点击式配置就可以实现业务快速上线以及流量合理调度。 (4) 支持弹性扩容。OTSN支持以企业用户为导向,企业用户可以按照自己的带宽需求租用运营商的网络资源,后期可以按照业务增长情况,向运营商申请扩容、增加覆盖范围等,而不影响已有的业务。 5.6光电协同 新型业务的发展,驱动网络逐步向Mesh化、扁平化、规模超大化的极简网络架构层次演进。要求网络具备高可靠、大带宽、低时延、灵活、智能自愈和自治等能力。 其中,品质专线、Cloud VR、入云专线带动传送网络由“哑管道”走向网随业动“业务网”的关键业务形态。业务流量在末端呈分散状态,在核心站点进行汇聚。光电协同正好在此模式上发挥作用,在汇聚层以下,可以使用电层技术,实现小颗粒业务的灵活调度。在汇聚层以上,可以采用光层ROADM技术,一跳直达,低时延。 光电协同的核心价值体现在如下几方面。 (1) 小颗粒业务,需要OTN做汇聚。既获得了OTN的灵活性,又使用了光层的维度。 (2) 电层ASON的网络承载量高、可靠性高、稳定、恢复性能高。可以保证保障低余量网络ASON稳定运行。 (3) 充分利用电层重路由业务恢复快的特点,解决IP网络振荡问题,同时保持光层的多维度光纤恢复能力。 (4) 成本和可靠性最优,比电层成本降低15%,比光层波长节省10%。同时,电层的亚秒级恢复能力,保证网络的可靠性不劣化。 (5) 基于业务矩阵提供业务、频谱调优方案,实现端口零浪费、频谱零碎片。 (6) 在运维方面,可以简化告警,直接体现故障根因告警,并且瞬态故障可定位(如光功率跌落、瞬态误码),疑难故障可找到根因[偏振态(State Of Polarization,SOP)、非线性]。 5.6.1光电协同场景 在端到端的全光传送网络中,光电协同组网场景主要有下面几种。 (1) 场景一: 采用接入侧电层技术、区域光层ROADM技术,端到端实现光电保护协同。流量是逐层汇聚的,特别是小粒度业务需要在城域核心站点进行汇聚,然后通过大管道传送,如图544所示。 图544光电协同组网场景一 (2) 场景二: 采用城域光层ROADM技术、干线电层技术,端到端实现光电协同保护,如图545所示。 图545光电协同组网场景二 5.6.2光电保护协同 光电保护协同,业务模型比较多,且复杂,其中最典型的配置模型有下列几种。 (1) 模型一: 首末光电协同,最优化的业务模式如图546所示。其主要特点是,光电协同在业务的原宿节点进行。适用于承载网络中对保护性能有强烈要求的重要业务。 图546光电保护协同模型一 (2) 模型二: 区域光电协同,最优化的业务模式如图547所示。其主要特点是,光层和电层分为不同的区域。适用于业务网(如政企专线)场景。 图547光电保护协同模型二 光电保护协同联动可以结合光层ASON及电层ASON的优势,发挥出更大的网络价值。光电联动具有如下优势。 (1) 电层的1+1保护和重路由恢复速度更快,实现更小的业务中断时间,而光层重路由恢复不需要额外的电层板卡资源,可以节约投资,光电联动在保留电层的快速倒换和恢复能力的同时,还可以有效节约板卡资源。 (2) 快速统一业务发放: 电层、光层统一配置,由原来的光层、电层分开逐步配置,变为一步完成,有效提升运维效率。 5.6.3光电资源协同 如图548所示,光电资源协同主要是通过频率调节和碎片整理,提升网络资源利用率和吞吐量,实现资源与业务的最佳匹配。在全光传送网络中,随着业务的增加,波长的持续扩容,以及频宽的不同,会出现波长碎片,降低频谱资源的利用率。光电资源协同可以进行碎片整理优化以提升频谱利用率,同时根据最新的业务矩阵,动态调整业务汇聚或直达,匹配最佳线路速率,提升网络资源利用率。 图548频率调节和碎片整理 当全光传送网络中,客户多次扩容之后,会出现频谱碎片,这样会导致新的业务无端到端整块频谱资源可用。光电资源协同基于最优的在线疏导调优算法,先模拟频谱碎片的整理优化效果,然后再进行频谱碎片整理优化操作,利用光电两层联动的原理,依据先电后光原则,优先通过OTN保护、OSU的无损倒换以及ASON的50ms优化能力把电层业务切换走,然后再进行光层的频谱碎片整理,从而实现整网的频谱碎片整理优化,提升网络资源利用率。 5.6.4光电运维协同 光电运维协同主要是通过光层数字化、光电两层协同,提升全光传送网络运维体验和业务体验,提高网络的安全性,减少对运维人员的专业技能要求,提升网络运维效率。 在当前的全光传送网络中,由于光层和电层的分割,导致同一个故障会在光电两层产生大量的告警,随着网络规模的增大,结构更加复杂,每天有海量告警上报,人工处理困难,严重增加了网络运维人员的故障处理效率。对于业务来说,一条业务既要穿通电层又要穿通光层,因此可以利用光电两层的关联关系,把告警和业务关联起来,对于同一个故障,告警只在一层显示即可,这样可以减少告警数量,长期考虑可以和AI技术结合,实现一故障一告警,还可以大大减少网络中的告警量,提升运维人员效率。 在光层网络中,需要对物理设备进行物理连纤操作,由人工来完成,势必会造成连纤错误的情况出现,从而导致波长串扰、业务不通等故障出现,特别是在扩容阶段,容易影响已有的业务。随着光电协同技术的发展,可以通过电层的标签信息,感知物理光层的连纤、路由、光功率等信息,从而检测出光层的光纤错链等故障,减少网络的故障率,提高网络的安全性。 随着光电协同技术的研究探索,后续会有更多的应用场景,既能充分发挥电层的优势,又能挖掘光层的潜力,使全光传送网络的可靠性、资源使用率、运维效率等各方面都有巨大的提升。 5.7全光自动驾驶技术 5.7.1全光网络软件架构发展历程 面对运营商在转型过程中对网络和业务的挑战和诉求,光网络通过引入增强AI算法、大数据、强大算力和自动化等关键技术,构建智能化的全光网络,打造智慧光网解决方案。智慧光网解决方案的目标是推进光网络迈向以用户体验为中心,打造商业意图驱动、全生命周期端到端自动化的闭环系统,帮助运营商实现管道变现,提升业务体验,节省网络运维成本,使网络的商业价值最大化。 因此,随着用户需求的变化,传送网络软件架构需要从纯静态手工管理、逐步演进到管理、控制、分析一体化,多层智能的模式,使网络变得越来越自动化,越来越智能,如图549所示。 图549传送网络软件架构演进示意图 5.7.2全光网络自动驾驶架构 全光自动驾驶网络参考目标架构如图550所示。 图550全光自动驾驶架构示意图 1. 极简的网络基础设施 极简的网络基础设施是实现智能和分层自治的自动驾驶网络的基础和根本保证。一方面,以更简洁的网络架构、协议、设备和站点、部署方案,抵消超高带宽和海量连接带来的复杂性,提升全生命周期的效率和客户体验。另一方面,网络设备引入更多的实时感知器件和AI推理能力,越来越聪明,不但增强对资源、业务及周边环境的数字化感知能力,还具备在数据源头进行感知分析与决策执行的边缘智能能力。 2. 网络管控单元 网络管控单元融合网络管理、网络控制和网络分析三大模块,通过注入知识和AI模型,将上层业务和应用意图自动翻译为网络行为,实现单域自治闭环,让网络连接或功能的SLA可承诺。网络管控单元通过网络数字建模方法,将离散的网络资源、业务、状态数据关联起来,建立完整的域内网络数字化高清地图,实现网络数据采集、网络感知、网络决策和网络控制一体化。同时,通过持续从云端注入新的AI模型和网络运维知识,不断强化与丰富本地化的AI模型库和网络知识库,让本地的智能化感知和决策能力不断优化增强。 3. 智能运维平台 智能运维平台提供运维流程和知识资产与运维可编程设计框架的平台与云服务,聚焦运维流程的打通和灵活的业务编排,允许根据自身网络特点,快速迭代开发新的业务模式、运维流程及业务应用,这是运营商实现业务敏捷的关键,也是新型运维人员技能提升的关键。 4. 网络人工智能单元 网络人工智能单元提供网络领域的人工智能平台和云服务。一方面,是网络AI设计和开发的基础平台,支持对上传到云端的各种网络数据持续进行AI训练和知识提取,生成AI模型和网络知识成果,并可注入网络基础设施、网络管控单元和跨域智能运维单元中,让网络更好用,越用越智能。另一方面,它也是运营商智力资产共享中心,运营商面向规、建、维、优过程开发和训练出来的各种AI模型、网络知识等成果在网络人工智能单元统一管理,充分共享和重复使用,减少重复开发和训练。网络人工智能单元包括云端的AI训练、数据服务、网络知识库、AI应用市场等基础服务和能力。 5.7.3全光网络自动驾驶技术 面向全光网络全生命周期的智能化,需要向自动、自优、自治的全光自动驾驶网络迈进。电信网络要想实现自动驾驶网络的架构目标,需要一个清晰的、可供产业参考并形成共识的目标架构来指导生产实践落地。 面对运营商在转型过程中面对的网络和业务的挑战和诉求,全光自动驾驶网络通过引入AI算法、大数据、算力和自动化等关键技术,构建智能化的全光网络,它将改变运维人员的工作模式,业务发放更快速,网络维护更高效,同时,变被动运维为主动防护,使光网络的可靠性进一步提升。全光自动驾驶涉及关键技术如下,具体参考“第五代固定网络(F5G)全光网技术丛书”中的《全光自动驾驶网络架构与实现》。 AI算法是实现人工智能的基础。AI算法可以从大量的数据中进行特征提取,结合专家经验,从已有的数据特征中建立模型,快速解决已知问题。在全光网络中采用AI算法,关键在于根据不同的场景选取合适的算法,并有针对性地进行改进和适配。经常用到的典型AI算法有神经网络算法、时间序列预测算法、聚类算法、逻辑回归算法等,在不同场景中,可能会组合使用各种算法,有针对性地解决实际问题。同时,在机器学习类算法中,训练数据非常重要,因此,成功的应用不仅依赖于算法本身,获取大数据也是关键因素。例如,为解决预测性问题,需要组合多种算法进行特征提取、异常数据处理、趋势拟合等适配处理,并且使用现网环境数据进行反复调整和验证,才能构建最佳应用。 1. 大数据技术 全光自动驾驶网络中,大数据是为了映射网络状态,建立数字孪生(Digital Twins)。通过物理网络的光传感器,采集光功率、OSNR、误码率(Bit Error Rate,BER)、光谱、偏振态(State of Polarization,SOP)、PMD、偏振相关损耗(PolarizationDependent Loss,PDL)等物理特征参数,从而获取实时监控参数。结合AI算法技术,对这些数据进行训练和建模,可以更好地在上层应用中使用,提升自动化程度,节省OPEX。 2. 强大算力技术 处理海量的数据需要大量的算力,算力是智能运维的基础能力。AI技术从最初的基于通用CPU计算起步,到基于GPU计算获得大发展,当前已经发展到使用专用AI芯片提供高性能算力的阶段。通过专用AI芯片,为大数据采集、存储、分析、训练、上报等提供强大的计算能力。全光网络智能化的算力,需要在云端和本地设备合理部署,通过算力架构的协同,实现智能计算的实时性、有效性和精确性。 3. 自动化协议技术 传统静态网络在业务发放、可靠性(光纤故障)和运维效率(依赖人工)上面临一系列的挑战。传统网络运维效率低,全手工操作,如发放和调整业务,需要人规划和调整,并通过网络管理系统逐个单站配置,开通时间长,业务时延需大量人工计算和反复测试,人力投入大、成本高; 传统网络最大可抗一次断纤,难以满足高价值业务可靠性需求。自动化技术可使传统网络向自动化网络演进。自动化协议主要包括南北向协议、自动化控制协议和自动部署协议。引入自动化协议技术可减轻网络维护管理强度,自动建立端到端路径,缩短业务配置时间,断纤故障后可自动恢复,提升业务可靠性,统一大网管理,降低运维成本。