您好,欢迎来到保捱科技网。
搜索
您的当前位置:首页一种自适应的基于时延的拥塞控制机制

一种自适应的基于时延的拥塞控制机制

来源:保捱科技网
第27卷第6期 计算机应用研究 V0l_27 No.6 2010年6月 Application Research of Computers Jun.2010 一种自适应的基于时延的拥塞控制机制米 邬叶舟,邢卫,鲁东明 (浙江大学计算机科学与技术学院,杭州310027) 摘要:针对早期概率响应TCP(PERT)在实际网络中与基于丢包的协议(如TCP)共存时存在带宽共享公平性 方面处于弱势的问题,提出一种改进的PERT协议(modiifed PERT,MPERT)。该协议通过动态地调整拥塞窗口 增加因子和缩减因子的方法,解决了这种基于时延的端系统拥塞控制机制的带宽公平性问题,增强其对网络环 境的自适应性。另外,针对未来核心网络将向高速化发展的趋势,对如何有效地将新机制扩展部署于高速网络 进行了探索,以期改善MPERT协议在高速网络下的传输性能。 关键词:基于时延的协议;基于丢包的协议;带宽共享公平性 中图分类号:TP394 文献标志码:A 文章编号:1001—3695(2OLO)O6—2215—04 doi:10.3969/j.issn.1001—3695.2010.06.062 Adaptive delay-based congestion control mechanism WU Ye—zhou.XING Wei.LU Dong—ming (College of Computer Science&Technology,Zheifang University,Hangzhou 310027,China) Abstract:In order to solve the problem of PERT such as unable to compete fair bandwidth share with a loss—based protoco1. e.g.TCP,in the actual network,this paper proposed a kind of modiifed PERT,called MPERT.Adjusting its congestion win— dow increased factor and decreased factor dynamically.it solved the bandwidth share fairness problem of this kind of delay. based end—host congestion controI mechanism and made itself adaptive to varying network environment.Moreover.considering the tendency of the core network would become higher speed,researched and proposed the solution to the problem about how to develop the new mechanism in high.speed network.in order to improve the pe ̄ormance of MPERT in this kink of network. Key words:delay—based protocol:lOSS—based protocol:bandwidth share fairness 多媒体应用具有低时延、低丢包的要求,而目前的应用主 一直维持增加拥塞窗口的大小。而另一方面,基于时延的拥塞控 要运用UDP或TCP作为传输层协议。UDP不提供拥塞控制, 制协议通过提前响应拥塞,实质上为传统TCP流“腾”出了带宽空 运用UDP的应用需自己解决拥塞控制问题;而TCP的按序可 间。尽管大多数的基于时延的协议在同质协议的网络环境下能够 靠传输特性对多媒体应用来说也不是必需的。因此,通过设计 表现出了好的特性,但若要将其部署于真实的网络中,在与传统 一种新的拥塞控制方法,促进网络向能够承载更高质量的多媒 TCP共存的实际场景,如何保证基于时延的协议能够获得公平的 体应用和更高链路带宽的方向发展,成为近些年的研究热点。 带宽,这在新协议的部署过渡时期是必须要面对的问题。b)当基 传统意义上,拥塞控制协议通过两种不同的方法来获取网 于时延的拥塞控制协议的单条传输流存在于高带宽大时延的链路 络中的拥塞反馈信息:a)通过检测数据包的丢失或中间路由 中,是否能够高效地利用充裕的带宽资源。这类话题已成为学术 器对数据包打的“标记”;b)在端节点测量一些网络特性(如传 界最新的研究热点,并有众多学者针对高速网络的特性提出了新 输时延)。然而,由于时延测算的准确性和其他不确定因素, 的传输协议 J。 使基于时延的拥塞检测方法存在可靠性问题 。Bhandarkar 本文主要针对上述问题,对原PERT进行改进,期望改进 等人 针对上述问题,提出了一种新的基于时延的拥塞控制 后的PERT可以自适应地运行于同质或异质协议的网络环境, 协议——早期概率响应TCP(probabilistic early response TCP, 获得公平带宽,并能够在高速网络中高效利用带宽资源。本文 PERT)。PERT改进了时延测算和预测拥塞的过程,即通过对 简要介绍PERT协议的原理和特性,对PERT协议流的稳态吞 测算的时延采取以相应的概率进行拥塞响应,解决了存在的时 吐率进行了分析,提出PERT的改进型方案——MPERT。 延测算不确定性。PERT在发送端节点模拟主动队列管理 (AQM)算法,当测算的时延值越大就以更高的概率响应,减速 1 PERT的概述 慢行,以避免发生可能的拥塞事件。 PERT 利用平滑处理后的RVr(round trip time)测算值来 虽然PERT被证明能够有效地达到其目的,但若要在未来的 表示流传输路径上的拥塞程度。与其他基于时延的协议类似, 实际部署发挥功效,仍存在两个问题:a)基于时延的协议在实际部 PERT假设如果观察到的时延变大,传输路径上就开始出现拥 署过程中最大的问题是如何与传统TCP进行带宽的竞争。如今 塞。然而,PERT设计者意识到,由于测算时的噪声和突发流 的互联网环境中,仍然存在着大量承载于传统TCP之上的应用。 的影响,拥塞的预测具有不确定性。为了减小这种不良效应, 传统TCP作为一种基于丢包的协议,在发现有数据包丢失之前, PERT针对测算的时延采用了一种概率响应的方式。即当感 收稿日期:2009一l1-09;修回日期:2009—12-21 基金项目:国家科技计划资助项目(2006BADIOA07) 作者简介:邬叶舟(1984一),男,浙江杭州人,硕士研究生,主要研究方向为网络拥塞控制等(tlwyz@163.corn);邢卫(1967一),男,副教授,主要研 究方向为数字媒体网络等;鲁东明(1967一),男,教授,主要研究方向为数字媒体网络系统、天线与下一代网络等. ・2216・ 计算机应用研究 2.2 d参数的调节 第27卷 知到的队列长度处于较低水平时,对可能发生的拥塞作出提前 响应的行为概率较小;当感知到的队列长度增加时,对可能发 生的拥塞作出提前响应的行为概率也变大了。PERT以此来 减少在拥塞预测时可能发生假报警(false positive)现象…,该 因为PERT流可能在以下两种情况下进行拥塞响应:a)在 拥塞发生前就进行了提前的拥塞响应;b)如TCP一样在真正 拥塞(丢包)发生时才进行拥塞响应。因此,上文提及的,由文 现象的产生会降低网络的链路利用率。 PERT在端系统模仿AQM的RED算法 的机理。PERT 的提前概率响应函数的设计类似于RED算法。如图1所示, 纵轴为响应概率,横轴为拥塞检测信号值(srtt—rtt…)。其中: rtt…献[7]得出的稳态吞吐率公式中的稳态丢包率对PERT而言, 意味着包括提前拥塞响应概率P 和丢包响应概率P,即PERT 流的吞吐率受到这两个概率的影响。PERT的联合拥塞响应 概率应该表示为 1一(1一P)X(1一P ):p+p -p xp (2) 为当网络不存在排队时延时的RTT值;srtt为平滑处理后 的Rrrr值。 如果MPERT在与TCP竞争时要获得公平的带宽,那么两 srtt:k X rtt一(1一 )×srtt (1) 与RED类似,它定义了最大阈值r,m 、最小阈值 。 和最 大响应概率 。当(srtt—rtt…)的值,即排队时延低于最小阈 值时,响应概率为0;当排队时延值超过最小阈值时,缩减窗口 的响应概率线性增加,直到排队时延的值到达最大阈值时,响 应概率为P…。当排队时延值处于 和两倍 之间,响应 概率的取值在P 与1之间变动。当排队时延值超出两倍 ,响应概率的取值为1。参见图1,上述拥塞预测检测过程 可以表述如下: if((srtt—rtt…)<T…){ 返回false;//预测无拥塞 }else if((srtt-rtt )<T ){ 以概率( 学×P ax)返回true;//预测拥塞 }else if((srtt—rtt )<2T ){ 以概率f丁(srtt-rttmin)-Tmax×(1一P…)+P 1返回tnle; 、 … , }else{ 返回true; 一旦(srtt—rtt )高于预设的阈值时,每一个ACK包的到达 都意味着一次网络正处于拥塞状态的警报,直到队列长度降低 于最小阈值为止。在这种情况下,需要注意的是,数据流没有 必要对每一个拥塞指示都作出响应 因为一次端系统拥塞响应 的效果需要通过至少一个R1Tr间隔后才能反映出来。所以, 端系统的提前拥塞响应行为被为在一个RrfTI1间隔内至多 只进行一次。 2 MPERTl_一对PERT的改进 2.1吞吐率分析 为了解决PERT相对TCP的带宽竞争力缺陷,需要对 PERT流的稳态吞吐率进行分析。对于一条基于窗口的拥塞 控制算法的传输流,在拥塞避免阶段,它每收到一个ACK帧, 发送端的拥塞窗口调整为W=W十。/ ;当进行拥塞响应时, 发送端的拥塞窗口缩减为W=(1一 )X W。其中: 为拥塞窗 口大小;or和口分别为窗口调节的增加因子和缩减因子。根据 上述的拥塞窗口调节机制,流处于稳定状态时的吞吐率可以表 1厂=_ 7] 示为 √ 。其中P为稳态丢包率。PERT对拥塞的响 应可以分为两类,即PERT以P 的概率提前响应拥塞,或在概 率为P的拥塞丢包事件发生时缩减拥塞窗El。在PERT与 TCP竞争时,TCP只会观察到拥塞丢包率。在多流相互竞争带 宽时,各流观察到的拥塞丢包率可能是不相同的,但为了简化 分析,假设PERT流和TCP流拥有相同的拥塞丢包概率。 种协议流的稳态吞吐率应该保持相等,可以得出如下等式: /3 ̄pERT X(p P 一P xP )/aMPERT 卢TcP xP/ ̄TCP (3) 因为已知OtTc =1,由式(3)可得到: O/MPERT-- ̄MPERT X(_p P 一P xP )/(flTcP XP) (4) 若设定 =卢 ,且p 是一个接近于0的正整数,可忽 略不计,则由式(4)得到: MPERT=1 P /p—P 一l p P (5) 通过上述的稳态流吞吐率分析可知,在与TCP共存时, MPERT必须在增加拥塞窗口时表现得更为激进,以扳回其在 提前响应拥塞时所造成的弱势,从而与TCP公平分享链路带 宽。因此,当MPERT在与TCP竞争带宽时,MPERT的窗口调 整表示为 W=W+O/MPERT/ , MPERT=1+p /p 2.3 D参数的调节 假设提前拥塞响应成功,其效果是瓶颈链路的队列长度应 该保持在一个较低的水位。因此,对于提前拥塞响应,不一定 需要将窗口缩减因子设为0.5。可以将拥塞窗口的缩减因子 设置为一个动态更新的变量: / ̄MPERT=qc/(q q ) (6) 其中:q。为响应拥塞时测得并换算的排队时延值;g 为到目 前为止观察到的最大排队时延值。可以发现,当q =qm=时,缩 减因子卢 即为0.5。因为此时网络的排队时延很大, MPERT认为此时的拥塞加剧,提前拥塞响应需要更加激进,即 大幅度地缩减拥塞窗口,减轻网络负载,以避免后续可能的丢 包。因此,改进后,窗口缩减因子卢 是根据网络排队时延 的大小在0—0.5动态取值的。 2.4 MPERT的运行模式 在本文中还有一个重要问题需要考虑,即如何判定 MPERT何时是运行在一个同构环境(当所有的流都是类PERT 流)还是异构环境(存在TCP竞争流)。虽然,激进的窗口增加 使MPERT在混合的环境中可以与TCP竞争公平的带宽,但是 在同质环境中它会增加丢包率和队列长度。可通过利用观察 的排队时延来辅助MPERT运行模式的选择。 当观察的排队时延变长时,MPERT假设它正在与一种基 于丢包的协议在竞争,如TCP流会将队列长度推高。因此, MPERT需要在增加窗口的行为上变得更激进,以补偿提前拥 塞响应的带宽损失。使用0.5 X qmax作为判断是否有TCP流在 与MPERT流竞争带宽的阈值。类似地,当排队时延持续地位 于最小阈值之下,则可以认为MPERT流运行在一个带宽充裕 的网络环境中。在这两种状况下,MPERT将它的窗口增加因 子O/从默认的l增加到一个更大的值。当排队时延变长时,Ol 的增加是为了与基于丢包的协议流竞争带宽(于是增加到1+ 第6期 邬叶舟,等:一种自适应的基于时延的拥塞控制机制 ・2217・ p /p);而当排队时延很小时, 增加的目的是为了快速地利用 充裕的带宽。 MPERT的运行可以处于三种不同的模式:a)高速模式。当 观察的排队时延小于最小阌值C,,表示链路带宽未被充分利 3实验分析 本文在NS2 网络仿真平台上进行模拟实验,以检验 MPERT的性能。本章由四个实验组成:前三个实验分析当有 SACK协议流(一种较新的TCP版本)存在网络中,原PERT流 和MPERT流的性能比较;最后一个实验则是分析在高速网络 中只存在单协议流时,LTCP流 J、PERT流和MPERT流的性 能比较。除非特别说明,瓶颈链路的缓冲大小设为带宽延时乘 积,瓶颈链路和端节点链路的带宽都保持150 Mbps,端到端的 用,可线性地增加Ol,直到O/值等于阈值 ,这样可以在拥塞避 免阶段,更快地增加窗口。b)稳定模式。当排队时延大于最小 阈值且小于观测到的最大排队时延的一半,表示可用带宽被很 好地利用了,且排队时延相对较短,可认为此时的网络环境中运 行的都是与MPERT类似的流,O/可以减小直到为1。C)竞争模 式。当测得的排队时延大于最大排队时延的一半,就表示环境 中有一些异质协议流存在,它们采取基于丢包的拥塞响应行为, RTT,即rtt…设定为60 ms;图1中参数 。 、P…分别使用 5 MS、10 ms和0.05;式(1)中的平滑系数k为0.01;排队时延 可增加 ,直到其值等于O/ ERT的目标值1+p /p。 值的调节 过程将持续一段时间 , 值应该大于一个RTT,使O/值可以平 滑变化,有益于队列缓冲区状态的平滑过渡。 2.5 MPERT算法描述 本节描述PERT和MPERT算法的运行过程。在PERT算 法描述中,以方框标注出了MPERT针对PERT算法需要添加 或改进步骤的地方。算法描述中:rtt表示根据每个ACK包获 得的实时R1Tr值,srtt是当前平滑处理的RTT估计值。 1)PERT算法描述PERT拥塞控制包括慢启动和拥塞避 免阶段,其主要对拥塞避免阶段的算法进行了改进。在拥塞避 免阶段,PERT算法可描述如下: 当每收到一个ACK包: if(该ACK包是新到达的){ 获得跟该ACK包相关的rtt; 根据式(1)更新srtt;//位置1 if(拥塞预测检测过程认为拥塞发生){ B=0.5;//位置2 cwnd=cwnd x(1一p);//以B因子缩减拥塞窗口 }else{//拥塞预测检测过程认为网络不会拥塞 XI:1;//位置3 cwnd=cwnd+a/cwnd;//k ̄d因子增加拥塞窗口 } }else{//该ACK包是重复的第三个ACK包 B:0.5;//位置4 cwnd=cwnd×(1一p);//以B因子缩减拥塞窗口 2)MPERT算法描述MPERT算法保留了PERT算法的 框架结构,并对原算法中方框标注的部分进行了改进。 位置l处添加: 更新当前排队时延值q ; 更新最大排队时延值q…; 位置2处改为: B=q /(q +q ) 更新提前拥塞响应概率P ;//为位置3中的d更新作准备 位置3处改为: //根据流所处的三个不同运行模式,更新Ot if(距上次IX更新时隔>T){ if(q <C1){//高速模式 q=rain(q+0.5,C2); }else if(q >0.5 q ){//竞争模式 target:1+p /p; 0【=rain(min(IX+0.1,target),C2); }else{//稳定模式 xI=max(0.9ix,1); { f 位置4处改为: p=qo/(q q…) 更新丢包响应概率P;//为位置3中的a更新作准备 的最小阈值C。设为5 ms,a值的闾值C 设为32,Ot值的调节 周期 设为5RTF。模拟时间为200 S,取位于50~150 s稳定 时期内的实验数据作为样本。当多流共享一条链路时,它们的 启动时间随机分布于(0,10)S,以防同步(synchronization)现象 的发生。所有的模拟均遵循图2的网络拓扑。 1 锵 ④ ⑤ 鞋 0 誊 图1 PERT的概率响应函数曲线图 图2实验网络拓扑图 3.1 流混合比例的变化 在本实验中,流的总数设定为100,通过改变网络中同时 共存的不同协议流的比例,对比原PERT流和MPERT流在相 同背景下相对SACK流的带宽竞争力和丢包率。 将MPERT/PERT流在总流数中的占比调整为5%~95%, 来观察MPERT/PERT流相对SACK流的丢包率和与SACK共 存时的带宽竞争能力。从图3显示,PERT流对SACK流的相对 丢包率总是保持在…1’以下,表明PERT在混合协议环境中始终 具有更低的丢包率,而MPERT也继承了PERT低丢包率的优 点。另外,MPERT流的带宽占用率始终随着MPERT流比例的 增加而增加,并且十分接近预期的(即公平的)带宽占有率。图 3也验证了PERT流由于自身设计原理的,提前拥塞响应, 把带宽让给了SACK流,不能获得公平的带宽。 ∽流古 嚣 晰 流古 搀麓 图3 MPERT/PERT流相对SACK流的丢包率和带宽占用率 3.2在5O一50混合比例下,流总数的变化 在本实验中,流总数的变化为20~500,设定在不同协议 流的数量各占总流数一半的情况下,分析网络中总流数变化 时,原PERT流和MPERT流对网络有什么不同的影响。图4 总结了实验结果。如笔者预期的,不论是MPERT/SACK混合 的情况还是PERT/SACK混合的情况,网络的队列长度和总丢 包率都随着流总数的增加而增加。笔者还观察到,MPERT流 的带宽占用率在流总数较少时表现得比较低,而当流总数增大 时,它的值会增大并趋向于50%。这是因为在可用带宽还很 充裕或队列长度处于较低水平时,MPERT并不会总是运行在 ・2218・ 计算机应用研究 h 口{^呈l/l 宙  0 2日喘 口§& 第27卷 竞争模式(与SACK竞争)。Jain公平性指数 反映协议流问 的公平性,取值为0—1,当取值为1时,协议流问达到最佳公 平性。发现MPERT的Jain公平性指数的变化曲线与其流的 带宽占用率的变化曲线表现出类似的形态。由图4中可以清 楚发现,MPERT流在带宽竞争力和Jain公平性指数方面相对 很好,现在观察MPERT是否能够改善PERT在高带宽网络中 的性能。在本实验中,瓶颈链路的带宽保持在2.4 Gbps不变, 端节点的链路带宽在100 Mbps~2.4 Gbps变化,端到端的R1Tr 设定为120 ms,比较原PERT流和MPERT流在高带宽网络下 的性能。图6总结了实验结果。笔者观察到单条MPERT流比 PERT流都有明显改善。 number offlows number offlows (a)流总数变化下的归一化队列长度 (b)流总数变化下的丢包率 8O 60 {0 H §0 40 g t葛0 ∞ 20 i0 nttmber oftlows number ot Ilows (c)流总数变化下的MPERT/PERT (d)流总数变化下的Ja_n公平性指数 流的带宽占用率 0 口 { 口目 图4归一化的队列长度、丢包率、MPERT/PERT流的带宽 0 \ 占用率和Jain公平性指数 3.3在5O一50混合比例下,瓶颈链路缓冲大小的变化 在本实验中,流总数仍设定为100,其中50条MPERT/ PERT流,50条SACK流,瓶颈链路的缓冲大小变化范围为1/4 到4倍的带宽时延乘积(简称BDP),分析当瓶颈链路缓冲区 大小变化时,原PERT流和MPERT流的不同表现。图5总结 了MPERT/PERT相对SACK的丢包率和带宽占用率。 0 宴 0 鼍 {0 l 0 兽 buffer¥1ZC as a productof BDP buffer sizc as a product of BDP (a)路由器缓冲区大小变化下的 (b)路由器缓冲区大小变化下 ̄JMPERT/PERT MPERT/PERT ̄的带宽占用率 流相对SACK ̄丢包率 图5 MPERT/PERT的带宽占用率和相对SACK的丢包率 可以观察到,MPERT的带宽占用率在瓶颈链路的缓冲区 大小很小时,优于SACK;而只有当缓冲大小变得很大时,PERT 的带宽占用率才输给SACK,性能退化为PERT。这是因为当 瓶颈链路的缓冲大小较小时,队列长度在较早阶段就处于较高 “水位”,促使PERT运行在竞争模式中。这表示PERT在瓶颈 链路的缓冲大小较小时,可以运行得很好。MPERT的带宽占 用率在较大的缓冲大小(3.5倍BDP或以上)的情况下会输给 SACK的原因主要是:MPERT运行在稳定模式下,试图减少队 列长度,而SACK却反之。因此,MPERT可以在较宽的缓冲区 大小变化范围中(从0.5倍BDP到3倍BDP),与SACK竞争 到公平的带宽。从图5中看列,PERT流始终不能获得公平的 带宽。 另外还发现,MPERT/PERT相对SACK的丢包率始终处 于…1’的下方。 这些结果为MPERT协议未来的部署提供了更充分的理 由,它不仅可以广泛应用于小缓冲区的路由设备,具有低时延 要求的实时多媒体应用也可以得益于此。 3.4在高速网络中的性能 实验说明改进后的MPERT在混合协议流环境下运行得 PERT流能够更充分地利用高带宽链路资源并且继承了PERT 流具有低丢包率的优点。对比高速网传输协议LTCP_3 的仿 真结果,MPERT不但具有接近LTCP的高带宽利用性能,而且 具有明显更低的丢包率。 end-host link bandwidth/Mops end-host link bandwidtb/l ̄s (a)PERT/MPERT/LTCPfl ̄带宽利用效率(b)PERT/MPERT/LTCP的丢包率 图6 PERT/MPERT/u’cP在不同端节点链路带宽 容量下的带宽利用效率和丢包率 4结束语 本文对PERT原来的拥塞控制机制进行了改进,改进后的 新机制根据传输时延感知网络状态,动态调整窗口增加系数ot 和窗口缩减系数口,使这种基于时延的协议在异质的网络环境 中,同样可以运行得很好,获得公平的带宽、保持较少的丢包 率。笔者相信,这一特性将为MPERT协议未来的部署过渡阶 段,在与主流协议TCP的带宽竞争中,获得公平地位提供有力 的保障。另外,本文实验结果还表明MPERT可以改善PERT 在利用高速网络的充裕带宽方面的能力,并比同类高速网络传 输协议 具有更少的丢包率。 参考文献: [1]REWASKAR S,KAUR J,SMITH D.Why don’t delay.based con. gestion estimators work in the real—world,Technical report TR06-001 [R].[S.1.]:Department of Computer Science,UNC Chapel Hill, 2005. [2]BHANDARKAR S,REDDY A L N,ZHANG Y,et a1.Emulating AQM from end hosts[C]//Proe of ACM SIGCOMM.New York: ACM Press,2007:349-360. [3]BHANDARKAR S,JAIN S,NARASIMHA REDDY A L.LTCP:im- proving the performance of TCP in highspeed networks[J].Compu・ ter Communication Review,2006,36(1):4l-5O. [4]WEI D X,JIN Cheng,LOW S H,et a1.FAST TCP:motivation, chitecture,algorithms,performance[C]//Proe of IEEE INFOCOM. Piscataway,NJ:IEEE Press,2006:1246-1259. [5]LEITH D J,SHORTEN R N.H—TCP protocol for high—speed long distance networks[C]//Proc of the 2nd PFLDNet.2004. [6]FENG W,KANDLUR D,SAHA D,et a1.A self-configuring RED gateway[C]//Proc of IEEE INFOCOM’99.New York:IEEE Com・ munications Society,1999:1320—1328. [7]BANSAL D,BALAKRISHNAN H.Binomila congestion control algo— irthms『C]//Proc of INFOCOM.2001:631—640. [8]The network simulator NS・2[EB/OL].(2007—01).http://www. isi.edu/nsnam/ns. [9]CHIU D M,JAIN R.Analysis of the increase and decrease algorithms for congestion avoidance in computer networks[J].Computer Net- works and ISDN Systems,1989,17(1):1—14. 

因篇幅问题不能全部显示,请点此查看更多更全内容

Copyright © 2019- baoaiwan.cn 版权所有 赣ICP备2024042794号-3

违法及侵权请联系:TEL:199 18 7713 E-MAIL:2724546146@qq.com

本站由北京市万商天勤律师事务所王兴未律师提供法律服务