互联网通信中多路复用TCP流对时延敏感性的影响外文翻译资料

 2022-08-23 15:37:15

英语原文共 15 页,剩余内容已隐藏,支付完成后下载完整资料


互联网通信中多路复用TCP流对时延敏感性的影响

Sneha K. Thombre1 · Lalit M. Patnaik2 · Anil S. Tavildar3

摘要

TCP是互联网上的主流协议,并且TCP的时延友好性是一个研究较多,复杂且实际的问题。虽然端到端的其它组成部分都已经充分描述,但关于排队时延的问题与随机重传的次数,增加了互联网的不确定性。路由器上的数据报是由多路复用流的数目M(n)组成的随机过程。本文研究了随机过程M (n)的多路复用下的排队行为。在瓶颈路由器的到达和服务过程已经进行了数学建模,考虑了TCP和UDP的不同比例,并将它们的数据报大小作为参数。然后利用该模型对TCP不同部分的数据报在后台流量中的平均排队时延进行了评估。进一步利用对数据报的离散队列分析,推导出标记流数据报的平均瞬时时延估计,以确定流的多路复用对标记流的数据报被其他流的时延影响。该分析揭示了一个有趣的行为,即宣扬流的多路复用损害了排队时延。研究发现,随着同类TCP流在后台流量中的增加,典型流的平均排队时延和平均瞬时时延都有所降低。

关键词 互联网 TCP IP UDP 端到端时延 突发流量

1 导言

互联网给人类生活带来了革命性的变化。互联网的性能与TCP协议密切相关,因为大部分的互联网流量都是通过该协议传输的。TCP的性能取决于协议中构建的拥塞控制机制。拥塞控制算法不仅可以防止拥塞崩溃,而且可以作为一种资源分配机制(Srikant and Ying 2013;Bertsekas等,1992)。因此,这使得TCP稍微不适合时延敏感的应用程序。一些研究人员认为UDP可能在这类应用程序中表现得更好(Bertsekas等,1992年)。然而,IETF RFC 8085禁止使用UDP传输数据,除非它伴随着拥塞控制。TCP中的拥塞控制是基于窗口的、反应性的,在传输层由TCP实现。每个流分别受到拥塞控制和流控制机制的制约。路由器上的多路复用是一个随机过程。每个数据流共享网络资源产生的数据报会对其他数据报产生强烈的影响,并受到其他数据报的影响(Bertsekas al. 1992)。此外,这些流可能具有完全不同的性能需求,这取决于它们所支持的应用程序,比如一些流可能是时延敏感的,而其他流可能是弹性的。从我们的研究中可以看出,文献中对增加的复用TCP流对排队时延影响的研究不多。有许多关于TCP的吞吐量和时延的模型可用,然而对于更新模型的需求如下所述。

在传输过程中产生的流量M(n)是一个动态过程。了解流对时延性能的相互影响是这项工作的动机。这项工作试图对诸如多路复用流是否相互影响、它们是相互协作还是相互损害这样的问题获得深刻理解。本文所建立的队列模型将在网络层进行考虑,并将其应用于某大型集群的数据报中。尽管源流的发送速率是由理解拥塞和流控制的传输层决定的,但是当这些流的数据首先到达边缘路由器并被交换时,发送速率也会改变。然后在随后的路由器上,传入和传出的速率由路由器交换决定,与原始的发送源速率几乎没有相关性。缓冲会改变传输层的源流决定的速率和路由器随后的实际传出速率之间的时间信息。为了了解突发到达的影响和缓冲在通信网络中的作用,路由器链路上的数据报到达可以建模为随机过程。本文以典型的拥塞路由器为例,在考虑缓冲的基础上,对到达率和服务速率进行了建模,并对排队时延性能进行了分析。尽管TCP是目前研究最多、应用最广泛的协议,TCP的领域也很清楚,但研究人员认为通过研究TCP的时延敏感性可能会取得一些进展(Mondal等 2012)。端到端时延包括传播时延、传输时延、处理时延等,这些时延都是给定网络环境的可预测时延,并且已经被充分描述。

随机分量为排队时延,端到端时延受排队时延影响(Briscoe等,2014;Csoma等,2015)。路由器队列上的数据报(TCP和UDP)共享资源,因此影响其它数据报并且受到其他数据报的影响,TCP在互联网流量中的比例已经超过90%。因此,评估TCP的数据报之间以及TCP和UDP之间的交互所带来的性能是非常必要的。本文的动机还在于利用排队论分析和量化后台流量中TCP比例的变化对数据报的平均时延和离散队列的统计分析对标记流中数据报的平均瞬时时延的影响。研究结果表明,TCP在流量中所占的比例对数据报的平均时延和典型流量数据报的平均瞬时时延产生了反向影响。这也意味着TCP流实际上是互相损害的,不友好的。本文的工作是试图量化由于TCP流的数据报与其他TCP和UDP数据报的交互而导致的时延性能下降的影响。分析的目的是补充现有的已发表的工作,使其更加全面。本研究可提供一些更深入的见解,以处理在现代流量中与拥堵相关的问题,包括组合的弹性和时延敏感或实时的应用。

    1. 本文的具体研究贡献如下

使用TCP和UDP作为参数,对网络层拥塞路由器的到达和服务过程进行了数学建模。该模型还考虑了报文的长度,这也直接影响了时延性能。基于上述公式,利用流量分布参数估计了平均排队时延。这种分析方法本身就是本文的独特之处。对于三个预选值alpha;,即后台流量中TCP的比例,已经使用离散流量模型对数据报的到达顺序进行了尝试,试图进一步量化平均瞬时时延。利用实时流量进行测量以确定TCP,UDP和TCP加UDP的到达,服务和到达间隔分布,然后确定分布参数。在模型中替换这些流量分布的实际值并进行分析,以获得平均排队时延和平均瞬时时延。为了验证上述数学分析,已经在各种条件下基于详尽的NS2模拟对端到端时延的平均值进行了实际估计。仿真结果清楚地验证了我们的数学和分析方法所预测的趋势。

论文组织如下。在简要介绍之后,第一节和第二节专门回顾了该领域其他研究人员的相关工作。第三节介绍了从学术研究所收集的典型流量轨迹的流量统计特征,并定义了一个独特的到达和服务过程的数学模型。第四节提供了NS2模拟来研究路由器上的多路复用随机流的行为,从而探索了数学模型。这一节包括对不同网络场景下复用流的平均端到端时延和平均瞬时时延的评估。第五节介绍了数据流的平均等待时延或平均排队时延的估计以及互联网流量的平均瞬时时延,以验证仿真结果。第六部分总结了工作。

  1. 相关工作

在过去的15-20年中,TCP协议的使用已经被学术界和工业界的研究人员广泛研究。本节给出了一些重要的部分。

2.1排队时延与缓冲区大小的关系

Shailendra等人(2010a)将逐个链接错误控制中产生的平均排队时延与端到端机制进行了比较,并推断出与端到端方法相比,逐个链接机制导致的平均排队时延要小得多。Rouskas等人(2011)通过一项有趣的工作,评估了核心路由器的缓冲区大小与TCP吞吐量之间的关系。已经提到,对于特定的缓冲区范围,由于缓冲区的大小增加,实时流量损失会增加,这是由于缓冲区在路由器之间实时和弹性流量之间共享动态。排队时延与路由器的缓冲区大小密切相关(Iya等人,2015)。缓冲膨胀的问题值得一提,尽管30年前人们就知道了。Gettys和Nichols(2012)推断,缓冲区过大是普遍的缓冲区膨胀的主要原因。Nichols和Jacobson(2012)提出了一种新的主动队列管理(Active Queue Management, AQM)技术,即控制时延(CoDel)来处理缓冲区膨胀或持久的全缓冲区问题。Araldo和Rossi(2013)提出了一种使用被动测量来测量互联网中排队时延(缓冲膨胀)的技术。作者的结论是,ISP流量负载与排队时延之间似乎没有相关性。Showail等人(2016)推断,在无线网络中,业务规模也是影响服务质量的重要网络配置参数。Cardwell等(2017)提出了一种新的拥塞控制算法,即BBR。BBR(瓶颈带宽和往返时间)拥塞控制算法采用不同的方法:BBR没有假设丢包等同于拥塞,而是建立了一个网络路径模型来避免和响应实际的拥塞。BBR仍需进行行为和性能分析。

2.2 TCP的优势和不同的TCP类型

依赖于网络隐式和显式信令的不同TCP拥塞控制方法的调查突出了一些问题(Afanasyev等,2010; Lochert等,2007)。Afanasyev等人(2010年)讨论了拥塞控制机制的TCP演化图及其优缺点。作者指出,在研究社区中,对于任何特定的TCP拥塞控制技术的适用性,都没有达成共识。Lochert等人(2007)提出了一种控制拥塞发生的策略,并进一步指出当前使用的端到端机制不适用于无线场景。从“应用互联网数据分析中心”(CAIDA)网站2018年数据集的样本匿名互联网轨迹可以很容易地看出,TCP似乎是占主导地位的协议,超过90%的互联网流量由TCP构成。Callegari等人已对Linux TCP变体的吞吐量,公平性和友好性等参数进行了比较,但没有一个参数适合所有应用程序。Yang等人(2014)详细介绍了当前互联网中TCP异构拥塞避免算法部署模式,并推断TCP Cubic(46.92%)被广泛使用,其次是TCP Compound(25.62%)和TCP Reno(14.46%)。

一种新的以数据/内容为中心的TCP/IP传输方式正在发展,即命名数据网络(NDN),它是一种接收方驱动的无连接传输。这些协议基于互联网的使用/传播和检索。CDNs,P2P覆盖HTTP代理是在互联网基础结构之上实现的。Ren等人(2016)对NDN的拥塞控制进行了全面的调查。在调查工作中提出了NDN的研究挑战和有待解决的问题。Liu等人(2017)提出了数据中心的开关级区域拥塞缓解机制(switchlevel regional mitigation mechanism, RCM)。在无线传感器网络和物联网中提出了许多良好的拥塞控制机制。

2.3 实时应用的TCP和服务质量

据报道,现代流量受到TCP时延问题的影响,特别是对于实时应用,TCP时延会影响严格的服务质量要求(Srikant和Ying 2013; Casas等人2014)。在以下各段中,简要介绍了一些为解决TCP时延服务质量问题而提出的值得注意的解决方案。

Xu等人(2012)对三种流行的私有、高带宽、低延迟视频电话应用(Skype、ichat和谷歌 )进行了测量研究,对这些应用的架构设计以及设计对用户服务质量和QoE的影响有了一定的了解。Casas等人(2014)开发了一个在线QoE监测系统,以了解退化情况,然后由服务提供商在IP上提供资源。他们还做了一个重要的观察,Youtube和其他内容分发网络(CDN)将内容带到最终用户附近,以最小化传播时延。谷歌和其他CDN也采用了类似的策略。到目前为止,HTTP/HTTPS和TCP并没有区分云物联网中不同应用的不同服务质量需求。因此,接近用户的内容只会最小化传播时延。Li等人(2016)考虑了多路径网络实时(非弹性)流量的资源分配问题。进一步将资源分配问题转化为严格凸问题,分析了满足卡鲁什-库恩-塔克条件的最优解。Wang等人(2017)分析了固定服务质量下客户对带宽需求的效用函数。作者们提出了一种双边组合拍卖的资源分配方案。为了提高服务质量,现代应用程序更倾向于使用TCP多路径会话、TCP多会话、位于不同位置的多个内容服务器,使用HTTP重定向以最小化时延和动态使用未在互联网号码分配机构注册的大于1024的临时端口号。

因此,上述综述表明,网络时延是一个重要的参数,它对互联网通信的服务质量有负面影响,特别是对实时应用程序而言。有许多模型可用于TCP和UDP的混合,但没有一个专门用于量化互联网流量中TCP流之间交互的影响。因此,对新模型的需求是存在的。出于关心排队时延在上升并且TCP是占主导地位的协议,本文试图通过将到达和服务过程建模为随机过程,并将TCP和UDP的各种比例与各自的数据报大小进行比较,来分析可变排队时延。接下来,使用NS2进行模拟来检查多路复用流的排队行为。在此基础上,通过NS2仿真,对不同场景下不同TCP流量的标记流的平均端到端时延和平均瞬时时延进行了估计。在激励仿真结果的基础上,对模型估计结果和实时数据集进行了分析。在估计分析部分,使用离散的瞬态队列分析推导出感兴趣流的平均瞬时时延。在这里,我们研究了后台TCP流对典型TCP流或UDP流的服务质量的影响。为了确定互联网流量的值,本文使用的数据集是通过在印度浦那的一个著名学术机构收集实时流量数据生成的。数据的到达过程采用了曲线拟合的方法,改变了TCP、UDP和TCP 加 UDP的数据包大小和到达时间。数据集显示相同的自相似特征,可在探索相关的工作。应用程序用户流已由具有源IP地址、源端口号、目标IP地址和目标端口号等属性的元组限定。利用实测值绘制了排队时延的分析结果。利用离散统计队列模型对排队网络时延瞬时值进行了分析。

3 流量的统计特征

所做的经验测量和观察,如到达统计的自相似性、数据报大小和TCP在总流量中的主导地位,在很大程度上与研究得出的推论一致(Domaski等,2017;Chen等人,2016;Polaganga和Liang 2015;Kaur等人,2017)。聚合TCP到达过程和到达间时间的统计特征显示出长期相关性(Calzarossa和Serazzi 1993;罗西等人,2004)。

本文的测量数据集的生成是在学术研究所(康明斯女子工程学院,浦那印度)进行的,针对不同的属性,每个时间为1小时,并具有确定的平均值。在一周(168小时)内对边缘路由器上的经验数据进行流量测量,并使用Wireshark测量每个10mu;s间隔的每小时到达率,数据报大小和到达间隔时间。基于这些测量参数,如到达率、数据报大小和到达间隔时间。修复后进行曲线拟合,得到分布及参数。对获得的数据集的流进行排序,并确定仅用于TCP、UDP和用于标记流量的TCP加UDP的分布。观察到,仅按TCP、仅UDP和TCP加UDP三种情况排序的流量,在每个单独的情况下都遵循自相似性,类似于两个参数威布尔分布。注意到在所有情况下,到达率和数据报大小是相互独立的。进一步TCP贡献最大的总流量(约92%)。

有趣的是,仅TCP、仅UDP和TCP

剩余内容已隐藏,支付完成后下载完整资料


资料编号:[237042],资料为PDF文档或Word文档,PDF文档可免费转换为Word

原文和译文剩余内容已隐藏,您需要先支付 30元 才能查看原文和译文全部内容!立即支付

以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。