英语原文共 6 页,剩余内容已隐藏,支付完成后下载完整资料
使用VPE和NFV服务链接增强实时内容传递
摘 要
实时的内容交付 (RTCD) 系统成为电信的一个主流,证据有欢迎的新闻铸造、 实时事件订阅 / 公共-阳离子和实时流媒体。与常规内容不同,RTCDs 需要实时向用户提供处理后的信息传递系。这可能需要网络来处理一些用户应用程序消耗的带宽。组合网络功能虚拟化 (NFV) 和服务链接是一个有效的办法来应对这一挑战。
我们的工作适用链接算法,将服务NFV 模块的软件定义为在 RTCD 中的应用基础设施 (SDI),虚拟化的客户的前提边缘(vCPEs),拥有稀缺的资源。我们建议内容上包括 VNFs 到 vCPEs。我们的目标是要最大限度地建立连接,可以在服务的总数RTCD 应用程序。要优化链 NFV 模块,提出了启发式算法,并进行评价。我们使用模拟,表明我们的算法的帮助vCPEs 可以支持更多的用户同时提供高水平的服务质量。
简介
实时的内容交付 (RTCD) 系统支持的人脸和财务、 安全、 和电信等行业的新的商业模式。在安全、 人脸识别算法确定身份,并向警察部门报告已关注罪犯。在电信行业,体育赛事的直播内容被分流到具有低延迟的视频订阅。RTCD系统,才能避免不同地理位置的内容交付延误,尽量减少系统位置偏远,在动态的应用程序,并提供应用到更多的用户。
为了避免过多的内容交付延误并启用缓冲,计算和网络资源需要调配提供大量处理和 RTCD 网络所需的巨大的带宽能力。这些资源已经成为内容上载、分布和流媒体直播内容需要迅速处理,从而满足顾客需求为卓越的品质和低延迟的地方设置中的重要组成部分。
动态的 RTCD 应用程序的可用性可以提高通过融合管理的异构网络和计算资源通过软件对基础设施 (SDI)。为应付 RTCD 应用程序的动态性质,SDI 上有效处理的配置改装为应用程序重新路由网络路段、 缩放计算资源或甚至完全迁移 [1] 的计算资源。SDI 还雇用了一个未定义接口,便于部署和管理的 RTCD 技术,如监测和直播 [2]。SDI 执行的体系结构应当用于提高 RTCD 在这项工作。在虚拟基础设施 (SAVI) 测试平台的智能应用程序是一个完全部署的 SDI资源管理系统 (RMS)。Savi 公司旨在支持低延迟和高数据容量的应用程序基于包括智能边缘多层云。萨维多层云的概念延伸到第三层,其中包含虚拟化的客户处理端(vCPEs) 传感器网络。vCPE 的数据流在 savi 公司有别于虚拟客户终端设备,运行固定组的网络功能。savi 公司 vCPEs 被指承载平台位于极端边缘容器。vCPEs 并没有足够的资源来处理计算为高容量的流量,所以基于云的解决方案与核心或智能边缘节点是需要满足应用程序的端到端需求。
图一:抽象的多层云
另一个最近技术的突破,能改变 RTCD,是网络功能虚拟化 (NFV),其目的是使网络功能 [3] 的实现转变。NFV,灵活的网络虚拟化网络节点的体系结构允许模块化开发和快速部署。每个网络模块单独部署虚拟化的网络功能 (VNF)。VNFs 需要计算和网络资源部署在云上时。一个网络应用程序可能会要求一套这些相互联系的 VNFs 以复杂的方式一起工作。逻辑和连接这些 VNFs 在一起的过程被称为 VNF 服务链接 [4]。在 VNF 服务链接有两个阶段︰ 安置和链接[5]。VNF 安置感到关切的是,VNFs 应用程序和它们的映射到物理服务器所需的数目。VNF 放置目标可以从降低部署成本最大化路段请求和最大化的聚类与路由通过 VNFs 尽量减少 VNF 链路段拥堵、 总处理和传输延迟、 路段和维护服务级别协议有关VNFs。
我们的工作目标,创建可扩展的算法来处理向提出请求 VNF 链接平台 [6] 的 RTCD 应用程序运行在萨维。该算法的目的是将放置并连接 VNFs 的方式来提交请求的能力最大化。该算法的结果请注意拥有 vCPEs 在提高服务覆盖率的 RTCD 应用程序的重要性。
本文的其余部分被致力于学习效果的 vCPEs 和 RTCD 应用链接的服务。第二节探讨 savi 公司的 RTCD 应用程序,并认为基本情况与无 vCPE,证明 vCPEs 空间数据基础设施的必要性。第三节描述服务链接,并提供为到达服务链接能力最大化问题的最优解的数学表述。要使服务链接 (NP 难问题) 温顺,启发式的解决方案有了提出和评价在第四节。第五节讨论了相关的工作,并总结出第六节。
二.系统描述
万花筒 [2] 是涉及收集和发布的视频直播,从大量的用户,组中的应用,因此它是萨维测试平台上应用程序 RTCD 理想的用例。万花筒可以利用动态云资源分配和网络配置在真正的时间,以达到规避资源管理和更好的服务性能。我们的工作可以用于资源分配和服务链中 Kaleidoscope.We 考虑使用万花筒 (如图 2 所示) 体育场。体育场被配备高品质相机放置在不同角度的体育场。这些摄像机连接到 Wi-Fi 接入点和发送视频提要到流光服务器。在这项工作,我们只专注于内容分发从流光服务器在体育场内的球迷。
图二:在基本情况下考虑体育场的物理结构
在审议下的设置,所有用户都应能够在任何时候都由在现场的臆测摄像机捕获的流内容。此外,播放功能具有可供这些用户的百分比。
若要启用流与回放功能,一组路段请求应提交 savi 公司测试平台的 VNF 链接平台。这些路段请求包含源自流光服务器的内容分发服务链信息。每个服务链路段请求包括深度包检测 (DPI),HTTP 流光、 缓存和流光服务器。除了流光-服务器,所有 VNFs 的位置是未知的。流光服务器位于智能边缘作为单个共享实例。因此,大多数要求将定向从 vCPE 节点到智能的边缘。
在我们的例子中放置的所有 VNFs 的订货是必要的。每个用户请求是在钢绞线的一种形式,一个小的连接链,将窗体设置图。VNF 股是如图 3 所示。在流的情况,DPI 就是来自用户的请求逻辑访问的第一批模块。这是为了防止请求可以在 SDI 造成的危害。它是重要的是注意,DPI 只用于上行链路 (有 5%的下行路段),以避免任何的争用。随 DPI,请求应该面对流光 HTTP 模块。在这 配置,为每个请求需要一个单独的 HTTP 流光 VNF (用于流和重播)和缓存 VNF (为重播)。这些 VNFs 可能会更改的性质和规模的带宽。雾剂转发数据,而无需更改流的带宽传递给他们。
本地缓存减少带宽消耗的播放功能。这个本地缓存和计算说明了化的 vCPEs 用节省了总带宽,允许更多的用户流。为了更多上有效利用有限的资源用于 vCPE,我们建议而不是虚拟机容器用于部署 VNFs。换句话说,VNFs 将部署在 vCPEs 运行的容器。
图三:重新显示请求的流
在这里我们移位多个基本情况和夏装最大用户数 (流和重播与 b = 5Mbps),可以支持由 SDI。如图 2 所示,beta; 0 是智能的边缘和顶部层交换机之间的带宽、 beta; 1 是顶级开关和每个 较低层次交换机之间的带宽、 beta; 2 是低层交换机和每个他们连接的访问点之间的带宽和 beta; 3 亚基是连接到其用户群的每个接入点的无线链路的带宽。K1 是低层切换的次数和 K2 是每个低层交换机根据割裂那个人的访问点的数量。
让我们考虑几个数字为一组参数,便于了解第一批少数情况下︰ beta; 0 = 10GigE,beta; 1 = 1GigE,beta; 2 = beta; 3 亚基 600Mbps = 200Mbps,K1 = 300,K2 = 5。
A.并置的链模型
首先我们假设所有的钢绞线的 VNF 模块有配置在同一计算模块。绞线已经被改造到链忽略由于其较小的带宽,上行链路和视频已多-浇注从流光服务器对所有可能的位置 (如图 4 所示) HTTP 飘带。
图四: 简化链状流和重播的请求。高速缓存
模块正考虑处理每个用户的能力,并不做有每个用户的本地副本。
1) 仅智能边缘计算︰ 在这种情况下,瓶颈是智能边缘和顶级开关与带宽 beta; 0 之间的联系。SE 可以支持最多 beta; 0/b 用户 (2000年球迷在我们的示例)。
2) 只启用的 vCPE 接入点︰ 尽管以前的情况,所有 VNFs 都必须放置在 AP上。每个用户需要 b 带宽每流或从无线带宽重播。因此 (beta; 3 亚基/b) 可以支持的用户通过 AP 会计为 K1K2(beta;3/b) (在我们的示例中的 i.e.72000 风扇) 总数。
3) 仅有限 vCPEs ︰ 让我们考虑一个案例出 K2 APs 配备 vCPEs,只有 K2(i.e.1)。因此这些 vCPEs 可以由他们的邻居 AP共享。用于分发 V 多铸 (i.e.V = 10) 相机饲料只消耗带宽 Vb 从低层的链路切换到 vCPEs。Beta;2minus;Vb 是提供给服务邻居接入点。因此 SDI 所支持的用户数 (这里 asymp; 42000 球迷) 仅限于 APs 与 vCPEs () 的无线链路 () 的容量和能力的外向链接。
4) 智能边缘和有限的 vCPEs︰ 在这种情况下,带宽从多播留下的主要环节应被用的来服务用户。这模型以前的公式为:(43980 用户)
最小 、
((beta;0 minus; Vb)/b)
5) 处理限制︰ 让我们假设从流并置的 VNFs 请求链需要 res1 量相比的每个vCPE RES1 该能力。这一问题变成
最低 ,
min (,)
其中 是由资源和链接能力的 vCPEs 支持的用户数 (即 RES1/res1 是支持资源的用户)。增加 ,它似乎是合理分配而不是配置股 VNFs 他们。
B服务链约束的异构资源
我们有由现在意识到减少计算上的 AP vCPEs 可以导致更多的用户。到上有效使用计算 Ap 上的脉搏和 HTTP 飘带,作为主要的位置计算饿 VNFs,具有重要意义。到目前为止并添加 vCPEs 对用户数目的观察。VCPEs 和交换机处理正成为当今网络研究中很常见。这是值得注意的是,vCPEs 不需要安装在每个 AP向用户提供合理的服务。
在这种情况下,我们假定 APs 和低层交换机配备异构资源。计算可以由基础结构支持的用户的最大数目不可能那样简单,因为它是在前面的情况。为探索服务链上的用户数量最大化的效果,在下一节开发数学表述。
三.问题的公式
连通性与直接的物理链路 L S 服务器(计算模型) 由哪个服务器在寺通过链接利杰与有效带宽连接定向图 G(S,L) (选择低于 70%的实际汇率,以避免队列延迟) 的 (Gbps) 和 (ms) 到服务器 的传播延迟。链接 (标头处理延迟) 延迟就比计算延迟 (延迟参与使用 RAM) 相对较小。这使得总延迟所有处理延迟和一个固定的数量的总和。定常时滞就不必讨论延时上限问题制订相应的概念。每个服务器都有一整套资R = {r1,r2,...},即: (GHz) CPU、 RAM (GB)、 磁盘 (GB),磁盘读取速度 (Mbps) 和与 Crs 的每个资源相关联的能力。由于丰富的存储是可用的存储容量不视为一个瓶颈,从计算中删除。
在我们的用例,一组请求提交给RTCD 应用程序。每个请求 t 包含入口点的 ut,VNF 链 zeta;t,带宽的值,可以在每个 VNF 过程中改变其游走形式向量的顺序。每个 VNF m isin; zeta;t 有一套所需资源 rho;r m填满SDI。虚拟链接 Gamma;t 矢量也与每个请求相关联。并置 VNFs 服务器上已被认为假设物理链接从一个服务器本身,建模服务器间路段转发。
为了公平起见,用户之间,我们的目标是同样最大化可以流不同部门之间的用户数目。一个分支是子树的 SDI 树 (视在图 2 中与低层交换机为其根。我们的拓扑有 K1 分行 (相当于低层切换的次数在 SDI)。定义一个Tstream,我随着数目的用户可以从 AP 的分支我流,我们的目标成为最大化最小 Tstream,是不同部门之间。这个问题是相当于每个 AP 链最大化数目时所有的接入点有同样数量的锁链之中。
maximize
s.t =
= = ... =
alpha; Replay percentage
链的最大数目取决于 VNFs 的物理服务器上的分配。要制订这种分配,参数被需要来说明是否从路段 VNF m 分配给服务器 。另一方面,用于连接在一起的 VNFs 的物理链路的能力有限。要确定虚拟链接 gamma; 的物理链路 l使用,另一个参数 是必要的。
为了确保路段请求 T 是分配和连接提交链接服务,需要应用到优化问题下, 一步所述额外限制。
变量. |
描述 |
|
VNF m 从t在服务器的位置决策变量 |
|
物理链路 l 链决策变量 traffic t 的虚链gamma; |
为了保证体育场的所有 VNFs 都放在网络上, 每个 VNF 都必须分配给一个服务器, 而只有一台:
每个虚拟链接都将 VNF 连接到另一个。为了避免冗余遍历, 只有一个物理链路的方向应与虚拟链接相关联 (是 反向方向物理链路 l)。
接下来需要确保流量请求的每一个链接都完全映射到物理网络。只有当链上连续两个 VNFs 不配置时, 此条件才充分。我们还需要通过在节点之间流的等效输入/输出进行完整的路径连接。在下面的表达式中分隔求和的原因是强调入站和出站流量。每个流量的源和目的地都在上面的约束中被考虑。
为了考虑服务器间链接, 不正确的搭配的可能性被消除如下:
全文共10559字,剩余内容已隐藏,支付完成后下载完整资料
资料编号:[143086],资料为PDF文档或Word文档,PDF文档可免费转换为Word
以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。