找回密码
 注册
搜索
热搜: 回贴
微赢网络技术论坛 门户 安全攻防 查看内容

QoS机制及其互操作性简述

2009-12-14 01:48| 发布者: admin| 查看: 20| 评论: 0|原作者: 夙瑶

过去的几年,出现了很多针对服务质量 (QoS) 网络的机制。这些机制的最终目的在于为网络边缘的应用程序提供更好的网络服务。本白皮书中,我们对 QoS 的优势做了简要的讨论。然后讨论了有哪些 QoS 机制,以及在它们之间如何实现互操作。
1 引言
在过去的几年中,出现了很多针对服务质量 (QoS) 网络的机制。这些机制的最终目的,在于为网络边缘的应用程序提供更好的网络服务。在本白皮书中,我们简要讨论了 QoS 的优势。然后讨论了一些可用的 QoS 机制,及它们如何进行互操作。本文档的第 2 部分,“Microsoft QoS 组件”,则讨论了 Microsoft 特有的 QoS 机制,这部分也可以单独作为参考。
2 QoS 的优势
近年来,我们目睹了计算机网络通信的迅猛发展。为了跟上不断增长的需求,网络管理员已经非常努力地不断增加容量。但网络客户还是经常对网络的性能不满。随着新型的渴求资源型多媒体应用程序的普及,这种状况更加恶化。QoS 机制提供了一套可供网络管理员使用的工具,能用有效的控制方式管理网络资源的使用。这样就可以为执行关键任务的应用程序和用户提供更好的服务,同时也减缓了容量需求增长的速度。换言之,QoS 可以帮助您在降低服务成本的同时,改善对网络用户的服务。
2.1 特定示例
以下几个段落描述了几个特定示例,从中可以看到 QoS 部署所带来的收益。
通过 WAN 链接的关键任务应用程序的性能改善
诸如 SAP 和 PeopleSoft 之类的应用程序,经常用在广域 Intranet 上,提供关键任务服务。这些链接特别容易拥塞,导致应用程序响应迟缓或会话超时,代价很大。使用 QoS,网络管理员可以让关键任务通信优先进行,使其免于在 WAN 链接上拥塞。而对与其竞争的重要性次之的应用程序,代价也微不足道。QoS 方法好比在繁忙的高速公路上为经常往返的车辆提供专用通道。关键任务通信被引向这些“通道”。
控制多媒体通信在网络上的影响
多媒体数据流应用程序,如 Windows Media? Technologies、NetMeeting? 会议软件、RealAudio 和基于 TAPI 3.0 的应用程序,在网络用户中越来越普及。它们会生成大量 UDP 通信。这种通信在网络拥塞时也不“后退”,从这个意义上说它对网络是不友好的。由于这种通信对网络资源的潜在影响,一般禁止或限制网络管理员在网络上部署多媒体应用程序。而 QoS 机制让网络管理员可以控制这些应用程序在网络上的影响。
启用多媒体
在上面示例中,我们讨论了使用 QoS 来控制多媒体数据流应用程序对网络资源的影响,而无需考虑事实上为多媒体应用程序提供的服务。QoS 可用于为特定的数据流媒体应用程序提供特定的服务质量保障。在这种情况下,QoS 让多媒体和数据网络实现了真正的收敛。这种收敛的优势包括,可以使用 IP 电话服务节省相当的开销。
3 QoS 工作原理
应用程序按变化的速率生成通信,并通常需要网络也按生成速率传送通信。而且,各种应用程序对网络通信延迟及延迟的变化容许能力有大有小。某些应用程序可以容忍通信有一定的丢失,其它则不能。如果可用的网络资源是无限的,所有应用程序通信都可以按应用程序需要的速度、零反应时间、零数据包丢失地传送。但网络资源毕竟不是无限的。所以,总有一部分网络不能满足对资源的需求。
网络是通过连接一系列诸如交换机和路由器等网络设备建成的。网络设备之间使用接口来转发通信。如果通信到达接口的速度大于接口向下一个设备转发的速度,就会发生拥塞。因此,转发通信的接口容量成为一项基本的网络资源。QoS 机制的工作原理就是,优先于其它通信为某些通信分配资源。
要做到这一点,首先必须识别不同的通信。通过“数据包分类”,到达网络设备的通信分成不同的“流”。然后,每个流的通信被引向转发接口上的相应“队列”。每个接口上的队列都根据一些算法接受“服务”。队列服务算法决定了每个队列通信被转发的速度,进而决定分配给每个队列和相应流的资源。这样,为提供网络 QoS,必需在网络设备中预备或配置下列各项:
信息分类,让设备把通信分成不同的流。
队列和队列服务算法,处理来自不同流的通信。
我们把这些一起称为“通信处理机制”。单独通信处理机制并没有用。它们必须按一种统一的方式在很多设备上预备或配置,这种方式为网络提供了有用的端到端“服务”。因此,要提供有用的服务,既需要通信处理机制,也需要预备和配置机制。
4 QoS 技术
在下面几节中,我们将回顾一些用于提供 QoS 的重要通信处理机制和重要预备和配置机制。
4.1 通信处理机制
有许多通信处理机制可供使用。在这一节,我们集中讨论几个重要的机制,包括“混合服务” (diffserv)、802.1p、“集成服务” (intserv)、ATM 和 ISSLOW。注意,通信处理机制可以分成“每对话”机制或“集合”机制。每对话机制将每个对话的每个通信流都分开对待。集合机制则把许多通信流归为一个集合类。这种区别可以比作接待航空乘客。一般,乘客被“标记”为头等舱、商务舱或普通舱。同一个舱的所有乘客都一起处理。这就是集合处理。每对话处理就好象为每个乘客提供专线飞机--奢侈而昂贵。
4.1.1 混合服务 (Diffserv)
Diffserv 是一种集合通信处理机制,适用于大型路由网络。这类网络可以传送成千上万的对话。因此基于每对话原则处理通信是不切实际的。Diffserv 在数据包 IP 报头中定义了一个字段,称为 diffserv 码点 (DSCP)1。发送通信至 diffserv 网络的主机或路由器用 DSCP 值标记每个被传送的数据包。Diffserv 网络内的路由器使用 DSCP 给数据包分类,并根据分类结果应用特定的队列行为。如果许多流的通信有相似 QoS 要求,则使用相同 DSCP 标记,这样就把流集合至公共队列,或为其行为做日程安排。
4.1.2 802.1p
802.1p 是适合局域网 (LAN) 使用的集合通信处理机制。
它在以太网数据包的媒体访问 (MAC) 报头中定义了一个字段,每个字段可以是八个优先级中的一个值。发送通信至 LAN 的主机或路由器用适当的优先级值标记每个被传送的数据包。LAN 设备,如交换机、网桥和网络集线器,将按相应的方式处理数据包。802.1p 优先级标记的作用域只限于 LAN。
4.1.3 集成服务 (Intserv)
Intserv 是一个服务定义框架。同样,它意味着一套基础通信处理机制。一般认为,Intserv 服务基于每对话使用。Intserv 一般会与 RSVP 信号传输协议(在预备和配置机制后讨论)联系在一起,但这并不必要。
4.1.4 ATM、ISSLOW 及其它
ATM 是一项链路层技术,提供了高质量的通信处理。ATM 把数据包分解成链路层“信元”,然后使用适合某一 ATM 服务的队列服务算法为这些信元列队并提供服务。
ISSLOW 是一种在数据包通过相对低速链接如拨号调制解调器时分解 IP 数据包的技术。音频和数据通过这些链接混合时,音频潜伏期可能很明显,会影响应用程序的可用性。ISSLOW 可以缩小这些应用程序的音频潜伏期。
另外还有为各种媒体定义的其它通信处理机制,其中比如电缆调制解调器、混合光线同轴电缆 (HFC) 设备、P1394 等等。它们可以使用低层的链路层信号传输机制 ATM,例如,使用 UNI 信号传输。
4.2 预备和配置机制
为有效提供网络 QoS,必须在多个网络设备上让通信处理机制的预备和配置生效。预备和配置机制可归为“自上而下”或“信号传输”两类。
4.2.1 “自上而下”预备
在“自上而下”预备中,网络管理系统把通信处理配置“推”到一组网络设备。一般,队列机制配置在设备接口上。然后配置分类标准,以确定如何将数据包引向设备的不同队列。数据包分类的标准可以基于 IP 5 元组(源和目标 IP 地址和端口及 IP 协议),也可以基于数据包报头的 DSCP 和 802.1p 集合“掩码”。可能还会使用遮蔽 5 元组。分类标准可以只规定 IP 5 元组的一个子集,例如,“所有源 IP 地址为 2.2.2.X 的数据包”,其中 X 可取任何值。如果规定分类标准为 DSCP 或 802.1p,就必须在分类设备的上游某处做 DSCP 或 802.1p 标记。这项工作可以由网络边缘附近的主机或网络设备完成。后一种情况,负责标记的网络设备会配置成按自己的分类标准标记,一般是 5 元组(或它的某个子集)。
4.2.1.1 “自上而下”预备中的挑战
确定适当的分类标准具有很强的挑战性。网络管理员可能更愿意使用 QoS 为特定应用程序或用户通信分配资源,而不是使用数据包报头中的字段,如 IP 地址和端口。“自上而下” 预备系统试图通过在应用程序和 IP 端口之间、用户和 IP 地址之间建立绑定,以帮助网络管理员。但不幸的是,它们经常不可靠。应用程序可能会使用临时的端口,或将多个通信流(需要不同的 QoS )溯源于同一端口。DHCP 可能会导致用户的 IP 地址更改。多用户机器可能为多个用户使用同一 IP 地址。IPSec 加密可能将 IP 端口加密,让它们无法作为分类标准。
“自上而下”预备的另一个挑战是对网络中不同节点通信量的预期。例如,管理系统可能在每个网络设备都配置了低潜伏队列,能够同时处理有特定潜伏期限的 10 个 IP 电话服务会话。然后在每台设备上配置分类标准,把 IP 电话服务通信引向低潜伏队列。只要电话服务通信到达每台设备,这项工作就仅限于 10 个会话。但如果建立了第 11 个电话服务会话通过其中一台设备,就会拥塞低潜伏队列,因为潜伏超出了配置范围。结果是,这不仅会危及第 11 个会话,还会危及 10 个现有的会话。这是由于“自上而下”预备相对静态的性质,而管理系统不直接了解当前的通信方式。
4.2.2 RSVP 信号传输配置机制
RSVP 信号传输可作为“自上而下”预备机制的一个补充。在这种情况下,主机生成信号传输消息,描述特定对话相关的数据通信。这些消息沿与数据通信相同的路径在网络中流动。RSVP 消息为网络提供了以下信息:
我是什么--源应用程序和子流(如打印流对时间关键型事务)。
我是谁--身份验证的用户 ID。
我要什么--需要的 QoS 服务类型。
我要多少--特定应用程序精确量化它们的资源需求。
怎样识别我--识别数据通信的 5 元组分类标准。
哪些网络设备资源会受到相关数据通信的影响。
这些基于主机的信号传输为 QoS 管理系统带来很大好处。基于主机的信号传输一个明显好处是,它在分类信息与用户、应用程序之间提供了健壮的绑定。除此之外,基于主机的信号传输还提供了“拓扑认知动态准入控制”。这个功能是解决前面描述的“第 11 个电话服务会话”问题的关键。RSVP 信号传输为数据路径沿途的设备提供了一个有关需要资源的消息。因此,支持 RSVP 的设备能够动态评估数据通信对资源的影响,并通知上游设备它们何时缺少处理额外通信流的资源。在“第 11 个电话服务会话”的情况,网络设备会拒绝第 11 个通信流进入低潜伏队列,以保护现有的 10 个会话。这里很重要一点是注意基于主机的信号传输无法与网络管理员对网络资源的控制相比。它提供的信息只能帮助网络资源管理。
5 质量保证和质量/效率乘积
电话服务通信的特点是需要“高质量保证”。这种需要可以量化,取决于这些要求是否被严格满足。多媒体应用程序一般会需要高质量保证。但不是所有应用程序都需要高质量保证。例如,客户/服务器数据库事务不能精确量化它们对资源的要求,同样,也不会得到量化的保证。那些承诺减少潜伏期、但不做严格的潜伏期限制的较低质量的保证,对这些应用程序可能没有坏处。
提供高质量保证的一个方法是让网络有明显的超额预备。例如,IP 电话服务示例中所描述的网络设备如果预备支持所有潜在的 IP 电话服务会话,“第 11 个电话服务会话”问题就可以避免。但如果有 1,000 个潜在的会话,而平均同一时间只有 10 个会话,可能有必要按 100 的系数超额预备网络设备,以支持高质量的保证。这明显是对网络资源的低效利用。总之,在网络提供高质保证的能力和网络资源的利用效率之间,总是此消彼长。衡量网络的一个常数是“质量/效率乘积”( QE 乘积)。提供更高的质量保证需要在效率上有所让步,反之亦然。
提供高质量保证的另一种机制是使用前面所说的 RSVP 信号传输。使用 RSVP 信号传输,就可以按照平均负载预期预备网络设备。如果偶尔有负载超出预期的情况,额外会话将被拒绝,但对已有会话的保证仍能保持完整。通过使用 RSVP 信号传输,我们能够有效地提高网络的 QE 乘积,同时提供更高质量的保证和网络资源更高效的使用。总之,QoS 机制越复杂,就越能提高给定网络的 QE 乘积。似乎所有网络设备都应实现尽可能复杂的 QoS 机制。但 QoS 机制本身的管理会导致管理费用增加。对信号传输而言,这一管理费用体现为网络设备中的处理资源增加。这引导我们得出很重要的一点--“评估任何 QoS 机制,都要在 QE 乘积提高方面的收益与导致的管理费用增加之间平衡考虑”。
下表用实际的 QoS 机制阐明这一概念:



其中,行代表递增的通信处理机制复杂等级。列代表复杂程度递增的预备和配置机制等级。注意,左上单元格代表没有任何 QoS 机制,提供的 QE 乘积很低。这种网络的示例是一个超额预备的 LAN。另一个极端在右下单元格,代表网络的每个网络元件都处理每对话 RSVP 信号传输,并应用每对话 intserv 通信处理。中间单元格代表了在提高 QE 乘积和降低管理费用间的折衷。代表每对话准入控制与集合通信处理相结合的单元格特别值得注意。
下图对此做了说明:



这个图最左边说明了正在发送的主机。主机发送到大型路由网络中,目标是最右边的接收主机。在路由网络中穿过几个路由器。这些构成了通信处理的集合形式(例如 diffserv)。路由网络入口处的路由器,被指定为“准入控制代理”。它处理来自发送主机的每对话 RSVP 信号传输消息,并决定是否允许主机对话的信号通信进入路由网络的高优先级集合通信处理队列。
注意,尽管信号传输端到端地穿过网络,但它们只在主机和指定为路由网络准入控制代理的路由器上处理,见箭头所示。网络核心处的路由器应用集合通信处理,不处理信号传输消息。这种网络边缘采用每对话信号传输、而核心采用集合通信处理的模型,在 QE 乘积和 QoS 相关管理费用之间做了很好的折衷。它可扩展到任意复杂的网络拓扑。总之,通过启用更高密度的网络准入控制代理,QE 乘积可以在管理费用增加的基础上得到提高。我们希望 ISP 使用类似的方法,提供基于 QoS 服务的 VPN。
5.1 同时使用信号传输和“自上而下”预备
真正的网络,要求支持各种不同质量保证需求的应用程序。为了保证终端客户,从网络的一端到另一端这些保证都要有效。网络的一部分将会是资源紧张的,需要有效预备。而其它部分却可能是超额预备的。为获得对高、中质量保证的最佳支持,信号传输消息必须在网络的不同部分都可用。为达到这个目标,主机将生成针对一系列应用程序的信号,其中包括多媒体应用程序和关键任务的应用程序。然后,网络管理员可以基于前面讨论的折衷策略,在网络上适当点指定准入控制代理。
也有些应用程序,信号传输对它们不是那么有用。特别是对不面向会话的和不产生持续通信流的应用程序而言,信号传输将导致相关管理费用增加,这很不合算。这些应用程序的资源必须按“自上而下”方式预备。这样,随着 QoS 机制的部署,我们将看到一个基于信号传输的预备和“自上而下”预备的结合。由于两个机制在同一网络中分配资源,它们必须按照某种方式协调。这里的协调点是策略服务器。
6 策略和策略服务器
行业标准 QoS 策略模型,定义了策略执行点 (PEP) 和策略决定点 (PDP)。PEP 包括路由器、交换机和其它可以作为准入控制代理的设备。一般,PEP 与 PDP 一起工作,实施网络管理员的 QoS 策略。PDP 提供了处理抽象策略需要的更高层次的智能。PDP 检查到达不同 PEP 的 RSVP 信号传输消息,并决定相应的通信是否可以获准进入。PDP 还使用“自上而下”预备将非信号传输通信流“推”向 PEP 配置信息。PDP 一般依赖于一个策略数据存储区。这个数据存储区可以采取分布式目录的形式。
7 小结
QoS 机制在允许网络管理员有效管理网络资源的同时,为网络用户带来了服务的改善。这些机制包括,通信处理机制及预备和配置机制。通信处理机制包括队列算法和数据包分类。它们可以应用于通信的集合或每对话通信流。预备和配置机制可以是“自上而下”或主机信号传输。“自上而下”预备中出现了通信分类的挑战,通常无法同时提供高质量的保证和网络资源的有效利用(高质量/效率乘积);基于主机的信号传输为网络提供的信息明显促进了网络资源和特定用户及应用程序的结合,可以让网络管理员体会到 QE 乘积的适当提高。在方兴未艾的 QoS 网络中,我们可以期待看到信号传输和“自上而下”预备 QoS 机制的结合。策略决定点为这些 QoS 机制提供了统一管理。

最新评论

QQ|小黑屋|最新主题|手机版|微赢网络技术论坛 ( 苏ICP备08020429号 )

GMT+8, 2024-10-1 05:39 , Processed in 0.257780 second(s), 12 queries , Gzip On, MemCache On.

Powered by Discuz! X3.5

© 2001-2023 Discuz! Team.

返回顶部