如何在Linux中实现流量整形控制? (linux流量整形)

在网络通信中,流量整形控制是一项非常重要的技术。它可以控制网络带宽,使不同应用程序间的带宽使用平衡,并避免高带宽消耗对其他应用程序造成影响。在Linux中,可以使用一些工具来实现流量整形控制,本文将介绍如何在Linux中实现流量整形控制。

1. TC

TC是Linux内核默认的一个网络控制工具,可用于实现流量整形控制、延迟控制和带宽管理等功能。TC以网络队列规则为核心,使用一组过滤和处理规则,可以定义网络流量的限制、分类和调度。TC的命令行方式使用较为复杂,但是可以通过一些脚本进行封装,使其使用更加简单。

2. Wondershaper

Wondershaper是一款基于TC的网络带宽管理工具,它可以快速地对网络带宽进行限制和分配,适用于家庭网络和小型办公网络。Wondershaper使用起来非常简单,只需要在命令行中执行相应的命令即可。比如,如果想要将网络带宽限制在1Mbps,可以使用以下命令:

sudo wondershaper eth0 1024 256

其中,eth0是网络接口名,1024是限制,单位是Kbps,256是上传速度限制,单位是Kbps。

3. Trickle

Trickle是一款基于用户的网络控制工具,它可以为每个用户限制和分配网络带宽。Trickle使用起来非常简单,只需要通过命令行指定带宽限制即可。

比如,如果想要限制某个应用程序的为200KB/s,可以使用以下命令:

trickle -u 200 -d 200 firefox

其中,-u参数表示上传速度限制,-d参数表示限制,firefox表示需要限制的应用程序。

4. Nfq

Nfq是一款基于Linux内核Netfilter框架的网络队列管理软件,在使用前需要做一定的配置。Nfq可以通过配置网络规则来实现流量整形控制和包过滤等功能,具有较高的灵活性和可定制性。Nfq的命令行使用较为复杂,需要有一定的Linux系统和网络知识。

流量整形控制是保证网络带宽平衡和网络性能的重要手段之一。Linux中有多种工具可以实现流量整形控制,每个工具都有其自身的特点和使用方法。根据实际需要,可以选择合适的工具来实现流量整形控制,以满足网络带宽限制和优化的要求。

相关问题拓展阅读:

Tc流控介绍

1.1 SHAPING(限制):控制流量在某个值以下。限制值可以大大小于有效带宽,这样可以平滑突发数据流量,使网络更为稳定。shaping(限制)只适用于向外的流量。

1.2 SCHEDULING(调度):通过调度数据包的传输,可以在带宽范围内,按照优先级分配带宽。SCHEDULING(调度)也只适于向外的流量。和亏

1.3 POLICING(策略):SHAPING用于处理向外的流量,而POLICIING(策略)用于处理接收到的数据。

1.4 DROPPING(丢弃):如果流量超过某个设定的带宽,就丢弃数据包,不管是向内还是向外。

2.1队列控制 :即 QOS,TOS 瓶颈处的发送队列的规则控制,常见的有 SFQ、 PRIO。

2.2流量控制 即带宽控制 , 队列的排队整形, 一般为 TBF、 HTB。

3.1无类算法 用于树叶级无分支的队列,例如:SFQ

3.2分类算法 用于多分支的队列,例如:PRIO 、TB、F HTB

Tc对象列表

结构图

我们可以使用以下三种方式为数据包归类,不过不是所有的QDisc都能够使用这三种方式。

FILTER

QDisc、类和过滤器都有ID。ID可以手工设置,也可以有内核自动分配。ID由一个主序列号和一个从序列号组成,两个数字用一个冒号分开。

Linux流量控制主要分为建立队列、建立分类和建立过滤器三个方面。

基本实现步骤为:

(1) 针对网络物理设备(如以太网卡eth0)绑定一个队列QDisc;

(2) 在该队列上建立分类class;

(3) 为每一分类建立一个基于路由的过滤器filter;

(4) 最后与过滤器相配合,建立特定的路由表。

令牌桶过滤器 (TBF) 是一个简单的队列规定 : 只允许以不超过事先设定的速率到来的数据包通过 , 但可能允许短暂突发流量朝过设定值 .TBF 很精确 , 对于网络和处理器的影响都很小 , 实现是针对数据的字节数进行的 , 而不是针对数据包进行 , 常用于网关限速 .

TBF 的实现在梁蚂于一个缓冲器 ( 桶 ), 不断地被一些叫做”令牌”的虚拟数据以特定速率填充着 . (token rate). 桶最重要的参数就是它的大小 , 也就是它能够存储令牌的数量 . 每个到来的令牌从数据队列中收集一个数据包 , 然后从桶中被删除 . 这个算法关联到两个流上——令牌流和数据流 , 于是我们得到 3 种情景 :

测试机器 192.168.5.52 与 192.168.8.51

在192.168.8.52 上设置qdisc 进行流量控制。

对192.168.8.52,进行tbf设定:

由于tbf 属于不可分类qdisc,配置步骤只有一步:

tc qdisc add dev enohandle 1: root tbf rate 10Mbit burst 10kbit limit 20Mbit

handle 设定qdisc 句柄号 ,省略则随机给定

rate 设定更大的发包速率,单位默认唤渣神字节

burst 设定令牌通大小,单位默认字节 注:在 Intel 体系上 ,10 兆 bit/s 的reate需要至少 10k 字节的burst。

limit 带宽大小,控制总带宽,另外一个作用是,对没有获取到tokent 排队中包进行限制,达到limit 限定则丢弃。

prio qdisc 属于可分类qdisc,不可动态添加类的算法。

分类算法:主要作用是可以对多种数据流区别对待 . 一旦数据包进入一个分类的队列规定 , 它就得被送到某一个类中分类 ,

对数据包进行分类的工具是过滤器 . 过滤器会返回一个决定 , 队列规定就根据这个决定把数据包送入相应的类进行排队 .

每个子类都可以再次使用它们的过滤器进行进一步的分类 . 直到不需要进一步分类时 , 数据包才进入该类包含的队列规定排队 . 除了能够包含其它队列规定之外 , 绝大多数分类的队列规定能够流量整形。

PRIO 分类优先算法 ( 从左至右优先发包 ): 队列规定并不进行整形 , 它仅仅根据你配置的过滤器把流量进一步细分 .

你可以认为 PRIO 队列规定是 pfifo_fast 的一种衍生物 , 区别在每个频道都是一个单独的类 , 而非简单的 FIFO.

当数据包进入 PRIO 队列规定后 , 将根据你给定的过滤器设置选择一个类 . 缺省情况下有三个类 , 这些类仅包含纯 FIFO 队列规定而没有更多的内部结构 .

你可以把它们替换成你需要的任何队列规定 . 每当有一个数据包需要出队时 , 首先处理 :1 类 . 只有当标号更小的类中没有需要处理的包时 , 才会标号大的类 .

测试机器 192.168.5.52 与 192.168.8.51

在192.168.8.52 上设置qdisc 进行流量控制。

通过iperf –S 选项设定 TOS包头字段使流量分类

1.tc qdisc add dev enoroot handle 1: prio priomap 1 1

2.tc qdisc add dev enoparent 1:1 handle 10: pfifo

tc qdisc add dev enoparent 1:2 handle 20: tbf rate 10mb buffer 10kb limit 15mb

tc qdisc add dev enoparent 1:3 handle 30: tbf rate 20kbit buffer 1600 limit 3000

之一步:给网卡定义一个根qdisc 使用prio算法。注:priomap 选项所设定的16个tos标识符与3个bond的

关系,可省略,这里为解析选项,使用的也是默认结构关系。

第二步:给三个band即三个缺省的class 配置子qdisc ,为了测试效果,这里给class10设定pfifo算法,避免测试时

ssh本身被限制挂起,给class20 、class30 使用tbf算法,限定不同的速率,以体现prio的分类特性,由于

条件限制,可能无法体现出 三个class的优先级特性。

第三步:由于prio 协议使用TOS 字段进行分类,在本案例中直接使用iperf 工具 直接定义流量包的tos 包头,

本例将省略 FILTERS 的配置。(可以配置filter有iptables-mangle表、cgroup)

该 prio算法可以实现流量分类效果,适用在多业务并存的场景。

CBQ qdisc 属于可分类qdisc,可动态添加类的算法

CBQ 的工作机制是确认链路的闲置时间足够长 , 以达到降低链路实际带宽的目的 . 为此 , 它要计算两个数据包的平均发送间隔 . 操作期间 , 有效闲置时间的测量使用EWMA(exponential weighted moving average, 指数加权移动均值 ) 算法 , 也就是说最近处理的数据包的权值比以前的数据包按指数增加 . 计算出来的平均时间值减去 EWMA 测量值 , 得出的结果叫做”avgidle”. 更佳的链路负载情况下 , 这个值应当是 0.

数据包严格按照计算出来的时间间隔到来 . 在一个过载的链路上 ,avgidle 值应当是负的 . 如果这个负值太严重 ,CBQ 就会暂时禁止发包 , 称为”overlimit”( 越限 ).

相反地 , 一个闲置的链路应该有很大 avgidle 值 , 这样闲置几个小时后 , 会造成链路允许非常大的带宽通过 . 为了避免这种局面 , 我们用 maxidle 来限 avgidle的值不能太大 .

理论上讲 , 如果发生越限 ,CBQ 就会禁止发包一段时间 ( 长度就是事先计算出来的传输数据包之间的时间间隔 ), 然后通过一个数据包后再次禁止发包 。

模拟的场景

假如有三种类型的流量需要控制:

配置子qdisc与class,及class 的子qdisc

注: 此处的子qdisc 是归属于class的,在定义class直接定义。这些qdisc使用 tc qdisc ls 命令查不到。与prio算法不一样。prio在创建qdisc 是class已创建,class的子dqisc 无法通过一般方式修改,故使用创建qdisc的方式。

建立分类器

6.tc filter add dev enoparent 1:0 protocol ip prio 100 route

7.tc filter add dev enoparent 1:0 protocol ip prio 100 route to 2 flowid 1:2

8.tc filter add dev enoparent 1:0 protocol ip prio 100 route to 3 flowid 1:3

9.tc filter add dev enoparent 1:0 protocol ip prio 100 route to 4 flowid 1:4

修改路由

10.ip route add 192.168.8.51 dev enorealm 2

11.ip route add 192.168.8.53 dev enorealm 3

12.ip route add 192.168.8.0/24 dev enorealm 4

去除分类器来讲,该算法本身适用的场景,流量整形,调度,合理分配带宽

注:一般对于流量控制器所直接连接的网段建议使用IP主机地址流量控制限制,不要使用子网流量控制限制。如一定需要对直连子网使用子网流量控制限制,则在建立该子网的路由映射前,需将原先由系统建立的路由删除,才可完成相应步骤。

该算法参考tbf算法,这里注重演示u32分类器。

环境与要求同上述 CBQ 的例子

添加过滤器 , 直接把流量导向相应的类 :

U32 是常用的分类器,分类器是对数据包进行分类工具 , 分类器用与把数据包分类并放入相应的子队列 ,

这些分类器在分类的队列规定内部被调用 . 为了决定用哪个类处理数据包 , 必须调用所谓的”分类器链” 进行选择 . 这个链中包含了这个分类队列规定所需的所有分类器 .

如图(结构图)所示分类器工作在拥有子类的class上,即树状的分支处。

当一个数据包入队的时候 , 每一个分支处都会咨询过滤器链如何进行下一步 .

你可以把后一个过滤器同时放在 1:1 处, 而得到效率的提高 .

另外使用 HTB 的时候应该把所有的规则放到根上。

注 : 数据包只能向”下”进行入队操作 ! 只有出队的时候才会上到网卡所在的位置来 . 他们不会落到树的更底层后送到网卡

linux tc 流量控制,求助的相关推荐

TC的安装

TC是Linux自带的模块,一般情况下不需要另行安装,可以用 man tc 查看tc 相关命令细节,tc 要求内核 2.4.18 以上

view plain copy

##注意:64位机器上,先执行下面命令

ln -s /usr/lib64/tc /usr/lib/tc

TC原理介绍

Linux 操作系统中的流量控制器 TC(Traffic Control) 用于Linux内核的流量控制,它利用队列规定建立处理数据包的队列,并定义队列中的数据包被发送的方式,从而实现对流量的控制。TC 模块实现流量控制功能使用的队列规定分为两类,一类是无类队列规定,另一类是分类队列规定。无类队列规定相对简单,而分类队列规定则引出了分类和过滤器等概念,使其流量控制功能增强。

无类队列铅祥规定是对进入网络设备(网卡)的数据流不加区分统一对待的队列规定。使用无类队列规定形成的队列能够接收数据包以及重新编排、延迟或丢弃数据包。这类队列规定形成的队列可以对整个网络设备(网卡)的流量进行整形,但不能细分各种情况。常用的无类队列规定主要有 pfifo_fast(先进先出渗戚)、TBF(令牌桶过滤器)、SFQ(随机公平队列)、ID(前向随机丢包)等等。这类队列规定使用的流量整形手段主要是排序、限速和丢包。

流量控制 流量整形有什么区别

流量控制(笑洞游滑动窗口协议)是数据链路层为避免拥塞而采取的措施碰销,颤棚为了提高发送数据的吞吐率,又对流量进行了控制。

而流量整形是调节数据的平均速率和突发性;是网络层为了避免拥塞而采取的措施的;是由路由器来进行相应操作的。

没区别,叫法不一样罢了。都是基于linux的tc做的流控。

关于linux流量整形的介绍到此就结束了,不知道你从中找到你需要的信息了吗 ?如果你还想了解更多这方面的信息,记得收藏关注本站。


数据运维技术 » 如何在Linux中实现流量整形控制? (linux流量整形)