Linux Network Configuration with IFB: Enhancing Traffic Shaping Performance. (linuxifb)

Linux网络配置与IFB:增强流量整形性能

随着互联网的快速发展以及网络用户数量的爆发式增长,网络流量管理的重要性变得越来越突出。为了确保网络运维人员能够有效地管理网络流量,需要对网络流量进行整形以确保资源分配的公平性和优先级的确定性。但是,传统的流量整形技术往往会影响网络的整体性能。Linux网络配置与IFB是一种新的解决方案,可以提供更加高效的网络流量整形性能。

什么是IFB?

IFB是一种Linux内核模块,是Ingress Filter Block(入口过滤块)的缩写。它可用于将出站网络流量中的入站数据包进行捕获和处理。基本上,IFB是一个出站网络接口的虚拟接口,而它的主要作用是允许网络管理员配置出站数据包的过滤和限制规则。

IFB的作用是什么?

网络流量整形是一种广泛使用的交通管理技术,它有助于确保每个流量类型都获得公正的网络资源。一般来说,网络管理员需要对网络流量进行分类和限制,以确保不同类型的流量得到平等的网络带宽和响应时间。

IFB允许管理员在出站网络流量上配置规则,从而更好地控制网络流量。它允许管理员将本应该被发送到出站网络接口的数据包发送到IFB虚拟接口,这些数据包可以在虚拟接口上进行处理。一旦数据包被处理,它们将返回到原始出站接口,但是已经按照管理员指定的规则重新排列。

如何使用IFB进行流量整形?

要使用IFB进行流量整形,网络管理员需要打开IFB功能,同时在出站网络接口上设置规则。以下是在Linux中使用IFB实现流量整形的步骤:

1. 加载IFB模块

管理员需要使用modprobe命令加载IFB模块。命令如下:

~~~

# modprobe ifb

~~~

2. 启动IFB虚拟接口

管理员需要在Linux中使用ip link命令来启动IFB虚拟接口。命令如下:

~~~

# ip link set dev ifb0 up

~~~

3. 配置tc规则

管理员需要使用tc命令为出站网络接口设置规则。命令如下:

~~~

# tc qdisc add dev eth0 ingress

# tc filter add dev eth0 parent ffff: protocol ip u32 match u32 0 0 flowid 1:1 action mirred egress redirect dev ifb0

# tc qdisc add dev ifb0 root handle 1:0 htb default 2

# tc class add dev ifb0 parent 1:0 classid 1:1 htb rate 2023kbit ceil 2023kbit burst 15k

# tc filter add dev ifb0 parent 1:0 protocol ip prio 1 u32 match ip dport 80 0xffff flowid 1:1

~~~

之一个命令创建了一个tc队列,以允许出站网络接口上的规则获取流量。第二个命令将匹配到的IP数据包重定向到IFB虚拟接口上。第三个命令创建了一个tc队列,以允许对IFB虚拟接口上的流量进行处理。第四个命令创建了一个htb队列,用于限制IFB虚拟接口上的出站流量。第五个命令向IFB虚拟接口的htb队列添加了一个过滤规则,以便在处理网络流量时识别目标端口为80的数据包。

与传统网络配置相比,IFB可以提供更加高效的流量整形性能。IFB使网络管理员能够更好地控制出站流量,并在进行流量整形时提供更多的灵活性和可扩展性。使用IFB,网络管理员可以更轻松地分类流量,并使流量得到公平的资源分配,从而提高整个网络的性能和可靠性。

结论

Linux网络配置与IFB可以提供更加高效的网络流量整形性能。它可以帮助网络管理员更好地控制出站流量,并在进行流量整形时提供更多的灵活性和可扩展性。如果你是一名网络管理员,那么你应该考虑在你的网络中使用IFB。使用IFB,你可以更轻松地分类流量,并使流量得到公平的资源分配,从而提高整个网络的性能和可靠性。

相关问题拓展阅读:

Linux上的物理网卡与虚拟网络设备

通过 ip link add 可以创建多种类型的虚拟网络设备,在 man ip link 中可以得知有以下类型的device:

Virtual Ethernet Port Aggregator。它是HP在虚拟化支持领域对抗Cisco的VN-Tag的技术。

解决了虚拟机之间网络通信的问题,特别是位于同一个宿主机内的虚拟机之间的网络通信问题。

VN-Tag在标准的协议头中增加了一个全新的字段,VEPA则是通过修改网卡驱动和交换机,通过发夹弯技术回注报文。

TUN是Linux系统里的虚拟网络设备,它的原理和使用在 Kernel Doc 和 Wiki 做了比较清楚的说明。

TUN设备模拟网络层设备(network layer),处理三层报文,IP报文等,用于将报文注入到网络协议栈。

应用程序(app)可以从物理网卡上读写报文,经过处理后通过TUN回送,或者从TUN读取报文处理后经物理网卡送出。

创建:

创建之后,使用 ip addr 就会看见一个名为”tun-default”的虚拟网卡

可以对tun-default设置IP:

使用open/write等文件操作函数从fd中进行读取操作,就是在收取报文,向fd中写入数据,就是在发送报文。

TAP是Linux系统里的虚拟网络设备,它的原理和使用在 Kernel Doc 和 Wiki 做了比较清楚的说明。

不同于TUN的是,TAP设备模拟链路层设备(link layer),处理二层报文,以太网帧等。

TAP设备的创建过程和TUN类似,在ioctl设置的时候,将类型设置为IFF_TAP即可。

TAP设备与TUN设备的区别在于:

有时我们可能需要一块物理网卡绑定多个 IP 以及多个 MAC 地址,虽然绑定多个 IP 很容易,但是这些 IP 会共享物理网卡的 MAC 地址,可能无法满足我们的设计需求,所以有了 MACVLAN 设备,其工作方式如下:

MACVLAN 会根据收到包的目的 MAC 地址判断这个包需要交给哪个虚拟网卡。单独使用 MACVLAN 好像毫无意义,但是配合之前介绍的 network namespace 使用,我们可以构建这样的网络:

采摘

创建一个基于eth0的名为macv1的macvlan网卡:

macvlan支持三种模式,bridge、vepa、private,在创建的时候设置“mode XXX”:

bridge模式,macvlan网卡和物理网卡直接可以互通,类似于接入到同一个bridge。

vepa模式下,两个macvlan网卡直接不能直接通信,必须通过外部的支持“发夹弯”交换机才能通信。

private模式下,macvlan发出的广播包(arp等)被丢弃,即使接入了支持“发夹弯”的交换机也不能发现其它macvlan网卡,除非手动设置mac。

MACVTAP 是对 MACVLAN的改进,把 MACVLAN 与 TAP 设备的特点综合一下,使用 MACVLAN 的方式收发数据包,但是收到的包不交给 network stack 处理,而是生成一个 /dev/tapX 文件,交给这个文件:

由于 MACVLAN 是工作在 MAC 层的,所以 MACVTAP 也只能工作在 MAC 层,不会有 MACVTUN 这样的设备。

ipvlan和macvlan的区别在于它在ip层进行流量分离而不是基于mac地址,同属于一块宿主以太网卡的所有ipvlan虚拟网卡的mac地址都是一样的。

veth设备是成对创建的:

创建之后,执行 ip link 就可以看到新创建的veth设备:

注意veth设备前面的ID, 58: 和 59: ,一对veth设备的ID是相差1的,并且系统内全局唯一。可以通过ID找到一个veth设备的对端。

veth设备理解

关于Linux网卡带宽设置的问题

首先你得netem QDiscipline设置看起来没什么区别,limit太大,loss 0%和默认一样,剩下的delay 10ms都是指所有pakcat按照延迟10ms进行发送

至于你的TBF设置,用了TBF自身提供的两个途径

TBF叫做Token Bucket Filter.总体的思路就是数据包要领到Token(令牌)才能被发送,而令牌的产生速率收到rate这个参数的限制。Token是一个抽象的概念,Token的大小都是指的Token所指向的数据包的大小。

当要发送的速率低于令牌产生的速度时,所有的数据包都能领到Token,并且多余的Token会在你的Buffer里积累。积累的上限由Buffer/Burst这个参数指定。

当发送的速率等于Token产生的速度时,Token正好被完全消耗,所有雹颤的数据包都会发送,并且buffer不会积累多余的Token

当发送的速率大于Token的速率,如果Buffer里还有多余的Token,就会开始消耗Buffer的Token,同时允许数据包通过。如果buffer的Token耗尽,数据包就不被允许通过,并且进入Txqueue(发送队列)排队。如果排队的尺寸大于limit(你的之一个TBF有指定),则队列不能再增长,新到来的数据包会被drop。

明白上面的镇好概念之后你的两条命令的区别也就容易看懂了。

之一个是用的Buffer/Limit

Buffer就是瞬间可以额外提供的Token的数量。Rate限制了你的持续上传速率为1Mb/s,然后在你长时间网络流量很低时,你得Token会积累,最后你可以有Buffer这么大(1600b)的缓冲无视rate的限制(可以瞬间发送1600b,所以叫做突发)。至于后面的limit 3000,是指你当你的缓冲区(Txqueue)超过3000b时,新来的包会被Drop

第二个用的是御肆铅Burst/latency/rate组合

这里的burst和上面的buffer含义完全相同,都是能够以高于rate所限定的速度发送的数据量(4Mb,比之一个的大很多)。至于Latency,是对应limit的量。Latency规定的是数据包能在Txqueue中呆的最长的时间(你的是1S),在Txqueue中呆超过1s的包都会被Drop。所以结合你的rate来计算,latency 1s+rate 1Mbit/s 等价于 limit为1Mbit*1s=1Mb

*tc只能规整egress traffic,就是从NIC流出的流量(上传),对于下载,要用IFB将ingress(下载)模拟成egress

linuxifb的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于linuxifb,Linux Network Configuration with IFB: Enhancing Traffic Shaping Performance.,Linux上的物理网卡与虚拟网络设备,关于Linux网卡带宽设置的问题的信息别忘了在本站进行查找喔。


数据运维技术 » Linux Network Configuration with IFB: Enhancing Traffic Shaping Performance. (linuxifb)