Linux AIO DirectIO 技术简介 (linux aio directio)

在Linux中,文件I/O操作会消耗大量的CPU资源和内存,因此在高负载环境下,它可能会成为系统性能的瓶颈。为了优化系统性能,Linux O DirectIO技术应运而生。本文将对该技术进行简要介绍。

一、概述

Linux O DirectIO 技术原理是:在进行文件操作时,利用异步I/O(O)接口来代替直接的同步I/O操作方式,通过利用Linux内核中的Direct IO(DirectIO)接口,直接将数据从硬盘读取到应用程序的内存空间,从而避免了数据从内核空间到用户空间的拷贝,减少了CPU和内存的消耗,提高了系统磁盘I/O性能。

二、Direct IO

Direct IO是一种绕过文件系统缓存的数据读写方式,即直接将数据读取到应用程序的内存空间,或将应用程序中的数据直接写入硬盘中。与之相对的,非Direct IO的方式是将数据先读入文件系统缓存,再从缓存中读取,或将数据写入缓存中,再由缓存写入硬盘。

使用Direct IO的优点是:

1、减少了CPU和内存的占用。由于避免了数据缓存到内存中,因此减少了CPU和内存的使用。

2、提高了IO性能。由于数据直接从磁盘读取,而不是先缓存到内存中,IO性能得到了提升。

使用Direct IO的缺点是:

1、数据读写效率的不稳定。因为数据直接从磁盘读取,而磁盘的读写速度较慢,因此在一些情况下,使用Direct IO的读写效率会比非Direct IO的方式低。

2、不支持缓存。由于绕过了文件系统缓存,因此无法利用文件系统的缓存机制。在一些情况下,这可能会降低系统的整体性能。

三、Linux O

O是指操作系统提供的异步I/O接口,可以用来实现异步的文件读写操作。Linux中,O接口可以通过libo库调用。

O的优点是:

1、高效的I/O操作。 O在进行I/O操作时,会将I/O请求放入内核完成队列中,内核处理完I/O请求后再通知用户程序,从而实现异步的I/O操作,提高了系统I/O性能。

2、多线程并行。 O允许多个I/O请求同时发起,从而实现系统I/O多线程并行操作,提高了整体系统的处理性能。

四、Linux O DirectIO 技术

Linux O DirectIO 技术结合了O和Direct IO技术,将数据直接从磁盘读取到应用程序中,避免了数据从内核空间到用户空间的拷贝,减少了CPU和内存的占用,提高了系统磁盘I/O性能。但是,使用该技术需要注意一些问题:

1、文件对齐。 Direct IO要求读写的数据大小必须是磁盘I/O块大小的整数倍,否则会导致读写性能下降。

2、内存对齐。 Direct IO要求读写内存的地址必须是内存I/O块大小的整数倍,否则会导致读写性能下降。

3、数据量控制。 Direct IO要求一次读写的数据量不能大于系统可用内存的一半,否则会导致系统性能下降。

五、

Linux O DirectIO技术通过利用异步I/O接口和直接IO接口,实现了数据直接从磁盘读取到应用程序中,避免了CPU和内存的浪费,提高了系统磁盘IO性能。但是,使用该技术需要注意一些限制条件,避免出现性能问题。

相关问题拓展阅读:

linux python connect 对同一个端口可以建立多少个

如果是tcp client用同一个本地端口去连不同的两个服务器ip,连第二个时就会提示端口已被占用。但服务器的监听端口,可以accept多次,建立多个socket;我的问题是服务器一个端口为什么能建立多个连接而客户端却不行呢?

TCP server 可以,TCP client 也可以。一个套接字只能建立一个连接,无论对于 server 还是 client。

注意报错消息是:

(EISCONN) Transport endpoint is already connected

man 2 connect 说得很清楚了:

Generally, connection-based protocol sockets may successfully connect() only once; connectionless protocol sockets may use connect() multiple times to change their association.

就是说,TCP 套接字最多只能调用 connect 一次。那么,你的监听套接字调用 connect 了几次?

来点有意思的。

一个套接字不能连接两次,并不代表一个本地地址不能用两次,看!****加粗文字**加粗文字**

>>> import socket

>>> s = socket.socket()

# since Linux 3.9, 见 man 7 socket

>>> s.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEPORT, 1)

>>> s2 = socket.socket()

>>> s2.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEPORT, 1)

>>> s.bind((‘127.0.0.1’, 12345))

>>> s2.bind((‘127.0.0.1’, 12345))

# 都可以使用同一本地地址来连接哦

>>> s.connect((‘127.0.0.1’, 80))

>>> s2.connect((‘127.0.0.1’, 4321))

>>> netstat -npt | grep 12345

(Not all processes could be identified, non-owned process info

will not be shown, you would have to be root to see it all.)

tcp 0 127.0.0.1:127.0.0.1:ESTABLISHED 18284/python3

tcp 0 127.0.0.1:127.0.0.1:ESTABLISHED 4568/python3

tcp 0 127.0.0.1:127.0.0.1:ESTABLISHED –

tcp 0 127.0.0.1:127.0.0.1:ESTABLISHED 4568/python3

你们这些有女友的都弱爆了啦 🙁

更新:大家来玩 TCP: 一个人也可以建立 TCP 连接呢 – 依云’s Blog

2023年08月19日回答 · 2023年08月19日更新

依云21.1k 声望

答案对人有帮助,有参考价值1答案没帮助,是错误的答案,答非所问

内核是以一个(著名的)5元信息组来标识不同的socket的:源地址、源端口、目的地址、目的端口、协议号。任何一个不同,都不叫“同一个socket”。

2023年08月20日回答

sched_yield80 声望

答案对人有帮助,有参考价值0答案没帮助,是错误的答案,答非所问

首先,TCP链接是可靠的端对端的链接,每个TCP链接由4个要素组成:2组IP地址(本地和远端),2组端口地址(本地和远端)。其中如果需要跟端口信息绑定时,都需要调用bind函数,如果server端针对2个同样的IP、端口组进行同样的绑定时,第2次同样是不成功的。

2023年08月16日回答

charliecui2.4k 声望

答案对人有帮助,有参考价值0答案没帮助,是错误的答案,答非所问

有个相关的问题: ftp的数据传输,服务器会用20端口主动连接客户端,如果两个客户端同时在一下载东西,那ftp 服务器能用20端口去连接两个ip ?(这时ftp的服务器其实是tcp里的客户端)

2023年08月16日回答

编辑

hyanleo163 声望

+1

能啊,看我的实验。

依云 · 2023年08月19日

不管是服务器还是客户端,建立TCP链接,同一个端口都只能使用一次。

这句话其实是**错的**!

对于TCP协议,要成功建立一个新的链接,需要保证新链接四个要素组合体的唯一性:客户端的IP、客户端的port、服务器端的IP、服务器端的port。也就是说,服务器端的同一个IP和port,可以和同一个客户端的多个不同端口成功建立多个TCP链接(与多个不同的客户端当然也可以),只要保证【Server IP + Server Port + Client IP + Client Port】这个组合唯一不重复即可。

> netstat -a -n -p tcp |grep 9999

tcp.0.0.1:.0.0.1:9999 ESTABLISHED 2701/nc

tcp.0.0.1:.0.0.1:9999 ESTABLISHED 2752/nc

上述结果127.0.0.1:9999中9999端口成功建立两个TCP链接,也就可以理解。

**客户端**发送TCP链接请求的端口,也就是后续建立TCP链接使用的端口,所以一旦TCP链接建立,端口就被占用,无法再建立第二个链接。

而**服务器端**有两类端口:侦听端口 和 后续建立TCP链接的端口。其中侦听端口只负责侦听客户端发送来的TCP链接请求,不用作建立TCP链接使用,一旦侦听到有客户端发送TCP链接请求,就分配一个端口(一般随机分配,且不会重复)用于建立TCP链接,而不是所说的服务器一个端口能建立多个连接。

上述描述也比较片面,客户端如何请求及建立链接,服务器端如何侦听及是否分配新随机端口等…应该都可以在应用层面进行控制,所以上述描述可以作为建立TCP链接的一种方式,仅供参考。

一些英文的参考:

How do multiple clients connect simultaneously to one port, say 80, on a server?

TCP : two different sockets sharing a port?

提升linux下tcp服务器并发连接数限制:30:23

1、修改用户进程可打开文件数限制

在Linux平台上,无论编写客户端程序还是服务端程序,在进行高并发TCP连接处理时,更高的并发数量都要受到系统对用户单一进程同时可打开文件数量的限制(这是因为系统为每个TCP连接都要创建一个socket句柄,每个socket句柄同时也是一个文件句柄)。可使用ulimit命令查看系统允许当前用户进程打开的文件数限制:

$ ulimit -n

这表示当前用户的每个进程最多允许同时打开1024个文件,这1024个文件中还得除去每个进程必然打开的标准输入,标准输出,标准错误,服务器监听 socket,进程间通讯的unix域socket等文件,那么剩下的可用于客户端socket连接的文件数就只有大概=1014个左右。也就是说缺省情况下,基于Linux的通讯程序最多允许同时1014个TCP并发连接。

对于想支持更高数量的TCP并发连接的通讯处理程序,就必须修改Linux对当前用户的进程同时打开的文件数量的软限制(soft limit)和硬限制(hardlimit)。其中软限制是指Linux在当前系统能够承受的范围内进一步限制用户同时打开的文件数;硬限制则是根据系统硬件资源状况(主要是系统内存)计算出来的系统最多可同时打开的文件数量。通常软限制小于或等于硬限制。

修改上述限制的最简单的办法就是使用ulimit命令:

$ ulimit -n

上述命令中,在中指定要设置的单一进程允许打开的更大文件数。如果系统回显类似于“Operation notpermitted”之类的话,说明上述限制修改失败,实际上是因为在中指定的数值超过了Linux系统对该用户打开文件数的软限制或硬限制。因此,就需要修改Linux系统对用户的关于打开文件数的软限制和硬限制。

之一步,修改/etc/security/limits.conf文件,在文件中添加如下行:

speng soft nofile 10240

speng hard nofile 10240

其中speng指定了要修改哪个用户的打开文件数限制,可用’*’号表示修改所有用户的限制;soft或hard指定要修改软限制还是硬限制;10240则指定了想要修改的新的限制值,即更大打开文件数(请注意软限制值要小于或等于硬限制)。修改完后保存文件。

第二步,修改/etc/pam.d/login文件,在文件中添加如下行:

session required /lib/security/pam_limits.so

这是告诉Linux在用户完成系统登录后,应该调用pam_limits.so模块来设置系统对该用户可使用的各种资源数量的更大限制(包括用户可打开的更大文件数限制),而pam_limits.so模块就会从/etc/security/limits.conf文件中读取配置来设置这些限制值。修改完后保存此文件。

第三步,查看Linux系统级的更大打开文件数限制,使用如下命令:

$ cat /proc/sys/fs/file-max

这表明这台Linux系统最多允许同时打开(即包含所有用户打开文件数总和)12158个文件,是Linux系统级硬限制,所有用户级的打开文件数限制都不应超过这个数值。通常这个系统级硬限制是Linux系统在启动时根据系统硬件资源状况计算出来的更佳的更大同时打开文件数限制,如果没有特殊需要,不应该修改此限制,除非想为用户级打开文件数限制设置超过此限制的值。修改此硬限制的方法是修改/etc/rc.local脚本,在脚本中添加如下行:

echo> /proc/sys/fs/file-max

这是让Linux在启动完成后强行将系统级打开文件数硬限制设置为22158。修改完后保存此文件。

完成上述步骤后重启系统,一般情况下就可以将Linux系统对指定用户的单一进程允许同时打开的更大文件数限制设为指定的数值。如果重启后用 ulimit- n命令查看用户可打开文件数限制仍然低于上述步骤中设置的更大值,这可能是因为在用户登录脚本/etc/profile中使用ulimit-n命令已经将用户可同时打开的文件数做了限制。由于通过ulimit-n修改系统对用户可同时打开文件的更大数限制时,新修改的值只能小于或等于上次ulimit-n 设置的值,因此想用此命令增大这个限制值是不可能的。所以,如果有上述问题存在,就只能去打开/etc/profile脚本文件,在文件中查找是否使用了 ulimit-n限制了用户可同时打开的更大文件数量,如果找到,则删除这行命令,或者将其设置的值改为合适的值,然后保存文件,用户退出并重新登录系统即可。

通过上述步骤,就为支持高并发TCP连接处理的通讯处理程序解除关于打开文件数量方面的系统限制。

2、修改网络内核对TCP连接的有关限制

在Linux上编写支持高并发TCP连接的客户端通讯处理程序时,有时会发现尽管已经解除了系统对用户同时打开文件数的限制,但仍会出现并发TCP连接数增加到一定数量时,再也无法成功建立新的TCP连接的现象。出现这种现在的原因有多种。

之一种原因可能是因为Linux网络内核对本地端口号范围有限制。此时,进一步分析为什么无法建立TCP连接,会发现问题出在connect()调用返回失败,查看系统错误提示消息是“Can’t assign requestedaddress”。同时,如果在此时用tcpdump工具监视网络,会发现根本没有TCP连接时客户端发SYN包的网络流量。这些情况说明问题在于本地Linux系统内核中有限制。其实,问题的根本原因在于Linux内核的TCP/IP协议实现模块对系统中所有的客户端TCP连接对应的本地端口号的范围进行了限制(例如,内核限制本地端口号的范围为1024~32768之间)。当系统中某一时刻同时存在太多的TCP客户端连接时,由于每个TCP客户端连接都要占用一个唯一的本地端口号(此端口号在系统的本地端口号范围限制中),如果现有的TCP客户端连接已将所有的本地端口号占满,则此时就无法为新的TCP客户端连接分配一个本地端口号了,因此系统会在这种情况下在connect()调用中返回失败,并将错误提示消息设为“Can’t assignrequested address”。有关这些控制逻辑可以查看Linux内核源代码,以linux2.6内核为例,可以查看tcp_ipv4.c文件中如下函数:

static int tcp_v4_hash_connect(struct sock *sk)

请注意上述函数中对变量sysctl_local_port_range的访问控制。变量sysctl_local_port_range的初始化则是在tcp.c文件中的如下函数中设置:

void __init tcp_init(void)

内核编译时默认设置的本地端口号范围可能太小,因此需要修改此本地端口范围限制。

之一步,修改/etc/sysctl.conf文件,在文件中添加如下行:

net.ipv4.ip_local_port_range =

这表明将系统对本地端口范围限制设置为1024~65000之间。请注意,本地端口范围的最小值必须大于或等于1024;而端口范围的更大值则应小于或等于65535。修改完后保存此文件。

第二步,执行sysctl命令:

$ sysctl -p

如果系统没有错误提示,就表明新的本地端口范围设置成功。如果按上述端口范围进行设置,则理论上单独一个进程最多可以同时建立60000多个TCP客户端连接。

第二种无法建立TCP连接的原因可能是因为Linux网络内核的IP_TABLE防火墙对更大跟踪的TCP连接数有限制。此时程序会表现为在 connect()调用中阻塞,如同死机,如果用tcpdump工具监视网络,也会发现根本没有TCP连接时客户端发SYN包的网络流量。由于 IP_TABLE防火墙在内核中会对每个TCP连接的状态进行跟踪,跟踪信息将会放在位于内核内存中的conntrackdatabase中,这个数据库的大小有限,当系统中存在过多的TCP连接时,数据库容量不足,IP_TABLE无法为新的TCP连接建立跟踪信息,于是表现为在connect()调用中阻塞。此时就必须修改内核对更大跟踪的TCP连接数的限制,方法同修改内核对本地端口号范围的限制是类似的:

之一步,修改/etc/sysctl.conf文件,在文件中添加如下行:

net.ipv4.ip_conntrack_max = 10240

这表明将系统对更大跟踪的TCP连接数限制设置为10240。请注意,此限制值要尽量小,以节省对内核内存的占用。

第二步,执行sysctl命令:

$ sysctl -p

如果系统没有错误提示,就表明系统对新的更大跟踪的TCP连接数限制修改成功。如果按上述参数进行设置,则理论上单独一个进程最多可以同时建立10000多个TCP客户端连接。

3、使用支持高并发网络I/O的编程技术

在Linux上编写高并发TCP连接应用程序时,必须使用合适的网络I/O技术和I/O事件分派机制。

可用的I/O技术有同步I/O,非阻塞式同步I/O(也称反应式I/O),以及异步I/O。在高TCP并发的情形下,如果使用同步I/O,这会严重阻塞程序的运转,除非为每个TCP连接的I/O创建一个线程。但是,过多的线程又会因系统对线程的调度造成巨大开销。因此,在高TCP并发的情形下使用同步I /O 是不可取的,这时可以考虑使用非阻塞式同步I/O或异步I/O。非阻塞式同步I/O的技术包括使用select(),poll(),epoll等机制。异步I/O的技术就是使用AIO。

从I/O事件分派机制来看,使用select()是不合适的,因为它所支持的并发连接数有限(通常在1024个以内)。如果考虑性能,poll()也是不合适的,尽管它可以支持的较高的TCP并发数,但是由于其采用“轮询”机制,当并发数较高时,其运行效率相当低,并可能存在I/O事件分派不均,导致部分 TCP连接上的I/O出现“饥饿”现象。而如果使用epoll或AIO,则没有上述问题(早期 Linux内核的AIO技术实现是通过在内核中为每个I/O请求创建一个线程来实现的,这种实现机制在高并发TCP连接的情形下使用其实也有严重的性能问题。但在最新的Linux内核中,AIO的实现已经得到改进)。

linux的相关问题

1 test -d

文件测试

test命令也可以用于检查文件的状态

e 文件存在则为真

r 文件存在并且可读则为真

w 文件存在并且可写则为真

x 文件存在并且可执行则为真

s 文件存在并且至少有一个字符则为真

d 文件存在并且为目录则为真

f 文件存在并且为普通文件则为真

c 文件存在并且为字符型文件则为真

b 文件存在并且为块特殊文件则为真

a并且 -o或者 !非

2 能为myfile1更新时间的命令____touch

3 linux中的归档解档命令____tar

4 编译是优先级的取值范围是:______,默认的优先级是____

中进程的优先极是由进程的nice值决定的,值越小,优先级越高

5 linux中标准设备文件有哪些.分别用什么符号表示.

主设备号设备类型

次设备号=文件名简要说明

0 未命名设备(例如:挂载的非设备)

0 = 未空设备号保留

1 char 内存设备

1 = /dev/mem 直接存取物理内存

2 = /dev/kmem 存取经过内核虚拟之后的内存

3 = /dev/null 空设备。任何写入都将被直接丢弃,任何读取都将得到EOF。

4 = /dev/port 存取 I/O 端口

5 = /dev/zero 零字节源,只能读取到无限多的零字节。

7 = /dev/full 满设备。任何写入都将失败,并把errno设为ENOSPC以表示没有剩余空间。

8 = /dev/random 随机数发生器。完全由用户的输入来产生随机数。

如果用户停止所有动作,则停止产生新的随机数。

9 = /dev/urandom 更快,但是不够安全的随机数发生器。尽可能由用户的输入来产生随机数,

如果用户停止所有动作,则把已经产生的随机数做为种子来产生新的随机数。

10 = /dev/aio 异步 I/O 通知接口

11 = /dev/kmsg 任何对该文件的写入都将作为 printk 的输出

1 block RAM disk

0 = /dev/ram0 第1个 RAM disk (initrd只能使用ram0)

1 = /dev/ram1 第2个 RAM disk

200 = /dev/ram200 第200个 RAM disk

4 char TTY(终端)设备

0 = /dev/tty0 当前虚拟控制台

1 = /dev/tty1 第1个虚拟控制台

63 = /dev/tty63 第63个虚拟控制台

4 block 如果根文件系统以是以只读方式挂载的,那么就不可能创建真正的设备节点,

此时就使用该设备作为动态分配的主(major)设备的别名

0 = /dev/root

5 char 其他 TTY 设备

0 = /dev/tty 当前 TTY 设备

1 = /dev/console 系统控制台

2 = /dev/ptmx 所有 PTY master 的复用器

7 char 虚拟控制台捕捉设备(这些设备既允许读也允许写)

0 = /dev/vcs 当前虚拟控制台(vc)的文本内容

1 = /dev/vcs1 tty1 的文本内容

63 = /dev/vcs63 tty63 的文本内容

128 = /dev/vcsa 当前虚拟控制台(vc)的文本/属性内容

129 = /dev/vcsa1 tty1 的文本/属性内容

191 = /dev/vcsa63 tty63 的文本/属性内容代码:

7 block 回环设备(用一个普通的磁盘文件来模拟一个块设备)

对回环设备的绑定由 mount(8) 或 losetup(8) 处理

0 = /dev/loop0 第1个回环设备

1 = /dev/loop1 第2个回环设备

8 block SCSI 磁盘(0-15)

0 = /dev/sda 第1个 SCSI 磁盘(整个磁盘)

16 = /dev/sdb 第2个 SCSI 磁盘(整个磁盘)

32 = /dev/sdc 第3个 SCSI 磁盘(整个磁盘)

240 = /dev/sdp 第16个 SCSI 磁盘(整个磁盘)

分区表示方法如下(以第3个 SCSI 磁盘为例)

33 = /dev/sdc1 第1个分区

34 = /dev/sdc2 第2个分区

47 = /dev/sdc15 第15个分区

对于Linux/i386来说,分区1-4是主分区,5-15是逻辑分区。

9 block Metadisk(RAID)设备

0 = /dev/md0 第1组 metadisk

1 = /dev/md1 第2组 metadisk

metadisk 驱动用于将同一个文件系统分割到多个物理磁盘上。

10 char 非串口鼠标,各种杂项设备和特性

1 = /dev/psaux PS/2鼠标

131 = /dev/temperature 机器内部温度

134 = /dev/apm_bios APM(高级电源管理) BIOS

135 = /dev/rtc 实时时钟(Real Time Clock)

144 = /dev/nvram 非易失配置 RAM

162 = /dev/bus 系统管理总线(System Management Bus)

164 = /dev/ipmo Intel的智能平台管理(Intelligent Platform Management)接口

173 = /dev/ipmikcs 智能平台管理(Intelligent Platform Management)接口

175 = /dev/agpgart AGP图形地址重映射表(Graphics Address Remapping Table)

182 = /dev/perfctr 性能监视计数器

183 = /dev/hwrng 通用硬件随机数发生器

184 = /dev/cpu/microcode CPU微代码更新接口

186 = /dev/atomicps 进程状态数据的原子快照

188 = /dev/buios Bus(系统管理总线) BIOS

200 = /dev/net/tun TAP/TUN 网络设备(TAP/TUN以软件的方式实现了网络设备)

TAP模拟了以太网帧(第二层),TUN模拟了IP包(第三层)。

202 = /dev/emd/ctl 增强型 Metadisk RAID (EMD) 控制器

220 = /dev/mptctl Message passing technology (MPT) control

223 = /dev/input/uinput 用户层输入设备驱动支持

227 = /dev/mcelog X86_64 Machine Check Exception driver

228 = /dev/hpet HPET driver

229 = /dev/fuse Fuse(用户空间的虚拟文件系统)

231 = /dev/snapshot 系统内存快照

232 = /dev/kvm 基于内核的虚构机(基于AMD SVM和Intel VT硬件虚拟技术)

11 block SCSI CD-ROM 设备

0 = /dev/scd0 第1个 SCSI CD-ROM

1 = /dev/scd1 第2个 SCSI CD-ROM

…代码:

13 char 核心输入设备

32 = /dev/input/mouse0 第1个鼠标

33 = /dev/input/mouse1 第2个鼠标

62 = /dev/input/mouse30 第31个鼠标

63 = /dev/input/mice 所有鼠标的统一

64 = /dev/input/event0 第1个事件队列

65 = /dev/input/event1 第2个事件队列

95 = /dev/input/event1 第32个事件队列

21 char 通用 SCSI 设备(通常是SCSI光驱)

0 = /dev/sg0 第1个通用 SCSI 设备

1 = /dev/sg1 第2个通用 SCSI 设备

29 char 通用帧缓冲(frame buffer)设备

0 = /dev/fb0 第1个帧缓冲设备

1 = /dev/fb1 第2个帧缓冲设备

31 = /dev/fb31 第32个帧缓冲设备

30 char iBCS-2 兼容设备

0 = /dev/socksys 套接字访问接口

1 = /dev/spx SVR3 本地 X 接口

32 = /dev/inet/ip 网络访问接口

33 = /dev/inet/icmp

34 = /dev/inet/ggp

35 = /dev/inet/ipip

36 = /dev/inet/tcp

37 = /dev/inet/egp

38 = /dev/inet/pup

39 = /dev/inet/udp

40 = /dev/inet/idp

41 = /dev/inet/rawip

此外,iBCS-2 还需要下面的连接必须存在

/dev/ip -> /dev/inet/ip

/dev/icmp -> /dev/inet/icmp

/dev/ggp -> /dev/inet/ggp

/dev/ipip -> /dev/inet/ipip

/dev/tcp -> /dev/inet/tcp

/dev/egp -> /dev/inet/egp

/dev/pup -> /dev/inet/pup

/dev/udp -> /dev/inet/udp

/dev/idp -> /dev/inet/idp

/dev/rawip -> /dev/inet/rawip

/dev/inet/arp -> /dev/inet/udp

/dev/inet/rip -> /dev/inet/udp

/dev/nfsd -> /dev/socksys

/dev/X0R -> /dev/null代码:

36 char Netlink 支持

0 = /dev/route 路由, 设备更新, kernel to user

3 = /dev/fwmonitor Firewall packet 复制

59 char sf 防火墙模块

0 = /dev/firewall 与 sf 内核模块通信

65 block SCSI 磁盘(16-31)

0 = /dev/sdq 第17个 SCSI 磁盘(整个磁盘)

16 = /dev/sdr 第18个 SCSI 磁盘(整个磁盘)

32 = /dev/sds 第19个 SCSI 磁盘(整个磁盘)

240 = /dev/sdaf 第32个 SCSI 磁盘(整个磁盘)

66 block SCSI 磁盘(32-47)

0 = /dev/sdag 第33个 SCSI 磁盘(整个磁盘)

16 = /dev/sdah 第34个 SCSI 磁盘(整个磁盘)

32 = /dev/sdai 第35个 SCSI 磁盘(整个磁盘)

240 = /dev/sdav 第48个 SCSI 磁盘(整个磁盘)

89 char I2C 总线接口

0 = /dev/i2c-0 第1个 I2C 适配器

1 = /dev/i2c-1 第2个 I2C 适配器

98 block 用户模式下的虚拟块设备(分区处理方式与 SCSI 磁盘相同)

0 = /dev/ubda 第1个用户模式块设备

16 = /dev/udbb 第2个用户模式块设备

103 block 审计(Audit)设备

0 = /dev/audit 审计(Audit)设备

char Unix98 PTY master

这些设备不应当存在设备节点,而应当通过 /dev/ptmx 接口访问。

char Unix98 PTY slave

这些设备节点是自动生成的(伴有适当的权限和模式),不能手动创建。

方法是通过使用适当的 mount 选项(通常是:mode=0620,gid=)

将 devpts 文件系统挂载到 /dev/pts 目录即可。

0 = /dev/pts/0 第1个 Unix98 PTY slave

1 = /dev/pts/1 第2个 Unix98 PTY slave

…代码:

153 block Enhanced Metadisk RAID (EMD) 存储单元(分区处理方式与 SCSI 磁盘相同)

0 = /dev/emd/0 第1个存储单元

1 = /dev/emd/0p1 第1个存储单元的第1个分区

2 = /dev/emd/0p2 第1个存储单元的第2个分区

15 = /dev/emd/0p15 第1个存储单元的第15个分区

16 = /dev/emd/1 第2个存储单元

32 = /dev/emd/2 第3个存储单元

240 = /dev/emd/15 第16个存储单元

180 char USB 字符设备

96 = /dev/u/hiddev0 第1个USB人机界面设备(鼠标/键盘/游戏杆/手写版等人操作计算机的设备)

111 = /dev/u/hiddev15 第16个USB人机界面设备

180 block USB 块设备(U盘之类)

0 = /dev/uba 第1个USB 块设备

8 = /dev/ubb 第2个USB 块设备

16 = /dev/ubc 第3个USB 块设备

192 char 内核 profiling 接口

0 = /dev/profile Profiling 控制设备

1 = /dev/profile0 CPU 0 的 Profiling 设备

2 = /dev/profile1 CPU 1 的 Profiling 设备

193 char 内核事件跟踪接口

0 = /dev/trace 跟踪控制设备

1 = /dev/trace0 CPU 0 的跟踪设备

2 = /dev/trace1 CPU 1 的跟踪设备

195 char Nvidia 图形设备(比如显卡)

0 = /dev/nvidia0 第1个 Nvidia 卡

1 = /dev/nvidia1 第2个 Nvidia 卡

255 = /dev/nvidiactl Nvidia 卡控制设备

202 char 特定于CPU模式的寄存器(model-specific register,MSR)

0 = /dev/cpu/0/msr CPU 0 的 MSRs

1 = /dev/cpu/1/msr CPU 1 的 MSRs

203 char CPU CPUID 信息

0 = /dev/cpu/0/cpuid CPU 0 的 CPUID

1 = /dev/cpu/1/cpuid CPU 1 的 CPUID

…代码:

===================================================================

这部分详细说明一些应该或可能存在于 /dev 目录之外的文件。

链接更好使用与这里完全相同的格式(绝对路径或相对路径)。

究竟是使用硬链接(hard)还是软连接(symbolic)取决于不同的设备。

必须的链接

必须在所有的系统上都存在这些连接:

链接 目标 链接类型 简要说明

/dev/fd /proc/self/fd symbolic 文件描述府

/dev/stdin fd/0 symbolic 标准输入文件描述府

/dev/stdout fd/1 symbolic 标准输出文件描述符

/dev/stderr fd/2 symbolic 标准错误文件描述符

/dev/nfsd socksys symbolic 仅为 iBCS-2 所必须

/dev/X0R null symbolic 仅为 iBCS-2 所必须

/dev/X0R 是 —

推荐的链接

推荐在所有的系统上都存在这些连接:

链接 目标 链接类型 简要说明

/dev/core /proc/kcore symbolic 为了向后兼容

/dev/ramdisk ram0 symbolic 为了向后兼容

/dev/ftape qft0 symbolic 为了向后兼容

/dev/bttv0 video0 symbolic 为了向后兼容

/dev/radio radio0 symbolic 为了向后兼容

/dev/i2o* /dev/i2o/* symbolic 为了向后兼容

/dev/scd? sr? hard 代替 SCSI CD-ROM 的名字

本地定义的链接

下面的链接很可能需要根据机器的实际硬件配置创建其中的一部分甚至全部。

这些链接仅仅是为了迎合习惯用法,它们既非必须也非推荐。

链接 目标 链接类型 简要说明

/dev/mouse mouse port symbolic 当前鼠标

/dev/tape tape device symbolic 当前磁带

/dev/cdrom CD-ROM device symbolic 当前CD-ROM

/dev/cdwriter CD-writer symbolic 当前CD-writer

/dev/scanner scanner symbolic 当前扫描仪

/dev/modem modem port symbolic 当前调制解调器

/dev/root root device symbolic 当前根文件系统所在设备

/dev/swap swap device symbolic 当前swap所在设备

/dev/modem 不应当用于能够同时支持呼入和呼出的modem,因为往往会导致锁文件问题。

如果存在 /dev/modem ,那么它应当指向一个恰当的主 TTY 设备。

对于SCSI设备,

/dev/tape 和 /dev/cdrom 应该分别指向”cooked”设备 /dev/st* 和 /dev/sr* ;

而 /dev/cdwriter 和 /dev/scanner 应当分别指向恰当的 /dev/sg* 。

/dev/mouse 可以指向一个主串行 TTY 设备、一个硬件鼠标、

或者一个对应鼠标驱动程序的套接字(例如 /dev/gpmdata)。

套接字和管道

持久套接字和命名管道可以存在于 /dev 中。常见的有:

/dev/printer socket lpd 本地套接字

/dev/log socket syslog 本地套接字

/dev/gpmdata socket gpm 鼠标多路复用器(multiplexer)

/dev/gpmctl socket (LFS-LiveCD中出现)

/dev/initctl fifo pipe init 监听它并从中获取信息(用户与 init 进程交互的通道)

挂载点

以下名称被保留用于挂载特殊的文件系统。

这些特殊的文件系统只提供内核界面而不提供标准的设备节点。

/dev/pts devpts PTY slave 文件系统

/dev/shm tmpfs 提供对 POSIX 共享内存的直接访问

linux aio directio的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于linux aio directio,Linux AIO DirectIO 技术简介,linux python connect 对同一个端口可以建立多少个,linux的相关问题的信息别忘了在本站进行查找喔。


数据运维技术 » Linux AIO DirectIO 技术简介 (linux aio directio)