利用管道在Linux中读取数据,高效简便的方法 (linux从管道中读取数据)

在Linux系统中,管道是一种非常实用的工具,可以使不同进程之间相互通信和传递数据。通过使用管道,可以在不破坏原有程序结构的情况下,轻松地实现数据的传输和处理。本文将介绍如何利用管道在Linux中读取数据,并详细讲解其高效简便的方法。

一、什么是管道?

在Linux系统中,管道是一个特殊的文件,可以实现进程之间的数据传输。管道的本质是一种文件缓冲区,其大小一般为4KB。在使用管道时,数据会被传递到缓冲区中,并从另一端读取。管道的使用方式有两种:匿名管道和命名管道。

匿名管道是最常用的一种管道,它是由操作系统自动创建的,无需指定名称,只能实现单向通信,且只能在父子进程或兄弟进程之间使用。命名管道是一种具有名称的管道,需要使用mkfifo命令创建,可以实现多种进程之间的双向通信。在本文中,我们将重点介绍匿名管道的使用。

二、使用管道读取数据的方法

在Linux系统中,使用管道读取数据可以分为两个步骤:创建管道,读取数据。

创建匿名管道需要使用pipe函数。其函数原型如下:

“`c

#include

int pipe(int pipefd[2]);

“`

其中,pipefd表示管道的文件描述符,是一个长度为2的一维数组,其中pipefd[0]表示读管道,pipefd[1]表示写管道。在执行pipe函数时,操作系统会自动分配读写管道。

接下来,通过fork函数创建子进程,并使用dup2函数将父进程的标准输出重定向至写管道,子进程的标准输入重定向至读管道。这样,父进程就可以将数据写入标准输出,而子进程可以从标准输入中读取数据,实现数据的传输。

以下是一个使用管道读取数据的示例代码:

“`c

#include

#include

#include

#include

int mn()

{

int pipefd[2];

pid_t pid;

char buf[1024];

if (pipe(pipefd) == -1) {

perror(“pipe”);

exit(EXIT_FLURE);

}

pid = fork();

if (pid == -1) {

perror(“fork”);

exit(EXIT_FLURE);

} else if (pid == 0) { // 子进程

close(pipefd[1]); // 关闭写管道

// 从标准输入读取数据

if (read(pipefd[0], buf, 1024) == -1) {

perror(“read”);

exit(EXIT_FLURE);

}

printf(“child process received: %s\n”, buf);

close(pipefd[0]);

_exit(EXIT_SUCCESS);

} else { // 父进程

close(pipefd[0]); // 关闭读管道

// 将数据写入标准输出

if (write(pipefd[1], “hello world”, 12) == -1) {

perror(“write”);

exit(EXIT_FLURE);

}

close(pipefd[1]);

wt(NULL);

exit(EXIT_SUCCESS);

}

return 0;

}

“`

在该示例代码中,首先创建了一个长度为2的一维数组pipefd,用于存放管道的文件描述符,然后使用pipe函数创建管道。接着,使用fork函数创建子进程,在子进程中将读管道改为标准输入,并通过read函数从管道中读取数据。在父进程中,将写管道改为标准输出,并通过write函数将数据写入管道。在使用管道完成数据传输后,需要及时关闭管道以释放资源。

三、管道的高效简便使用方法

在实际开发中,为了简化代码和提高效率,可以采用一些高效简便的使用方法。

1.利用重定向实现管道的创建

在前面的示例代码中,我们使用pipe函数来创建管道。然而,通过重定向也可以实现同样的功能。例如,下面的命令就可以创建一个管道,将标准输出重定向至管道的写端:

“`shell

$ ls / | sort | less

“`

在上述命令中,ls命令将其标准输出重定向至管道的写端,sort命令从管道中读取数据进行排序,最后将排序结果通过less命令输出。

2.利用xargs命令实现管道数据的分割

在使用管道读取数据时,有时需要将管道的数据进行分割。在Linux中,可以使用xargs命令来实现这一功能。xargs命令将管道数据按照指定的分隔符进行分割,并调用另一个命令对每个分割数据进行处理。

例如,下面的命令可以将根目录下的文件名按照空格进行分割:

“`shell

$ ls -1 / | xargs -n1

“`

在上述命令中,-n1参数表示将每个文件名都当作一个参数传递给后面的命令。

3.利用tee命令实现管道数据的复制

在使用管道进行数据处理时,有时需要将管道的数据复制到多个命令中进行处理。在Linux中,可以使用tee命令来实现这一功能。tee命令可以将管道数据复制到指定的文件中,并同样输出到标准输出。

例如,下面的命令可以将根目录下的文件名按照空格进行分割,并将结果输出到文件和标准输出中:

“`shell

$ ls -1 / | tee output.txt

“`

在上述命令中,output.txt表示需要将数据输出的文件名。

结语

相关问题拓展阅读:

linux环境下,c语言怎么读取WEB服务器的80端口上页面的内容

已知url ,host, port;

int s, size;

struct sockaddr_in sin;

struct hostent* phe;

char cmd;

char msg_hdr;

char* p;

//准备http中GET 方法的请求。

sprintf(cmd,”GET %s\r\nHTTP/1.1\r\nHost:%s”, url, host);

//创建socket

if((s=socket(PF_INET,SOCK_STREAM,0))h_addr,sizeof(struct in_addr));

sin.sin_family=AF_INET;

sin.sin_port=htons(pms->port);

//跟远程机器建立连接,失败函数返回-1

if(connect(s,(struct sockaddr*)&sin,sizeof(sin))==-1)

return -1;

//发送GET请求

if(write(s,cmd,strlen(cmd))h_addr,sizeof(struct in_addr));

sin.sin_family=AF_INET;

sin.sin_port=htons(port);

//建立连接

if(connect(s,(struct sockaddr*)&sin,sizeof(sin))==-1)

return 0;

//发送读取请求

if(write(s,cmd,strlen(cmd))

error;

Handler消息机制(一):Linux的epoll机制

在linux 没有实现epoll事件驱动机制之前,我们一般选择用select或者poll等IO多路复用的方法来实现并发服务程序。在linux新的内核中,有了一种替换它的机制,就是epoll。

相比select模型,

poll使用链表保存文件描述符,因此没有了监视文件数量的限制

,但其稿闹他三个缺点依然存在。

假设我们的服务器需要支持100万的并发连接,则在__FD_SETSIZE 为1024的情况下兆敬答,则我们至少需要开辟1k个进程才能实现100万的并发连接。除了进程间上下文切换的时间消耗外,从内核/用户空间大量的无脑内存拷贝、数组轮询等,是系统难以承受的。因此,基于select模型的服务器程序,要达到10万级别的并发访问,是一个很难完成的任务。

由于epoll的实现机制与select/poll机制完全不同,上面所说的 select的缺点在epoll上不复存在。

设想一下如下场景:有100万个客户端同时与一个服务器进程保持着TCP连接。而每一时刻,通常只有几百上千个TCP连接是活跃的(事实上大部分场景都是这种情况)。如何实现这样的高并发?

在select/poll时代,服务器进程每次都把这100万个连接告诉操作系统(从用户态复制句柄数据结构到内核态),让操作系统内核去查询这些套接字上是否有事件发生,轮询完后,再将句柄数据复制到用户态,让服务器应用程序轮询处理已发生的网络事件,这一过程资源消耗较大,因此,select/poll一般只能处理几千的并发连接。

epoll的设计和实现与select完全不同。epoll通过在Linux内核中申请一个简易的文件系统(文件系统一般用什么数据结构实现?B+树)。把原先的select/poll调用分成了3个部分:

1)调用epoll_create()建立一个epoll对象(在epoll文件系统中为这个句柄对象分配资族慧源)

2)调用epoll_ctl向epoll对象中添加这100万个连接的套接字

3)调用epoll_wait收集发生的事件的连接

如此一来,要实现上面说是的场景,只需要在进程启动时建立一个epoll对象,然后在需要的时候向这个epoll对象中添加或者删除连接。同时,epoll_wait的效率也非常高,因为调用epoll_wait时,并没有一股脑的向操作系统复制这100万个连接的句柄数据,内核也不需要去遍历全部的连接。

当某一进程调用epoll_create方法时,Linux内核会创建一个eventpoll结构体,这个结构体中有两个成员与epoll的使用方式密切相关。eventpoll结构体如下所示:

每一个epoll对象都有一个独立的eventpoll结构体,用于存放通过epoll_ctl方法向epoll对象中添加进来的事件。这些事件都会挂载在红黑树中,如此,重复添加的事件就可以通过红黑树而高效的识别出来(红黑树的插入时间效率是lgn,其中n为树的高度)。

而所有

添加到epoll中的事件都会与设备(网卡)驱动程序建立回调关系,也就是说,当相应的事件发生时会调用这个回调方法

。这个回调方法在内核中叫ep_poll_callback,它会将发生的事件添加到rdlist双链表中。

在epoll中,对于每一个事件,都会建立一个epitem结构体,如下所示:

当调用epoll_wait检查是否有事件发生时,只需要检查eventpoll对象中的rdlist双链表中是否有epitem元素即可。如果rdlist不为空,则把发生的事件复制到用户态,同时将事件数量返回给用户。

epoll结构示意图

通过红黑树和双链表数据结构,并结合回调机制,造就了epoll的高效。

events可以是以下几个宏的:

EPOLLIN:触发该事件,表示对应的文件描述符上有可读数据。(包括对端SOCKET正常关闭);

EPOLLOUT:触发该事件,表示对应的文件描述符上可以写数据;

EPOLLPRI:表示对应的文件描述符有紧急的数据可读(这里应该表示有带外数据到来);

EPOLLERR:表示对应的文件描述符发生错误;

EPOLLHUP: 表示对应的文件描述符被挂断;

EPOLLET:将EPOLL设为边缘触发(EdgeTriggered)模式,这是相对于水平触发(Level Triggered)来说的。

EPOLLONESHOT: 只监听一次事件,当监听完这次事件之后,如果还需要继续监听这个socket的话,需要再次把这个socket加入到EPOLL队列里。

示例:

ET(EdgeTriggered)

:高速工作模式,只支持no_block(非阻塞模式)。在此模式下,当描述符从未就绪变为就绪时,内核通过epoll告知。然后它会假设用户知道文件描述符已经就绪,并且不会再为那个文件描述符发送更多的就绪通知,直到某些操作导致那个文件描述符不再为就绪状态了。(触发模式只在数据就绪时通知一次,若数据没有读完,下一次不会通知,直到有新的就绪数据)

LT(LevelTriggered)

:缺省工作方式,支持blocksocket和no_blocksocket。在LT模式下内核会告知一个文件描述符是否就绪了,然后可以对这个就绪的fd进行IO操作。如果不作任何操作,内核还是会继续通知!若数据没有读完,内核也会继续通知,直至设备数据为空为止!

1.我们已经把一个用来从管道中读取数据的文件句柄(RFD)添加到epoll描述符

\2. 这个时候从管道的另一端被写入了2KB的数据

\3. 调用epoll_wait(2),并且它会返回RFD,说明它已经准备好读取操作

\4. 然后我们读取了1KB的数据

\5. 调用epoll_wait(2)……

ET工作模式:

如果我们在第1步将RFD添加到epoll描述符的时候使用了EPOLLET标志,在第2步执行了一个写操作,第三步epoll_wait会返回同时通知的事件会销毁。因为第4步的读取操作没有读空文件输入缓冲区内的数据,因此我们在第5步调用epoll_wait(2)完成后,是否挂起是不确定的。epoll工作在ET模式的时候,必须使用非阻塞套接口,以避免由于一个文件句柄的阻塞读/阻塞写操作把处理多个文件描述符的任务饿死。

只有当read(2)或者write(2)返回EAGAIN时(认为读完)才需要挂起,等待。但这并不是说每次read()时都需要循环读,直到读到产生一个EAGAIN才认为此次事件处理完成,当read()返回的读到的数据长度小于请求的数据长度时(即小于sizeof(buf)),就可以确定此时缓冲中已没有数据了,也就可以认为此事读事件已处理完成。

LT工作模式:

LT方式调用epoll接口的时候,它就相当于一个速度比较快的poll(2),并且无论后面的数据是否被使用,因此他们具有同样的职能。

当调用 epoll_wait检查是否有发生事件的连接时,只是检查 eventpoll对象中的 rdllist双向链表是否有 epitem元素而已,如果 rdllist链表不为空,则把这里的事件复制到用户态内存中,同时将事件数量返回给用户。因此,epoll_wait的效率非常高。epoll_ctl在向 epoll对象中添加、修改、删除事件时,从 rbr红黑树中查找事件也非常快,也就是说,epoll是非常高效的,它可以轻易地处理百万级别的并发连接。

1.减少用户态和内核态之间的文件句柄拷贝;

2.减少对可读可写文件句柄的遍历。

linux从管道中读取数据的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于linux从管道中读取数据,利用管道在Linux中读取数据,高效简便的方法,linux环境下,c语言怎么读取WEB服务器的80端口上页面的内容,Handler消息机制(一):Linux的epoll机制的信息别忘了在本站进行查找喔。


数据运维技术 » 利用管道在Linux中读取数据,高效简便的方法 (linux从管道中读取数据)