高效稳定的视频服务利器——nginx视频服务器 (nginx 视频服务器)

随着网络技术的不断发展,视频服务的需求也随之增加。对于拥有大量视频资源的网站,有效的视频服务器成为了必不可少的一部分。而nginx视频服务器则是一款高效稳定的视频服务利器,广受欢迎和使用。本文将从以下几个方面介绍nginx视频服务器的优势和应用。

一、nginx视频服务器的优势

1. 高效稳定:相比其他视频服务软件,nginx视频服务器拥有更高的性能和更低的内存消耗,能够承受更高的访问压力和更低的崩溃率。

2. 可扩展性:nginx视频服务器可以通过扩展模块实现更多功能,比如负载均衡、缓存、音视频处理等。

3. 安全性:nginx视频服务器支持HTTPS协议,能够保证视频服务的安全性和隐私性。

二、nginx视频服务器的应用

1. 视频直播服务

nginx视频服务器可以搭配第三方视频直播处理软件,实现高并发的视频直播服务。通过对视频流的压缩和分发,可以确保观众的流畅观看体验。

2. 视频点播服务

nginx视频服务器支持HLS协议和RTMP协议,可以直接提供视频点播服务,让用户可以随时随地观看视频资源。通过缓存机制,可以大幅度提升视频点播的速度和质量。

3. 视频加速器

nginx视频服务器可以作为视频加速器,通过本地缓存和流量管理来优化视频传输,提供更加快速和稳定的视频服务。

4. CDN加速服务

nginx视频服务器可以搭配CDN加速服务,实现全球范围内的视频传输和访问。通过将视频资源缓存到全球不同地方的CDN节点上,可以让用户更快更稳定地访问视频服务。

三、nginx视频服务器的应用案例

1. 斗鱼直播

斗鱼直播是国内更大的游戏直播平台之一,每天有数百万的用户观看直播。斗鱼直播采用nginx视频服务器作为视频直播处理软件,以保证观众无卡顿流畅的观看体验。

2. Bilibili

Bilibili是国内更大的二次元文化社区,其中视频资源占据了重要地位。Bilibili使用nginx视频服务器作为视频点播服务,以确保用户可以快速稳定地观看视频资源。

3. 优酷视频

优酷视频是中国领先的在线视频平台,每天有数千万用户观看视频。优酷视频使用nginx视频服务器作为CDN加速服务,以更快更稳定地传输视频资源给用户。

nginx视频服务器作为高效稳定的视频服务利器,其优势和应用在当前的视频服务市场中越来越受到重视和应用。作为视频服务提供商和用户,我们都应该积极了解和应用nginx视频服务器,为更好的视频服务体验和业务发展而努力。

相关问题拓展阅读:

[code.nginx] Nginx服务器高级配置

这里提及的参数是和IPv4网络有关的Linux内核参数。我们可以将这些内核参数的值追加到Linux系统的/etc/sysctl.conf文件中,然后使用如下命令使修改生效:

这些常用的参数包括以下这些。

** 1. net.core.netdev_max_backlog参数 **

net.core.netdev_max_backlog,表示当每个网络接口接收数据包的速率比内核处理这些包的速率快时,允许发送到队列的数据包的更大数目。一般默认值为128(可能不同的Linux系统该数值也不同)。Nginx服务器中定义的NGX_LISTEN_BACKLOG默认为511.我们可以将它调整一下:

** 2.net.core.somaxconn参数 **

该参数用于调节系统同时发起的TCP连接数,一般默认值为128。在客户端存在高并发请求的情况下,在默认值较小,可能导致链接超时或者重传问题,我们可以根乱念据实际需要结合并发请求数来调节此值。

** 3.net.ipv4.tcp_max_orphans参数 **

该参数用于设定系统中最多允许存在多少TCP套接字不被关联到任何一个用户文件句柄上。如果超过这个数字,没有与用户文件句柄关联的TCP套接字将立即被复位,同时给出警告信息。这个限制只是为了防止简单的DoS(Denial of Service,拒绝服务)攻击。一般在系统内存比较充足的情况下,可以增大这个参数的赋值:

** 4.net.ipv4.tcp_max_syn_backlog参数 **

该参数用于记录尚未收到客户端确认信息的连接请求的更大值。对于拥哗胡困有128MB内存的系统而言,此参数的默认值是1024,对小内存的系统则是128。一般在系统内存比较充足的情况下,可以增加这个参数的赋值:

** 5.net.ipv4.tcp_timestamps参数 **

该参数用于设置时间戳,这可以避免序列号的卷绕。在一个1Gb/s的链路上,遇到以前用过的序列号的概率很大。当此值赋值为0时,禁用对于TCP时间戳的支持。在默认情况下,TCP协议会让内核接受这种“异常”的数据包。针对Nginx服务器来说,建议将其关闭:

** 6.net.ipv4.tcp_synack_retries参数 **

该参数用于设置内核放弃TCP连接之前向客户端发送SYN+ACK包的数量。为了建立对端的连接服务,服务器和客户端需要进行三次握手,第二次握手期间,内核需要发送SYN并附带一个回应前一个SYN的ACK,这个参数主要影响这个进程,一般赋值为1,即内核放弃连接之前发送一次SYN+ACK包,可以设置其为:

** 7.net.ipv4.tcp_syn_retries参数 **

该参数的作用和上一个参数类似,设置内核放弃建立连接之前发送SYN包的数量,它的赋值和上个参数一样即可:

在Nginx配置文件中,有这样两个指令:worker_processes和worker_cpu_affinity,它们可以针对多核CPU进行配置优化。

** 1.worker_processes指令 **

worker_processes指令用来设置Nginx服务的进程数。官方文档建议此指令一般设置为1即可,赋值太多会影响系统的IO效率,降低Nginx服务器的性能。为了让多核CPU能够很好的并行处理任务,我们可以将worker_processes指令的赋值适当的增大一些,更好是赋值为机器CPU的倍数。当然,这个值并不是越大越好,Nginx进程太多可能增加主进程调度负担,也可能影响系统的IO效率。针对双核CPU,建议设置为2或

4。如果是四核CPU,设置为:

设置好worker_processes指做烂令之后,就很有必要设置worker_cpu_affinity指令。

** 2. worker_cpu_affinity指令 **

worker_cpu_affinity指令用来为每个进程分配CPU的工作内核。这个指令用来为每个进程分配CPU的工作内核。这个指令的设置方法有些麻烦。

如下图所示:

worker_cpu_affinity指令的值是由几组二进制值表示的。其中,每一组代表一个进程,每组中的每一位表示该进程使用CPU的情况,1表示使用,0表示不使用。注意,二进制位排列顺序和CPU的顺序是相反的。建议将不同的进程平均分配到不同的CPU运行内核上。

如果设置的Nginx服务的进程数为4,CPU为4核,因此会有四组值,并且每组有四位,所以,此指令的设置为:

四组二进制数值分别对应4个进程,之一个进程对应0001,表示使用之一个CPU内核。第二个进程对应0010,表示使用第二个CPU内核,以此类推。

如果将worker_processes指令的值赋值为8,即赋值为CPU内核个数的两倍,则worker_cpu_affinity指令的设置可以是:

如果一台机器的CPU是八核CPU,并且worker_processes指令的值赋值为8,那么worker_cpu_affinity指令的设置可以是:

** 1.keepalive_timeout指令 **

该指令用于设置Nginx服务器与客户端保持连接的超时时间。

这个指令支持两个选项,中间用空格隔开。之一个选项指定客户端连接保持活动的超时时间,在这个时间之后,服务器会关闭此连接。第二个选项可选,其指定了使用Keep-Alive消息头保持活动的有效时间,如果不设置它,Nginx服务器不会向客户端发送Keep-Alive消息头以保持与客户端某些浏览器(如Mozilla、Konqueror等)的连接,超过设置的时间后,客户端就可以关闭连接,而不需要服务器关闭了。你可以根据自己的实际情况设置此值,建议从服务器的访问数量、处理速度以及网络状态方面考虑。下面是此指令的设置示例:

该设置表示Nginx服务器与客户端连接保持活动的时间是60s,60s后服务器与客户端断开连接。使用Keep-Alive消息头保持与客户端某些浏览器(如Mozilla、Konqueror等)的连接时间为50s,50s后浏览器主动与服务器断开连接。

** 2.send_timeout指令 **

该指令用于设置Nginx服务器响应客户端的超时时间,这个超时时间仅针对两个客户端和服务器之间建立连接后,某次活动之间的时间。如果这个时间后客户端没有任何活动,Nginx服务器将会关闭连接。此指令的设置需要考虑服务器访问数量和网络状况等方面。下面是此指令的设置示例:

该设置表示Nginx服务器与客户端建立连接后,某次会话中服务器等待客户端响应超时10s,就会自动关闭连接。

** 3.client_header_buffer_size指令 **

该指令用于设置Nginx服务器允许的客户端请求头部的缓冲区大小,默认为1KB。此指令的赋值可以根据系统分页大小来设置。分页大小可以用以下命令取得:

有过Nginx服务器工作经验的可能遇到Nginx服务器返回400错误的情况。查找Nginx服务器的400错误原因比较困难,因为此错误并不是每次都会出现,出现错误的时候,通常在浏览器和日志里也看不到任何有关提示信息。根据实际的经验来看,有很大一部分情况是客户端的请求头部过大造成的。请求头部过大,通常是客户单cookie中写入了较大的值引起的。于是适当增大此指令的赋值,允许Nginx服务器接收较大的请求头部,可以改善服务器对客户端的支持能力。一般将此指令赋值为4KB大小,即:

** 4.multi_accept指令 **

该指令用于配置Nginx服务器是否尽可能多的接收客户端的网络连接请求,默认值为off。

本节涉及的指令与Nginx服务器的事件驱动模型密切相关。

其中,number为设置的更大数量。结合worker_processes指令,我们可以计算出Nginx服务器允许同时连接的客户端更大数量Client = worker_processes * worker_connections / 2;

在使用Nginx服务器的过程中,笔者曾经遇到过无法访问Nginx服务器的情况,查看日志发现一直在报如下错误:

根据报错信息,推测可能是Nginx服务器的更大访问连接数设置小了。此指令设置的就是Nginx服务器能接受的更大访问量,其中包括前端用户连接也包括其他连接,这个值在理论上等于此指令的值与它允许开启的工作进程更大数的乘积。此指令一般设置为65535:

此指令的赋值与linux操作系统中进程可以打开的文件句柄数量有关系。按照以上设置修改此项赋值以后,Nginx服务器报以下错误:

究其原因,Linux系统中有一个系统指令open file resource limit,它设置了进程可以打开的文件句柄数量。worker_connections指令的赋值当然不能超过open file resource limit的赋值。可以使用以下命令查看在你的Linux系统中open file resource limit的赋值。

可以通过一下命令将open file resource limit指令的值设为:

这样,Nginx的worker_connections指令赋值为65535就没问题了。

其中,limit为Linux平台事件信号队列的长度上限值。

该指令主要影响事件驱动模型中rfsig模型可以保存的更大信号数。Nginx服务器的每一个工作进程有自己的事件信号队列用于暂存客户端请求发生信号,如果超过长度上线,Nginx服务器自动转用poll模型处理未处理器的客户端请求。为了保证Nginx服务器对客户端请求的高效处理,请大家根据实际的客户端并发请求数量和服务器运行环境的处理能力设定该值。设置示例为:

其中,number为要设置的数量,默认值均为32。

其中,number为要设置的数量,默认值均为512.

使用kequeue_changes方式,可以设置与内核之间传递事件的数量。

其中,number为要设置的数量,默认值均为512。

7.rtsig_signo指令

该指令用于设置rtsig模式使用的两个信号中的之一个,第二个信号是在之一个信号的编号上加1,语法为:

默认的之一个信号设置为SIGRTMIN+10。

提示

在Linux中可以使用一下命令查看系统支持的SIGRTMIN有哪些。

8.rtsig_overflow_* 指令

该指令代表三个具体的指令,分别为rtsig_overflow_events指令、rtsig_overflow_test指令和rtsig_overflow_threshold指令。这些指令用来控制当rtsig模式中信号队列溢出时Nginx服务器的处理方式,语法结构为:

其中,number是要设定的值。

rtsig_overflow_events指令指定队列溢出时使用poll库处理的事件数,默认值为16。

rtsig_overflow_test指令设定poll库处理完第几件事件后将清空rtsig模型使用的信号队列,默认值为32。

rtsig_overflow_threshold指令指定rtsig模式使用的信号队列中的事件超过多少时就需要清空队列了。

Nginx服务器架构初探

Nginx的每个模块都基本符合单一职责原则

一般来说,Web服务器完成并行处理请求工作的三种方式有:多进程方式、多进程方式和异步方式

多进程方式是指,服务器每当接收到一个客户端时,就由服务器主进程生成一个子进程出来和该客户端建立连接进行交互,直到连接断开,该子进程就结束了

多进程方式的优点在于,设计和实现相对简单,各个子进程之间相对独立,处理客户端请求的过程彼此不受到干扰,并且当一个子进程产生问题时,不容易将影响蔓延到其他进程中,这保证了提供服务的稳定性。当子线程退出时,其占用资源会作系统回收,也不会留下任何垃圾。

其缺点是操作系统中生成一个子进程需要进行大量内存复制等操作,在资源和时间上会产生一定的额外开销。因此,如果Web服务器接收大量并发请求,就会对系统资源造成压力,导致系统性能下降。

Apache采用“预生成进程”方式,它将生成子进程的时机提前,在客户端请求还没有到来之前就预先生成好,当请求到来时,主进程分配一个子进程和该客户端进行交互,交互完成之后,该进程也不结束,而被主进程管理起来等待下一个客户端请求的到来

多线程方式是指当服务器每当接收到一个客户端时,会有服务器主进程派生一个线程出来和该客户端进行交互

由于操作系统产生一个线程的开销远远小于产生一个进程的开销,所以多线程方式在很大程度上减轻了Web服务器对系统资源的要求。该方式使用线程进行任务调度,开发方面可以遵循一定的标准,这相对来说比较规范和有利于协作。

多个线程位于同一进程内,可以访问同样的内存空间,彼此之间相互影响;同时,在开发过程中不可避免地要由开发者自己对内存进行管理,其增加了出错的风险

IIS服务器使用了多线程方式对外提供服务

同步机制:发送方发送请求之后,需要等待接收到接收方发回的响应后,才接着发送下一个请求

异步机制:发送方发送请求只有,不等待接收方响应这个请求,就继续发送下一个请求。

在同步机制中,所有的请求在服务器端得到同步,发送方和接收方对请求的处理步调是一致的;在异步机制中,所有来自发送方的请求形成一个队列,接收方处理完成后通知发送方

阻塞和非阻塞用来描述进程处理调用的方式,在网络通信中,主要指网络套接字Socket的阻塞和非阻塞方式,而Socket的实质也就是IO操作。

Socket的阻塞调用方式为,调用结果返回之前,当前线程从运行状态被挂起,一直等到调用结果返回之前,才进入就绪状态,获磨哪取CPU继续执行

Socket的非阻塞调用方式为,如果调用结果不能马上返回,当前线程也不会被挂起,而是立即返回执行下一个调用

Nginx结合多进程机制和异步机制对外提供服务。异步机制使用的是异步非阻塞方式

Nginx服务器启动后产生一个主进程和多个工作进程(可在配置文件中配置)。Ngnix服务器的所有工作进程都用于接收和处理客户端的请求。每个工作进程使用异步非阻塞方式,可以处理多个客户端的请求。当某个工作进程接收到客户端的请求以后,调用IO进行处理,如果不能立即得到返回,就去处理其他的请求;而客户端再次期间也无须等待响应,可以去处理其他的事情;当IO调用返回结果时,就会通知此工作进程;该进猛游喊程得到通知,暂时挂起当前处理的事务,去响应客户端的请求

IO调用把状态通知给工作进程的两种方式:

select/poll/epoll/kqueue等这样的系统调用就是支撑第二种方案的。这种系统调用,也称为事件模型。IO调用完全由事件驱动模型来管理,事件准备好之后就通知工作进程事件已经就绪

事件驱动就是在持续事务管理过程中,由当前时间点上出现的事件引发的调动可用资源执行相关任务,解决不断出现的问题,防止事务堆积的一种策略

事件驱动模型一般由事件收集器、事件发送器和事件处理器三部分基本单元组成

事件收集器

专门负责收集所有的事件,包括来自用户的(鼠标、键盘事件等)、来自硬件的(时钟事件等)和来自软件的(操枝野作系统、应用程序自身)。

事件发送器

负责将收集器收集到的事件分发到目标对象中。目标对象就是事件处理器所处的位置。

事件处理器

主要负责具体事件的响应工作,它往往要到实现阶段才完全确定

目标对象中事件处理器的几种方式:

大部分网络服务器都采用第三种方式,形成了事件驱动库。事件驱动库又被称为多路IO复用方法,最常见的伪:select、poll、epoll。Nginx服务器还支持rtsig、kqueue、dev/poll和eventport

各个版本Linux和Windows平台都支持的基本事件驱动模型

使用select库的一般步骤:

如果没有指定其他事件驱动模型,Nginx自动编译该库。

使用–with-select_module和–without-select_module强制Nginx是否编译该库

Linux平台的事件驱动模型,Windows不支持。

poll和select的基本使用方式是相同的,区别在于:select需要为读事件、写事件和异常事件都分别创建一个描述符,因此在最后轮询的时候,需要分别轮训这三个。而poss库只需要创建一个,在每个描述符对应的结构上分别设置读事件、写事件或异常事件,最后轮询的时候,可以同时检查这三种事件是否发生。poll库是select库的优化实现

如果没有指定其他事件驱动模型,Nginx自动编译该库。

使用–with-poll_module和–without-poll_module强制Nginx是否编译该库

epoll属于poll库的一个变种,更大的区别在于效率

epoll库通过相关调用通知内核创建一个有N个描述符的事件列表;然后,给这些描述符设置所关注的事件,并将它添加到内核的事件列表中。

完成设置之后,epoll库就开始等待内核通知事件发生了。某一事件发生后,内核将发生事件的描述符列表上报给epoll库。得到列表事件的epoll库,就可以进行事件处理了

epoll库是Linux平台上更高效的。它支持一个进程打开大数目的事件描述符,上限是系统可以打开文件的更大数目。同时,epoll库的IO效率不随描述符数目增加而线性下降,因为它只会对内核上报的“活跃”的描述符进行操作

使用rtsig模型时,工作进程会通过系统内核建立一个rtsig队列用于存放标记事件发生(在Nginx服务器应用中特指客户端请求发生)的信号。每一个事件发生时,系统内核就会发生一个信号存放到rtsig队列中等待工作进程的处理。

rtsig队列有长度限制,如果超过该长度就会发生溢出。默认情况下,Linux系统事件信号队列的更大长度设置为1024。在Liunx2.6.6-mm2之后的版本之前,通过修改内核参数/proc/sys/kernel/rtsig-max来自定义该长度设置。在Liunx2.6.6-mm2之后的版本中,该参数被取消,系统各个进程分别拥有各自的事件信号队列,这个队列的大小由Linux系统的RLIMIT_SIGPENDING参数定义,在执行setrlimit()系统调用时确定该大小。Linux提供了worker+rlimit_sigpending参数用于调节这种情况下的事件信号队列长度

当rtsig队列发生溢出时,Nginx将暂停使用rtsig模型,而调用poll库处理未处理的事件,直到rtsig信号队列全部清空,然后再次启动rtsig模型,以防止新的溢出发生

编译Nginx服务器时,使用-with-rtsig_module配置选项启用rtsig模型的编译

kqueue模型,主要用于FreeBSD4.1及以上版本、OpenBSD2.9及以上版本、NetBSD2.0及以上版本以及Mac OS X平台上。该模型也是poll库的一个变种,其和poll库的处理方式没有本质上的区别。该模型同时支持条件触发(只要满足条件就触发一个事件)和边缘触发(当状态发生改变触发一个事件)。在这些平台下,使用该模型用于请求处理,提高Nginx服务器性能

/dev/poll模型,主要用于Solaris7 11/99及以上版本、HP/US 11.22及以上版本、IRIX6.5.15及以上版本和Tru 64 UNIX 5.1A及以上版本。它使用了虚拟的/dev/poll设备,开发人员可以将要监视的文件描述符加入这个设备,然后通过ioctl()调用来获取事件通知。在以上平台中推荐使用

eventport模型,用于支持Solaris 10及以上版本。它可以有效防止内核崩溃等情况的发生

根据不同的部署平台,选择不同的事件驱动模型以提升Nginx服务器的处理性能

Nginx服务器启动后,产生一个主进程,主进程执行一系列工作后产生一个或者多个工作进程。

主进程主要进行Nginx配置文件解析、数据结构初始化、模块配置和注册、信号处理、网络监听生成、工作进程生成和管理等工作;

工作进程主要进行进程初始化、模块调用和请求处理等工作,是Nginx服务器提供服务的主体

Nginx服务器将接收到的Web请求通过代理转发到后端服务器,由后端服务器进行数据处理和页面组织,然后将结果返回。

Nginx服务器为了提高对请求的响应效率,进一步降低网络压力,采用了缓存机制,将历史应答数据缓存到本地。在每次Nginx服务器启动后的一段时间内,会启动专门的进程进行对本地缓存的内容重建索引,保证对缓存文件的快速访问

依赖于管道机制,交互的准备工作都是在工作进程生成时完成的

Run Loops,指的是进程内部用来不停地调配工作,对事件进行循环处理的一种模型。

该模型是一个,中的每一个元素称为一个Run-Loop。每个Run-Loop可运行在不同的模式下,其中可以包含它所监听的输入事件源、定时器以及在事件发生时需要通知的Run-Loop监听器。为了监听特定的事件,可以在Run Loops中添加相应的Run-Loop监听器。当被监听的事件发生时,Run-Loop会产生一个消息,被Run-Loop监听器捕获,从而执行预定的动作

Nginx服务器在工作进程中实现了Run-Loop事件处理循环的使用,用来处理客户端发送的请求事件

nginx 视频服务器的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于nginx 视频服务器,高效稳定的视频服务利器——nginx视频服务器,[code.nginx] Nginx服务器高级配置,Nginx服务器架构初探的信息别忘了在本站进行查找喔。


数据运维技术 » 高效稳定的视频服务利器——nginx视频服务器 (nginx 视频服务器)