使用libevent优化m3u8服务器性能 (libevent m3u8服务器)

随着互联网的发展,视频已成为人们生活中必不可少的一部分。而M3U8文件则成为了网络视频播放中的重要组成部分。M3U8是一种文本文件,主要用于指定多媒体播放列表。在网络视频中,M3U8文件是视频播放的重要载体,保存着视频文件的地址。而M3U8服务器则是视频流传输的重要枢纽。为了保证视频流畅、流量稳定,提升M3U8服务器的性能是至关重要的。本文将介绍如何使用libevent优化M3U8服务器性能。

一、M3U8服务器简介

M3U8服务器是指通过HTTP请求动态生成M3U8文件的服务器。一般情况下,M3U8文件由视频文件切片而成,切片后的视频文件会存放在存储服务器上,而M3U8服务器会通过HTTP请求获取视频文件地址并生成M3U8文件。当用户请求M3U8文件时,服务器会将M3U8文件发送给客户端,客户端依次请求并播放视频文件。由此可见,M3U8服务器的性能对于网络视频播放的流畅度和用户体验至关重要。

二、libevent介绍

libevent是一款开源的事件驱动网络库,提供高效的事件处理机制,可以帮助开发者简化网络编程。它支持多种网络协议,包括TCP/IP、UDP和HTTP等,并支持多种I/O模型,包括select、poll、epoll和kqueue等。libevent可以用来开发高性能的网络服务器和客户端。同时,libevent还提供了线程池、定时器、信号处理等功能,可以极大地降低开发者的编程难度。

三、使用libevent优化M3U8服务器性能

1.选择libevent作为网络库

选择libevent作为网络库可以极大地提高服务器的性能,因为libevent通过事件驱动的方式处理网络请求,而不是与客户端进行频繁的轮询。这种机制可以让服务器始终保持高效率和低延迟。而且,由于libevent支持多种I/O模型,所以可以根据实际情况选择最适合的I/O模型来处理网络请求,提高性能。

2.多线程处理网络请求

使用多线程可以更大限度地利用服务器的资源,提高处理请求的效率。一般情况下,可以采用线程池的方式来处理网络请求,线程数的设置应当与服务器的CPU核数相当,避免线程数过多而导致资源浪费。通过这种方式,可以提高服务器响应速度和处理能力。

3.使用缓存技术

M3U8文件是动态生成的,每次请求都会生成一个新的文件。这样会导致服务器的性能下降,因为每次生成M3U8文件都需要进行数据库查询和文件读写操作。而通过使用缓存技术,可以减少数据库查询和文件读写操作的次数,提高服务器性能。一般情况下,可以将生成的M3U8文件存放在内存中,每次请求时直接返回内存中的文件,避免反复生成M3U8文件,从而提高服务器性能。

四、结论

M3U8服务器的性能是影响网络视频播放流畅度和用户体验的关键因素。通过使用libevent优化M3U8服务器性能,可以提高服务器的处理能力和响应速度,保证视频播放的稳定和流畅。除此之外,还可以通过其他手段来优化M3U8服务器性能,例如使用CDN加速、压缩传输等等。通过优化M3U8服务器性能,可以提高网络视频播放的质量,从而提升用户体验和满意度。

相关问题拓展阅读:

libevent 支持udp吗

memcacheQ是一个单纯的分布式消息队列服务。 一,MEMCACHEQ的应用背景 Web应用中为什 么 会需要消息队列?主要原因是由于在高并发环境下,由于来不及同步处理,请求往往会发生堵塞,比如说,大量的insert,update之类的请求同时到达 mysql,直接导致无数的行锁表锁,甚至最后请求会槐衫堆积过多,从而触发too manyconnections错误。通过使用消息队列,我们可以异步处理请求,从而缓解系统的压力。在Web2.0的时代,高并发的情况越来越常见,从 而使消息队列有成为居家必备的趋势,相应的也涌现出铅塌腔了很多实现方案,像Twitter以前就使用RabbitMQ实现消息队列服务,现在又转而使用 Kestrel来实现消息队列服务,此外还有很多其他的选择,比如说:ActiveMQ,ZeroMQ等。 上述消息队列的软件中,大多为了实现AMQP,STOMP,XMPP之类的协议,变得极其重量级,但在很多Web应用中的实际情况是:我们只是想找到一个缓解高并发请求的解决方案,不需要杂七杂八的功能,一个轻量级的消息队列实现方式才是我们真正需要的。 二,MEMCACHEQ的特性 1 简单易用 2 处理速度快 3 多条队列 4 并发性能好 5 与memcache的协议兼容。这就意味着只要装了memcache的extension就可以了,不需要额外的插件。 三,安装 MEMCACHEQ依赖于libevent和BerkleyDB。 BerkleyDB用于持久化存储队列的数据。 这样在MEMCACHEQ崩溃或者服务器挂掉的时候, 不至于造成数据的丢失。这一点很重要,很重要。 它的安装依赖于BerkeleyDB 和 libevent,所以要先安装这BerkeleyDB和libevent: 其中libevent如果你安装过memcached就已经安装了,如果不确定,就检查一下吧 1. 先检查libevent, libevent-devel是否已经安装: rpm -qagrep libevent 输出中必须包含libevent, libevent-deve, 如果缺失,使用以下命令安装: yum install libevent yum install libevent-devel 注意事项:libevent, libevent-devel优先使用yum安装源,光盘镜像中的rpm包安装,这样稳定性和兼容性可得到保证,网上流传的使用源码安装libevent 的方法会有问题,因为很可能系统已经安装libevent, 再使用源码安装, 必然导致冲突,造成意外问题,所以一定要使用上述命令检查系统是否已经安装相应的库 2. 安装BerkleyDB 1.tar zxvf bdb-5.3.3.tar.gz 2.cd db-5.3.3/ #需要进入特定操衫晌作系统编译环境,更常规软件的编译有些区别 3.cd build_unix/ 4. ../dist/configure –prefix=/usr/local/berkeleydb #如果没有指定特殊安装路径,编译完成,需要将Berkeley Db运行库的路径添加到系统配置里面 echo “/usr/local/BerkeleyDB.5.3/lib/” >> /etc/ld.so.conf #重载系统Ld运行库 ldconfig 5. make & make install 记得改/etc/ld.so.conf文件,添加/usr/local/BerkeleyDB.5.3/lib啊,不然后面的mcq会安装错误。 而BerkeleyDB就要去下载了 点击下载Berkeley DB 5.3.21.rar 下面安装memcacheq, 先下载一个memcacheq-0.2.0.rar 解压,进目录 ./configure –with-bdb=/usr/local/BerkeleyDB.5.1 –with-libevent=/usr/local/lib –enable-threads make make install 关键是红色字体那一步,一定输入正确,不然make不通过,无法安装 下面是启动 memcacheq -d -r -u root -pH /data/memcacheq -N -v -LB 1024 > /data/mq_error.log 2>&1 这里不推荐使用root用户,有些帖子里说不可以,我这里测试是可以的,不过可能会不安全。 1 下面是启动时候的参数 使用memcacheq -h 的命令来查看命令行选项 2 这个是正确的启动memcacheq:memcacheq -d -uroot -r -pH /home/wwwroot/mcq -N -R -v -LB 1024 > /home/wwwlogs/mq_error.log 2 > &1 3 这个不知道为什么就不行/usr/local/memcacheq/bin/memcacheq -d -l 127.0.0.1 -AH /data/memcacheq -BN -R -u root -p TCP监听端口(default: 22201) -U UDP监听端口(default: 0, off) -s unix socket路径(不支持网络) -a unix socket访问掩码(default 0700) -l 监听网卡 -d 守护进程 -r 更大化核心文件限制 -u 以用户身份运行(only when run as root) -c 更大并发连接数(default is 1024) -v 详细输出 (print errors/warnings while in event loop) -vv 更详细的输出 (also print client commands/reponses) -i 打印许可证信息 -P PID文件 -t 线程数(default 4)BerkeleyDB Option BerkeleyDB内存缓存大小, default is 64MB -A 底层页面大小, default is 4096, (512B ~ 64KB, power-of-two) -H 数据库家目录, default is ‘/data1/memcacheq’ -L 日志缓冲区大小, default is 32KB -C 多少秒checkpoint一次, 0 for disable, default is 5 minutes -T 多少秒memp_trickle一次, 0 for disable, default is 30 seconds -S 多少秒queue stats dump一次, 0 for disable, default is 30 seconds -e 达到缓存百分之多少需要刷新, default is 60% -E 一个单一的DB文件有多少页, default is 16*1024, 0 for disable -B 指定消息体的长度,单位字节, default isD 多少毫秒做一次死锁检测(deadlock detecting), 0 for disable, default is 100ms -N 开启DB_TXN_NOSYNC获得巨大的性能改善, default is off -R 自动删除不再需要的日志文件, default is off 测试 三、测试 1.telnet 10.218.31..stats 2.stats queue 3.set qhello 5 get q4 6 stats queue 7 delete q4 如果set的时候补成功not_STORED的话,检查一下你的启动命令吧,参数没设置好,如果你是新手,干翠多看几个帖子,多尝试启动命令,换换参数,就行了 四,使用 使用以上命令启动mq后,(注意上面的-B参数表示messag的body长度不能超过1024 bytes),使用mq时只需要用到两个命令:set和get: set 0 rn rn STOREDrn get rn VALUE rn rn ENDrn 可以看到,和memcache协议基本一致,只是把key name换成queue name,而且在set的命令中,忽略了expire_time的参数。毕竟mq的数据存储是存在berkeleyDB中,做了持久化存储,没有内存的过期时间。 当 使用set命令时,就向指定的消息队列中写入了一条新消息,也就是向BerkeleyDB中新insert了一条数据,当使用get命令时,就从 指定队列中取出一条新消息,也就是向BerkeleyDB中delete了一条数据。当使用stats查看一个指定队列时,可以看到这个队列一共接收了多 少消息,其中被取出了多少条。 示例: 复制代码 代码如下: fengbo@onlinegame:~$ telnet 127.0.0.Trying 127.0.0.1… Connected to 127.0.0.1. Escape character is ‘^>’. set qhello STORED set qworld STORED stats queue STAT q4 2/0 END get q4 VALUE qhello END stats queue STAT q4 2/1 END 上面执行了两次set的命令,使用stats queue查看时,可以看到q4的队列有消息2条,已取出0条;当使用get取出之一条后,再此使用stats queue查看,q4中消息有2条,其中已取出1条。 PHP测试: 复制代码 代码如下: session_start(); $memcache_obj = new Memcache; $memcache_obj->connect(‘127.0.0.1′, 11212) or die (“error”); memcache_set($memcache_obj, ‘k’,10, 0, 0); echo “queue”.memcache_get($memcache_obj, ‘k’); memcache_close($memcache_obj); 注释: 这个时候会出现这样的问题 memcacheq: error while loading shared libraries: libdb-5.0.so: cannot open shared object file: No such file or directory 解决办法:在/usr/lib 下建个 libdb-5.0.so 软链就OK啦 ln -s /usr/local/BerkeleyDB.5.0/lib/libdb-5.0.so /usr/lib/ 五,关闭memcacheQ 使用ps命令查查memcacheQ的进程:ps -efgrep wuf,然后直接将进程kill掉.

1、下载libevent源码。

2、用VC编译,一般编译成静态的。

3、在项目中配置libevent库。

4、引用。橡启扰 你可以按着以上步旁粗骤来。应该没梁旦问题。

您好,请问您是想知道libevent 支持udp吗吗?

使用docker搭建STUN/TURN服务器

前言

    STUN,首先在RFC3489中定义,作为一个完整的NAT穿透解决方案,英文全称是Simple Traversal of UDP Through NATs,即简单的用UDP穿透NAT。

    TURN,耐碰铅首先在RFC5766中定义,英文全称是Traversal Using Relays around NAT:Relay Extensions to Session Traversal Utilities for NAT,即使用中继穿透NAT:STUN的扩展  

    简单的说,TURN与STURN的共同点都是通过修改

应用层

中的

私网地址

达到NAT穿透的效果,异同点是TURN是通过两方通讯的“中间人”方式实现穿透。

    ICE的全称Interactive Connectivity Establ

.sh

ment(互动式连接建立),由IETF的MMUSIC工作组开发出来的,它所提供的是一种框架,使各种NAT穿透技术可以实现统一。

    STUN和TURN服务器和ICE可以参考阅读: P2P技术详解(三):P2P技术之STUN、TURN、ICE详解

    本文介绍如何通过DOCKER搭建STUN和TURN服务器,步骤如下

1:创建Dockerfile,内容如下:

FROM      ubuntu:14.04

MAINTAINER Patxi Gortázar

RUN apt-get update && apt-get install -y \

  curl \

  libevent-core-2.0-5 \

  libevent-extra-2.0-5 \

  libevent-openssl-2.0-5 \

  libevent-pthreads-2.0-5 \

 吵仿 libhiredis0.10 \

  libmysqlclient18 \

  libpq5 \

  telnet \

  wget

RUN wget

\

  && tar xzf turnserver-4.4.2.2-debian-wheezy-ubuntu-mint-x86-64bits.tar.gz \

  && dpkg -i coturn_4.4.2.2-1_amd64.deb

COPY ./turnserver.sh /turnserver.sh

ENV TURN_USERNAME test

ENV TURN_PASSWORD test

ENV REALM kurento

.org

ENV NAT true

EXPOSE/udp

ENTRYPOINT

2:创建turnserver.sh,内容如下

#!/bin/bash

set-e

if;then

#Try to get public IP

PUBLIC_IP=$(curl

)||echo”No public ip found on

if;then

PUBLIC_IP=$(curl

)||exit1

fi

#Try to get private IP

PRIVATE_IP=$(ifconfig|awk’/inet addr/昌好{print substr($2,6)}’|grep -v 127.0.0.1)||exit1

exportEXTERNAL_IP=”$PUBLIC_IP/$PRIVATE_IP”

echo”Starting turn server with external IP:$EXTERNAL_IP”

fi

echo’min-port=49152′>/etc/turnserver.conf

echo’max-port=65535′>>/etc/turnserver.conf

echo’fingerprint’>>/etc/turnserver.conf

echo’lt-cred-mech’>>/etc/turnserver.conf

echo”realm=$REALM”>>/etc/turnserver.conf

echo’log-file stdout’>>/etc/turnserver.conf

echo”user=$TURN_USERNAME:$TURN_PASSWORD”>>/etc/turnserver.conf

&&echo”external-ip=$EXTERNAL_IP”>>/etc/turnserver.conf

exec/usr/bin/turnserver”$@”

3:使用docker build 创建镜像,执行结果如下

# docker build -t teststurn_1 .

Sending build context to Docker daemon  4.096kB

Step 1/11 : FROM      ubuntu:14.04

—> 6e4f1fe62ff1

Step 2/11 : MAINTAINER Patxi Gortázar

—> Using cache

—> 4460f9f84053

Step 3/11 : RUN apt-get update && apt-get install -y  curl  libevent-core-2.0-5  libevent-extra-2.0-5  libevent-openssl-2.0-5  libevent-pthreads-2.0-5  libhiredis0.10  libmysqlclient18  libpq5  telnet  wget

—> Using cache

—> 05ed9ced48a5

Step 4/11 : RUN wget

  && tar xzf turnserver-4.4.2.2-debian-wheezy-ubuntu-mint-x86-64bits.tar.gz  && dpkg -i coturn_4.4.2.2-1_amd64.deb

—> Using cache

—> d82ed28fdac9

Step 5/11 : COPY ./turnserver.sh /turnserver.sh

—> Using cache

—> 1d37a488282c

Step 6/11 : ENV TURN_USERNAME test

—> Running in bfd88f08db42

Removing intermediate container bfd88f08db42

—> cf8af0504b95

Step 7/11 : ENV TURN_PASSWORD test

—> Running in b8ef33b7c213

Removing intermediate container b8ef33b7c213

—> 32a832f23169

Step 8/11 : ENV REALM kurento.org

—> Running in bbe129edf5b3

Removing intermediate container bbe129edf5b3

—> 21fdfe34689b

Step 9/11 : ENV NAT true

—> Running in 5bdfe8555d5e

Removing intermediate container 5bdfe8555d5e

—> dc7fc896841c

Step 10/11 : EXPOSE/udp

—> Running in 67aaa1966f68

Removing intermediate container 67aaa1966f68

—> a12646ed45ff

Step 11/11 : ENTRYPOINT

—> Running in b8fc2ff09265

Removing intermediate container b8fc2ff09265

—> f5e5acad0f81

Successfully built f5e5acad0f81

Successfully tagged teststurn_1:latest

执行完后可以看到自己创建的镜像名称为teststurn_1 

4:启动docker的镜像,并开启端口3478

     docker run -d -p 3478:3478 -p 3478:3478/udp teststurn_1

    启动后需要等待一两分钟才能测试顺畅

5:测试服务器效果

    打开

libevent m3u8服务器的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于libevent m3u8服务器,使用libevent优化m3u8服务器性能,libevent 支持udp吗,使用docker搭建STUN/TURN服务器的信息别忘了在本站进行查找喔。


数据运维技术 » 使用libevent优化m3u8服务器性能 (libevent m3u8服务器)