Linux learning note
- 1、epoll的使用场景
- 2、epoll的使用方法和内部原理
- 2.1、创建epoll
- 2.2、使用epoll监听和处理事件
- 3、示例
1、epoll的使用场景
epoll的英文全称是extend poll,顾名思义是poll的升级版。常见的IO复用技术有select,poll,epoll三种,本文只介绍epoll。
这里IO多路复用通俗理解是指用一个线程来管理多个输入/输出通道。具体到网络场景中,就是希望服务器只用一个线程就可以处理N个客户端的读写请求。
如果不适用IO多路复用技术,我们当然也可以实现一个服务端和N个客户端之间建立连接,但由于read函数经常被设置为阻塞式的,所以出现这么一种情况:服务器阻塞在客户端1的通道上,而当客户端2发送消息时便无法及时处理。
当然read函数也可以设置为非阻塞式的,不断的扫描哪个客户端发送消息,不过这样就很浪费CPU资源了。
总而言之,epoll在网络通信中几乎是必不可少的一项技术。
2、epoll的使用方法和内部原理
先概况性的讲,epoll是一个管理服务端和多个客户端的工具,当这些设备有“动作”的时候,epoll会通过中断察觉到这些“动作”,并及时去处理。
具体原理如下:
2.1、创建epoll
使用epoll_create()函数创建一个eventpoll的结构体,该结构体又嵌套着许多数据结构,用以维护epoll管理的多个服务器和客户端。其中较为重要的是一个存放服务器和所有客户端的文件描述符的红黑树和一个管理就绪事件的双向链表ready list。
值得注意的是,epoll_create()只是创建eventpoll这么一个数据结构,具体红黑树中的节点的添加和删除需要依靠epoll_ctl()函数来完成。而epoll_ctl()不仅仅添加需要监控的文件描述符,还要添加一个名为epoll_event的结构体,我们可以通过该结构体设置我们需要监听的事件和触发中断的方式。
监听的事件和触发中断的方式都是通过设置epoll_event中的events这个成员变量来完成的,常规的设置有
struct event_poll ev;
ev.events = EPOLLIN; //设置监听读事件,如果没有设置触发方式则默认使用水平触发
//or
ev.events = EPOLLIN | EPOLLET; //设置监听读事件,且边缘触发
- 水平触发(level triggered):当事件发生之后,一直产生中断,提醒CPU去处理。这也是默认的触发方式。
- 边缘触发(edge triggered):当事件发生之后,只触发一次中断。
2.2、使用epoll监听和处理事件
这部分就相对简单许多了,无非是在while循环中使用一个epoll_wait()去监听哪一个设备有需要处理的事件。其中epoll_wait()时常被设置成阻塞性函数,即没有事件需要处理的时候就一直阻塞在那。如果有事件需要处理,CPU会把该事件对应的文件描述符放进ready_list,然后通过epoll_wait()函数再将ready_list中的文件描述符对应的设备的事件信息等依次放入epoll_event的队列中来。最后在通过对epoll_event中的文件描述符或事件类型的判断,去决定执行具体的任务。
可能有点难理解,那再看看代码把。
struct epoll_event events[1024];
int epollfd = epoll_create(1);
/***
A lot of code is omitted here
***/
while(true)
{
int nfds = epoll_wait(epollfd, events, 1024, -1);
for (int n = 0; n < nfds; ++n) {
if (events[n].events & EPOLLIN) //去处理一个个事件
{
/******/
}
}
}
3、示例
该例子完成了一个服务器对多个客户端的连接请求的监控以及对可读事件的回应。
#include <sys/epoll.h>
#include <netinet/in.h>
#include <unistd.h>
#include <stdio.h>
#include <string.h>
#include <stdlib.h>
#include <errno.h>
#include <fcntl.h>
#include <iostream>
#define MAX_EVENTS 10
#define READ_SIZE 1024
int server_port = 8888;
int main() {
struct epoll_event ev, events[MAX_EVENTS];
struct sockaddr_in addr;
char buffer[READ_SIZE];
int listen_sock = socket(AF_INET, SOCK_STREAM, 0);
memset(&addr, 0, sizeof(addr));
addr.sin_family = AF_INET;
addr.sin_addr.s_addr = INADDR_ANY;
addr.sin_port = htons(server_port);
bind(listen_sock, (struct sockaddr*) &addr, sizeof(addr));
listen(listen_sock, 5);
int epollfd = epoll_create(1);
ev.events = EPOLLIN;
ev.data.fd = listen_sock;
epoll_ctl(epollfd, EPOLL_CTL_ADD, listen_sock, &ev);
int nfds;
while(true)
{
nfds = epoll_wait(epollfd, events, MAX_EVENTS, -1);
for (int n = 0; n < nfds; ++n) {
if (events[n].data.fd == listen_sock) {
int con_sock = accept(listen_sock, (struct sockaddr *) NULL, NULL);
ev.events = EPOLLIN | EPOLLET;
ev.data.fd = con_sock;
epoll_ctl(epollfd, EPOLL_CTL_ADD, con_sock, &ev);
std::cout << "add a new client suessfully!" << std::endl;
}
else {
if (events[n].events & EPOLLIN) {
int len = read(events[n].data.fd, buffer, sizeof(buffer));
if(len > 0){
std::cout << "server receive is: " << buffer << std::endl;
static std::string send_str;
send_str.append("receive suessfully!");
write(events[n].data.fd, send_str.c_str(), send_str.length());
memset(buffer, 0 , sizeof(buffer));
send_str.erase(0);
}
}
}
}
}
close(listen_sock);
return 0;
}