select的限制
用select实现的并发服务器,能达到的并发数一般受两方面限制:
1)一个进程能打开的最大文件描述符限制。这可以通过调整内核参数。可以通过ulimit -n(number)来调整或者使用setrlimit函数设置,但一个系统所能打开的最大数也是有限的,跟内存大小有关,可以通过cat /proc/sys/fs/file-max 查看
/**示例: getrlimit/setrlimit获取/设置进程打开文件数目**/int main(){ struct rlimit rl; if (getrlimit(RLIMIT_NOFILE, &rl) == -1) err_exit("getrlimit error"); cout << "Soft limit: " << rl.rlim_cur << endl; cout << "Hard limit: " << rl.rlim_max << endl; cout << "------------------------->" << endl; rl.rlim_cur = 2048; rl.rlim_max = 2048; if (setrlimit(RLIMIT_NOFILE, &rl) == -1) err_exit("setrlimit error"); if (getrlimit(RLIMIT_NOFILE, &rl) == -1) err_exit("getrlimit error"); cout << "Soft limit: " << rl.rlim_cur << endl; cout << "Hard limit: " << rl.rlim_max << endl;}
2)select中的fd_set集合容量的限制(FD_SETSIZE,1024),这需要重新编译内核才能改变。
/**测试: 测试服务器端最多能够建立多少个连接server端完整源代码如下(注意使用的是):**/int main(){ signal(SIGPIPE, sigHandlerForSigPipe); try { TCPServer server(8001); int listenfd = server.getfd(); struct sockaddr_in clientAddr; socklen_t addrLen; int maxfd = listenfd; fd_set rset; fd_set allset; FD_ZERO(&rset); FD_ZERO(&allset); FD_SET(listenfd, &allset); //用于保存已连接的客户端套接字 int client[FD_SETSIZE]; for (int i = 0; i < FD_SETSIZE; ++i) client[i] = -1; int maxi = 0; //用于保存最大的不空闲的位置, 用于select返回之后遍历数组 int count = 0; while (true) { rset = allset; int nReady = select(maxfd+1, &rset, NULL, NULL, NULL); if (nReady == -1) { if (errno == EINTR) continue; err_exit("select error"); } if (FD_ISSET(listenfd, &rset)) { addrLen = sizeof(clientAddr); int connfd = accept(listenfd, (struct sockaddr *)&clientAddr, &addrLen); if (connfd == -1) err_exit("accept error"); int i; for (i = 0; i < FD_SETSIZE; ++i) { if (client[i] < 0) { client[i] = connfd; if (i > maxi) maxi = i; break; } } if (i == FD_SETSIZE) { cerr << "too many clients" << endl; exit(EXIT_FAILURE); } //打印客户IP地址与端口号 cout << "Client information: " << inet_ntoa(clientAddr.sin_addr) << ", " << ntohs(clientAddr.sin_port) << endl; cout << "count = " << ++count << endl; //将连接套接口放入allset, 并更新maxfd FD_SET(connfd, &allset); if (connfd > maxfd) maxfd = connfd; if (--nReady <= 0) continue; } /**如果是已连接套接口发生了可读事件**/ for (int i = 0; i <= maxi; ++i) if ((client[i] != -1) && FD_ISSET(client[i], &rset)) { char buf[512] = {0}; int readBytes = readline(client[i], buf, sizeof(buf)); if (readBytes == -1) err_exit("readline error"); else if (readBytes == 0) { cerr << "client connect closed..." << endl; FD_CLR(client[i], &allset); close(client[i]); client[i] = -1; } cout << buf; if (writen(client[i], buf, readBytes) == -1) err_exit("writen error"); if (--nReady <= 0) break; } } } catch (const SocketException &e) { cerr << e.what() << endl; err_exit("TCPServer error"); }}
/**高并发测试端代码: contest完整源代码如下**/int main(){ //最好不要修改: 不然会产生段溢出(stack-overflow)// struct rlimit rlim;// rlim.rlim_cur = 2048;// rlim.rlim_max = 2048;// if (setrlimit(RLIMIT_NOFILE, &rlim) == -1)// err_exit("setrlimit error"); int count = 0; while (true) { int sockfd = socket(AF_INET, SOCK_STREAM, 0); if (sockfd == -1) { sleep(5); err_exit("socket error"); } struct sockaddr_in serverAddr; serverAddr.sin_family = AF_INET; serverAddr.sin_port = htons(8001); serverAddr.sin_addr.s_addr = inet_addr("127.0.0.1"); int ret = connect_timeout(sockfd, &serverAddr, 5); if (ret == -1 && errno == ETIMEDOUT) { cerr << "timeout..." << endl; err_exit("connect_timeout error"); } else if (ret == -1) err_exit("connect_timeout error"); //获取并打印对端信息 struct sockaddr_in peerAddr; socklen_t peerLen = sizeof(peerAddr); if (getpeername(sockfd, (struct sockaddr *)&peerAddr, &peerLen) == -1) err_exit("getpeername"); cout << "Server information: " << inet_ntoa(peerAddr.sin_addr) << ", " << ntohs(peerAddr.sin_port) << endl; cout << "count = " << ++count << endl; }}
Server端运行截图如图所示:
解析:对于客户端,最多只能开启1021个连接套接字,因为总共是在Linux中最多可以打开1024个文件描述如,其中还得除去0,1,2。而服务器端只能accept 返回1020个已连接套接字,因为除了0,1,2之外还有一个监听套接字listenfd,客户端某一个套接字(不一定是最后一个)虽然已经建立了连接,在已完成连接队列中,但accept返回时达到最大描述符限制,返回错误,打印提示信息。
client在socket()返回-1是调用sleep(5)解析
当客户端调用socket准备创建第1022个套接字时,如上所示也会提示错误,此时socket函数返回-1出错,如果没有睡眠4s后再退出进程会有什么问题呢?如果直接退出进程,会将客户端所打开的所有套接字关闭掉,即向服务器端发送了很多FIN段,而此时也许服务器端还一直在accept ,即还在从已连接队列中返回已连接套接字,此时服务器端除了关心监听套接字的可读事件,也开始关心前面已建立连接的套接字的可读事件,read 返回0,所以会有很多 client close 字段参杂在条目的输出中,还有个问题就是,因为read 返回0,服务器端会将自身的已连接套接字关闭掉,那么也许刚才说的客户端某一个连接会被accept 返回,即测试不出服务器端真正的并发容量;
poll调用
poll没有select第二个限制, 即FD_SETSIZE的限制, 但是第一个限制暂时还是无法避免的;
#includeint poll(struct pollfd *fds, nfds_t nfds, int timeout);
参数nfds: 需要检测事件的个数, 结构体数组大小(也可表示为文件描述符个数)(The caller should specify the number of items in the fds array in nfds.)
参数timeout: 超时时间(单位milliseconds, 毫秒),若为-1,表示永不超时。
//pollfd结构体struct pollfd{ int fd; /* file descriptor */ short events; /* requested events: 请求的事件 */ short revents; /* returned events : 返回的事件*/};
events与revents取值(前3个最常用):
返回值:
成功: 返回一个正整数(this is the number of structures which have nonzero revents
fields (in other words, those descriptors with events or errors reported).
超时: 返回0(A value of 0 indicates that the call timed out and no file descriptors
were ready)
失败: 返回-1(On error, -1 is returned, and errno is set appropriately.)
/**poll-Server示例(将前面的select-server改造如下, 其没有了FD_SETSIZE的限制, 关于第一个限制可以使用前文中的方法更改)(client端与测试端代码如前)**/const int SETSIZE = 2048;int main(){ signal(SIGPIPE, sigHandlerForSigPipe); try { TCPServer server(8001); //用于保存已连接的客户端套接字 struct pollfd client[SETSIZE]; //将client置空 for (int i = 0; i < SETSIZE; ++i) client[i].fd = -1; int maxi = 0; //用于保存最大的已占用位置 int count = 0; client[0].fd = server.getfd(); client[0].events = POLLIN; while (true) { int nReady = poll(client, maxi+1, -1); if (nReady == -1) { if (errno == EINTR) continue; err_exit("poll error"); } //如果是监听套接口发生了可读事件 if (client[0].revents & POLLIN) { int connfd = accept(server.getfd(), NULL, NULL); if (connfd == -1) err_exit("accept error"); bool flags = false; //略过client[0].fd(listenfd), 从1开始检测 for (int i = 1; i < SETSIZE; ++i) { if (client[i].fd == -1) { client[i].fd = connfd; client[i].events = POLLIN; flags = true; if (i > maxi) maxi = i; break; } } //未找到一个合适的位置 if (!flags) { cerr << "too many clients" << endl; exit(EXIT_FAILURE); } cout << "count = " << ++count << endl; if (--nReady <= 0) continue; } /**如果是已连接套接口发生了可读事件**/ for (int i = 1; i <= maxi; ++i) if (client[i].revents & POLLIN) { char buf[512] = {0}; int readBytes = readline(client[i].fd, buf, sizeof(buf)); if (readBytes == -1) err_exit("readline error"); else if (readBytes == 0) { cerr << "client connect closed..." << endl; close(client[i].fd); client[i].fd = -1; } cout << buf; if (writen(client[i].fd, buf, readBytes) == -1) err_exit("writen error"); if (--nReady <= 0) break; } } } catch (const SocketException &e) { cerr << e.what() << endl; err_exit("TCPServer error"); }}
附-getrlimit和setrlimit函数
每个进程都有一组资源限制,其中某一些可以用getrlimit和setrlimit函数查询和更改。
#include#include int getrlimit(int resource, struct rlimit *rlim);int setrlimit(int resource, const struct rlimit *rlim);
//rlimit结构体struct rlimit{ rlim_t rlim_cur; /* Soft limit */ rlim_t rlim_max; /* Hard limit (ceiling for rlim_cur) */};
软限制是一个建议性的, 最好不要超越的限制, 如果超越的话, 系统可能向进程发送信号以终止其运行.
而硬限制一般是软限制的上限;
resource可用值 | |
RLIMIT_AS | 进程可用的最大虚拟内存空间长度,包括堆栈、全局变量、动态内存 |
RLIMIT_CORE | 内核生成的core文件的最大大小 |
RLIMIT_CPU | 所用的全部cpu时间,以秒计算 |
RLIMIT_DATA | 进程数据段(初始化DATA段, 未初始化BSS段和堆)限制(以B为单位) |
RLIMIT_FSIZE | 文件大小限制 |
RLIMIT_SIGPENDING | 用户能够挂起的信号数量限制 |
RLIMIT_NOFILE | 打开文件的最大数目 |
RLIMIT_NPROC | 用户能够创建的进程数限制 |
RLIMIT_STACK | 进程栈内存限制, 超过会产生SIGSEGV信号 |
进程的资源限制通常是在系统初启时由0#进程建立的,在更改资源限制时,须遵循下列三条规则:
1.任何一个进程都可将一个软限制更改为小于或等于其硬限制。
2.任何一个进程都可降低其硬限制值,但它必须大于或等于其软限制值。这种降低,对普通用户而言是不可逆反的。
3.只有超级用户可以提高硬限制。