搭建一个后台服务器

时间:2022-02-06 20:14:24
搭建一个后台服务器
参考来源:http://blog.csdn.net/column/details/yumeiz.html
一. 需求       

原题:时间同步系统开发需求

需求场景:客户端向服务器发起登录请求,鉴权通过后(为了简化工作,所有登录请求,只要请求参数里的用户名和密码不为空,都鉴权通过),客户端再向服务器请求当前系统时间,服务器返回当前系统时间后关闭连接。


要求:

1、传输层使用TCP协议,应用层协议不限。

2、可支持同时在线用户量:大于 2W。

3、并发性能:没有明确指标。

4、服务器端运行环境:linux 2.4以上内核版本;开发语言:C++/C。

5、客户端运行环境:不限;开发语言:不限。(可以很简单,不要求界面)

6、要求有模拟性能测试操作方法,如多客户端、多线程模拟同时请求等。

7、用真实代码。

8、不要求日志系统,但是要考虑在主线程打印屏幕引起的性能问题。


我就觉得要是哪个公司面试的时候能出得出这样的题目,那就应该很专业了,对面试的人也就可以算得上挑战了。

tcp 服务端-客户端通信的程序,网上一搜一大堆,大家可能都会写,但是并发量和容错性不一定能上得去,2W的并发量不是盖出来的,如果这道题目能够搞定,基本上服务器这块应该是难不倒了。

下面说说我应该怎么做:

首先是建立前后端的通信协议:

request:

username/password, 约定username与password  各占32个字节(联同末位0)

response:

time_t 格式


由于通信内容简单,选择二进制传输,而不选择http,当然如果要考考 http 协议的了解,那就另当别论了。


二. 客户端

上篇规定的协议请求部分:

request:

username/password, 约定username与password  各占32个字节(联同末位0)


可以将客户端的逻辑设计成:

1.将username,password  封装进buffer

2.连接服务端

3.发送buffer

4.接收二进制的系统当前时间 

5.显示时间 


代码如下:

服务端地址设置部分:

[cpp] view plaincopyprint?
  1. addr_server.sin_family = AF_INET;  
  2. addr_server.sin_port = htons( port );  
  3. addr_server.sin_addr.s_addr = inet_addr( ip );  

创建连接:

[cpp] view plaincopyprint?
  1. sock_client = socket( AF_INET, SOCK_STREAM, 0 );  

连接服务端代码:

[cpp] view plaincopyprint?
  1. flag = connect( sock_client, ( struct sockaddr* ) &addr_server, sizeof( addr_server ) );  

设置buffer填充username/password代码:

[cpp] view plaincopyprint?
  1. sprintf(buffer, "%s""username");  
  2. sprintf(buffer + 32, "%s""password" );  
  3.   
  4. buffer[31]=buffer[63] = 0;  

接着是发送:

[cpp] view plaincopyprint?
  1. flag = send( sock_client, buffer, 64, 0 );  
  2. if( flag == 64 )  
  3. {     
  4.       printf( "send ok\n");   
  5. }  

接收部分代码:

[cpp] view plaincopyprint?
  1. flag = recv( sock_client, buffer, 64, 0 );  
  2. if( flag != sizeoftime_t ) )  
  3. {  
  4.        printf( "recv does not follow protocal\n");  
  5.        close( sock_client );  
  6.        continue;  
  7. }  

将接收到的二进制数据转成时间

[cpp] view plaincopyprint?
  1. memcpy( curtime, buffer, sizeoftime_t ) );  
  2. struct tm *ptm = localtime( curtime );  

显示时间:

[cpp] view plaincopyprint?
  1. printf( "system time:%04d-%02d-%02d-%02d:%02d:%02d\n", ptm->tm_year + 1900, ptm->tm_mon + 1, ptm->tm_mday,  
  2.         ptm->tm_hour, ptm->tm_min, ptm->tm_sec );  

关闭连接:

[cpp] view plaincopyprint?
  1. printf( "ok,now we close connection\n" );  
  2. close( sock_client );  
实际开发中,为了追求并发效率和提升搞压效果,客户端需要有一个循环,另外可以多进程同时操作。

实际测试中,我发现客户端的单进程并发量大概在1万左右,因此多开几个程序,已经可以满足需求了。


三. 服务器端(阻塞)

为什么 要在标题后面加个“阻塞”呢,因为系统为了增大并发,减小等待(阻塞),建立了另一种事件模式,后文将介绍,这里只介绍阻塞的模型。

阻塞服务器要干的事大致可以分为以下几步:

1.创建服务端监听连接

2.产生用户连接

3.接收用户请求

4.发送返回给用户


敲码过程如下:

设置监听地址与端口:

addr_server.sin_family = AF_INET;
addr_server.sin_port = htons( port );
addr_server.sin_addr.s_addr = htonl( INADDR_ANY );


创建连接并绑定:

        sock_server = socket( AF_INET, SOCK_STREAM, 0 );
flag = bind( sock_server, ( struct sockaddr* )&addr_server, sizeof( struct sockaddr ) );
if( flag < 0 )
{
printf( "your bind is not ok\n" );
close( sock_server );
return 0;
}
开始监听:

        flag = listen( sock_server, 50 );
if( flag < 0 )
{
printf( "your listen is not ok\n");
close( sock_server );
return 0;
}

接收并产生用户连接:

sock_client = accept( sock_server, ( struct sockaddr* )&addr_client, &size );
if( sock_client <=0 )
{
printf( "your accept is no ok\n");
close( sock_server );
return 0;
}

接收用户数据:

flag = recv( sock_client, buffer, RECV_BUF_LEN, 0 );
if( flag <= 0 )
{
printf( "your recv is no ok\n");
close( sock_client );
continue;
}


校验数据合法性:

if( flag != 64 )
{
printf( "your recv does follow the protocal\n");
close( sock_client );
continue;
}

if( buffer[31] || buffer[63] )
{
printf( "your recv does follow the protocal\n");
close( sock_client );
continue;
}


发送当前时间 至客户端:

         current = time(0);
send( sock_client, ( const char* )¤t, sizeof( time_t), 0 );

关闭客户连接:

         printf( "your connection is ok\n");
printf( "now close your connection\n");
close( sock_client );


这就是一个简单的服务端处理过程,阻塞模式下受IO的影响,并发量只有2K左右,前篇的客户端程序的并发量是10000,因此服务端是跟不上的,而且服务端的并发量不受客户端的进程个数影响,的确很小。


四. 服务器端(异步,大并发)

上篇的阻塞模式下服务器的并发只有几K,而真正的server 像nginx, apache, yumeiz 轻轻松松处理几万个并发完全不在话下,因此大并发的场合下是不能用阻塞的。

1W的并发是一个分隔点,如果单进程模型下能达到 的话,说明至少在服务器这块你已经很厉害了。

服务器开发就像一门气功,能不能搞出大并发,容错性处理得怎么样,就是你有没有内功,内功有多深。


异步模式是专门为大并发而生,linux下一般用 epoll 来管理事件,下面就开始我们的异步大并发服务器实战吧。

跟阻塞开发一样,先来看看设计过程:

1.创建事件模型。

2.创建监听连接并监听。

3.将监听连接加入事件模型。

4.当有事件时,判断事件类型。

5.若事件为监听连接,则产生客户连接同时加入事件模型,对客户连接接收发送。

6.若事件为客户连接,处理相应IO请求。


为了让大家一概全貌,我用一个函数实现的( 一个函数写一个2W并发的服务器,你试过么),可读性可能会差点,但是对付这道面试题是绰绰有余了。

实际开发过程如下:

先定义一个事件结构,用于对客户连接进行缓存

[cpp] view plaincopyprint?
  1. struct my_event_s  
  2. {  
  3.     int fd;  
  4.     char recv[64];  
  5.     char send[64];  
  6.   
  7.     int rc_pos;  
  8.     int sd_pos;  
  9. };  

建立缓存对象:

[cpp] view plaincopyprint?
  1. struct epoll_event wait_events[ EPOLL_MAX ];  
  2. struct my_event_s my_event[ EPOLL_MAX ];  


创建监听连接:

[cpp] view plaincopyprint?
  1. sock_server = socket( AF_INET, SOCK_STREAM, 0 );  
  2. flag = fcntl( sock_server, F_GETFL, 0 );  
  3. fcntl( sock_server, F_SETFL, flag | O_NONBLOCK );  


绑定地址并监听:

[cpp] view plaincopyprint?
  1. flag = bind( sock_server, ( struct sockaddr* )&addr_server, sizeofstruct sockaddr ) );  
  2. if( flag < 0 )  
  3. {  
  4.     printf( "your bind is not ok\n" );  
  5.     close( sock_server );  
  6.     return 0;  
  7. }  
  8.   
  9. flag = listen( sock_server, 1024 );  
  10. if( flag < 0 )  
  11. {  
  12.     printf( "your listen is not ok\n");  
  13.     close( sock_server );  
  14.     return 0;  
  15. }  

创建事件模型:

[cpp] view plaincopyprint?
  1. epfd = epoll_create( EPOLL_MAX );  
  2. if( epfd <= 0 )  
  3. {  
  4.     printf( "event module could not be setup\n");  
  5.     close( sock_server );  
  6.     return 0;  
  7. }  


将监听事件加入事件模型:

[cpp] view plaincopyprint?
  1. tobe_event.events = EPOLLIN;  
  2. tobe_event.data.fd = sock_server;  
  3.   
  4. epoll_ctl( epfd,  EPOLL_CTL_ADD, sock_server,  &tobe_event );  

事件模型处理:

[cpp] view plaincopyprint?
  1. e_num = epoll_wait( epfd, wait_events, EPOLL_MAX, WAIT_TIME_OUT );  
  2. if( e_num <= 0 )  
  3. {  
  4.     continue;  
  5. }  
  6.   
  7. for( i = 0; i < e_num; ++i )  
  8. {  


监听处理:

[cpp] view plaincopyprint?
  1. if( sock_server == wait_events[ i ].data.fd )  
  2. {  while(1){  

连接客户端:

[cpp] view plaincopyprint?
  1. sock_client = accept( sock_server, ( struct sockaddr* )&addr_client, ( socklen_t*)&size );  
  2. if( sock_client < 0 )  
  3. {  
  4.     if( errno == EAGAIN )  
  5.     {  
  6.         break;  
  7.     }  
  8.     if( errno == EINTR )  
  9.     {  
  10.         continue;  
  11.     }  
  12.     break;  
  13. }  



将客户端连接设置为异步:

[cpp] view plaincopyprint?
  1. flag = fcntl( sock_client, F_GETFL, 0 );  
  2. fcntl( sock_client, F_SETFL, flag | O_NONBLOCK );  

将客户端连接加入到 事件模型:

[cpp] view plaincopyprint?
  1. tobe_event.events = EPOLLIN | EPOLLET;  
  2. tobe_event.data.u32 = my_empty_index;  
  3.   
  4. epoll_ctl( epfd, EPOLL_CTL_ADD, sock_client, &tobe_event );  
统计每秒并发数并得到系统当前时间:

[cpp] view plaincopyprint?
  1. ++num;  
  2. current = time( 0 );  
  3. if( current > last )  
  4. {  
  5.     printf( "last sec qps:%d\n", num );  
  6.     num = 0;  
  7.     last = current;  
  8. }  

将时间填充到连接缓存中:

[cpp] view plaincopyprint?
  1. memcpy( tobe_myevent->send, ¤t, sizeof(time_t) );  

接收连接内容:

[cpp] view plaincopyprint?
  1. flag = recv( sock_client, tobe_myevent->recv, 64, 0 );  
  2. if( flag < 64 )  
  3. {  
  4.     if( flag > 0 )  
  5.         tobe_myevent->rc_pos += flag;  
  6.     continue;  
  7. }  

[cpp] view plaincopyprint?
  1. if( tobe_myevent->recv[31] || tobe_myevent->recv[63] )  
  2. {  
  3.     printf( "your recv does follow the protocal\n");  
  4.     tobe_myevent->fd = 0;  
  5.     close( sock_client );  
  6.     continue;  
  7. }  
  8.                       
  9.   
  10. flag = send( sock_client, tobe_myevent->send, sizeoftime_t ), 0 );  
  11. if( flag < sizeoftime_t ) )  
  12. {  
  13. <span style="white-space:pre">  </span>tobe_event.events =  EPOLLET | EPOLLOUT;  
  14. <span style="white-space:pre">  </span>epoll_ctl( epfd, EPOLL_CTL_MOD, sock_client, &tobe_event );  
  15.     if( flag > 0 )  
  16.         tobe_myevent->sd_pos += flag;  
  17.     continue;  
  18. }  
  19. tobe_myevent->fd = 0;  
  20. close( sock_client );  

后面进行普通连接事件处理,错误处理:

[cpp] view plaincopyprint?
  1. if( event_flag | EPOLLHUP )  
  2. {  
  3.     tobe_myevent->fd = 0;  
  4.     close( sock_client );  
  5.     continue;  
  6. }  
  7. else if( event_flag | EPOLLERR )  
  8. {  
  9.     tobe_myevent->fd = 0;  
  10.     close( sock_client );  
  11.     continue;  
  12. }  

写事件:

[cpp] view plaincopyprint?
  1. else if( event_flag | EPOLLOUT )  
  2. {  
  3.     if( tobe_myevent->rc_pos != 64 )  
  4.     {  
  5.         continue;  
  6.     }  
  7.   
  8.     if( tobe_myevent->sd_pos >= sizeoftime_t ) )  
  9.     {  
  10.         tobe_myevent->fd = 0;  
  11.         close( sock_client );  
  12.         continue;  
  13.     }  
  14.   
  15.     flag = send( sock_client, tobe_myevent->send + tobe_myevent->sd_pos, sizeoftime_t ) - tobe_myevent->sd_pos, 0 );  
  16.     if( flag < 0 )  
  17.     {  
  18.         if( errno == EAGAIN )  
  19.         {  
  20.             continue;  
  21.         }  
  22.         else if( errno == EINTR )  
  23.         {  
  24.             continue;  
  25.         }  
  26.         tobe_myevent->fd = 0;  
  27.         close( sock_client );  
  28.         continue;  
  29.     }  
  30.   
  31.     if( flag >0 )  
  32.     {  
  33.         tobe_myevent->sd_pos += flag;  
  34.         if( tobe_myevent->sd_pos >= sizeoftime_t ) )  
  35.         {  
  36.             tobe_myevent->fd = 0;  
  37.             close( sock_client );  
  38.             continue;  
  39.         }  
  40.     }  
  41. }  
读事件:

[cpp] view plaincopyprint?
  1. if( event_flag | EPOLLIN )  
  2. {  
  3.     if( tobe_myevent->rc_pos < 64 )  
  4.     {  
  5.         flag = recv( sock_client, tobe_myevent->recv + tobe_myevent->rc_pos, 64 - tobe_myevent->rc_pos, 0 );  
  6.         if( flag <= 0 )  
  7.         {  
  8.             continue;  
  9.         }  
  10.   
  11.         tobe_myevent->rc_pos += flag;  
  12.   
  13.         if( tobe_myevent->rc_pos < 64 )  
  14.         {  
  15.             continue;  
  16.         }  
  17.   
  18.         if( tobe_myevent->recv[31] || tobe_myevent->recv[63] )  
  19.         {  
  20.             printf( "your recv does follow the protocal\n");  
  21.             tobe_myevent->fd = 0;  
  22.             close( sock_client );  
  23.             continue;  
  24.         }  
  25.   
  26.         flag = send( sock_client, tobe_myevent->send, sizeoftime_t ), 0 );  
  27.         if( flag < sizeoftime_t ) )  
  28.         {  
  29.             if( flag > 0 )  
  30.                 tobe_myevent->sd_pos += flag;  
  31.         <span style="white-space:pre">  </span>tobe_event.events = EPOLLET | EPOLLOUT;  
  32.             tobe_event.data.u32 = wait_events[i].data.u32;  
  33.             epoll_ctl( epfd, EPOLL_CTL_MOD, sock_client, &tobe_event );  
  34.             continue;  
  35.         }  
  36.         tobe_myevent->fd = 0;  
  37.         close( sock_client );  
  38.     }  
  39.   
  40. }  
  41.       
到此,一个异步服务器搭建完毕,轻松实现2W的并发量,代码你可以在这里下载,下一篇是完整的代码,满足喜欢在网上看代码的码狂们。