目录
1..... libpcap简介... 1
2..... libpcap捕包过程... 2
2.1 数据包基本捕包流程... 2
2.2 libpcap捕包过程... 4
2.3 libpcap 1.3.0源码对照... 6
2.3.1 创建环形队列... 6
2.3.2 捕获数据包... 6
3..... libpcap捕包优化分析... 7
3.1处理流程单一:... 7
3.2高中断服务负荷:... 8
3.3内核态到用户态上下文选择:... 8
3.4数据拷贝和内存分配消耗:... 8
4..... 延伸拓展... 8
4.1 libpcap多线程捕包... 8
4.2 Linux并行运算... 9
4.3 零拷贝发包... 9
5..... 参考资料:... 9
1. libpcap简介
libpcap是unix/linux平台下的网络数据包捕获函数包,大多数网络监控软件都以它为基础。Libpcap可以在绝大多数类unix平台下工作.Libpcap提供了系统独立的用户级别网络数据包捕获接口,并充分考虑到应用程序的可移植性。Libpcap可以在绝大多数类unix平台下工作。
在windows平台下,一个与libpcap 很类似的函数包 winpcap 提供捕获功能,其官方网站是http://winpcap.polito.it/。
2. libpcap捕包过程
2.1 数据包基本捕包流程
具体的Linux数据包处理流程如图1 所示。数据包从网卡经过内核最终到达用户空间的应用程序,其中经过三次处理:中断服务、软中断和应用程序,使用三个缓存:DMA、包队列和插口。
在网卡驱动中存在运行时内存分配,从内核到用户态时存在一次内存拷贝。
通过对图 1 进行分析可知,以下几个方面的问题可能会限制系统数据包的捕获处理能
力:
1)处理流程单一:整个处理流程串行化,其处理能力受限于整个流程的任何一处“短
板”。在多核架构系统中这样的处理方式无法发挥并行优势,存在极大的资源浪费。
2)高中断服务负荷:由于采用每接收一个数据包就产生一次中断的方式,当数据包以
很高的速率到达时,即使最快的处理器也会被持续的中断服务请求占用而无法处理数据包,从而导致数据包丢失。
3)内核态到用户态上下文选择:当数据包由内核态进入用户态时会发生上下文选择切
换,从而导致用户态任务延迟几毫秒开始。
4)数据拷贝和内存分配消耗:DMA 缓存、内核及用户内存间的数据拷贝占用了大量的CPU 资源。
2.2 libpcap捕包过程
在Linux中,数据包捕获的基础是PACKET套接字,libpcap是对PACKET套接字的简单封装.上图是libpcap的结构图,图中的流程分为两部分,箭头表示数据包的流向.上图左半部由网络子系统发起,是PACKET套接字捕获数据包的过程.PACKET套接字在网络协议栈和网卡(network interface card,NIC)设备之间设置钩子函数.当协议栈通过NIC发送数据包或者NIC接收到数据包由驱动送入协议栈处理时,数据包被钩子函数捕获送入PACKET 套接字中.
PACKET套接字的核心模块包括两个部分:
1) BPF(berkeley packet filter)过滤器.BPF根据用户设置的过滤规则计算应该接收的数据包长度值,如果该值比数据包的长度小,那么数据包将会被截短.特别地,如果该值为0,数据包会被PACKET套接字丢弃而直接返回协议栈进行网络层的处理.BPF在Linux中,BPF被用于内核进行数据包过滤,以减小提交给应用程序的数据包的包数和字节数,提高系统性能.
2)缓存队列(BufferQ).用于缓存供应用程序读取的数据包,如果队列长度超过了预设缓存区的长度,那么数据包将会被丢弃.共享内存队列,共享内存被划分为固定大小的帧,数据包被按顺序拷贝到帧中,然后内核设置数据有效位,表示该帧存放了一个有效的数据包.图2右半部由应用程序发起,从PACKET 套接字的缓存队列中获取数据包.在共享内存队列中,libpcap在打开NIC设备时,使用mmap 函数将共享内存映射到应用程序的虚拟空间中.libpcap根据帧大小按顺序读取缓存区.如果当前帧的数据有效位被设置,则将该数据包提交给应用程序处理,在处理完毕以后,libpcap清除当前帧的有效位,允许内核再次使用该帧;否则,libpcap使用poll()函数等待数据包的到达.与libpcap1.0之前版本相比,共享内存缓存队列减少了一次数据包拷贝和调用recvmsg()进入、退出内核态的系统开销,因此有较大的性能提升。
把上面比较抽象的文字翻译成一个简单的示例图如下所示:
2.3 libpcap 1.3.0源码对照
对应于libpcap 1.3.0源代码如下:
2.3.1 创建环形队列
主要步骤:
1.[setup] socket() -------> creation of the capture socket
2.setsockopt() ---> allocation of the
circular buffer (ring)
3.mmap() ---------> maping of the allocated
buffer to the
user process
对应libpcap-1.3.0源代码:
static
int
create_ring(pcap_t *handle, int *status)函数中:
2.pcap-linux.c:3594行
if
(setsockopt(handle->fd, SOL_PACKET, PACKET_RX_RING,
(void
*) &req, sizeof(req))) {
3.Pcap-linux.c:3627行
handle->md.mmapbuf = mmap(0,
handle->md.mmapbuflen,
PROT_READ|PROT_WRITE, MAP_SHARED,
handle->fd, 0);
2.3.2 捕获数据包
[capture] poll() ---------> to wait for
incoming packets
[process]trigger the user process
[reset frame] reset the status of the frame for
kernel to reuse
对应libpcap-1.3.0源代码:
static int
pcap_read_linux_mmap(pcap_t *handle, int
max_packets, pcap_handler callback, u_char *user)函数中:
1.pcap-linux.c:3811行
ret = poll(&pollinfo, 1, timeout);
2.pcap-linux.c:4053行
callback(user, &pcaphdr, bp);
3.pcap-linux.c:4060行
switch (handle->md.tp_version) {
case TPACKET_V1:
h.h1->tp_status = TP_STATUS_KERNEL;
break;
3. libpcap捕包优化分析
我们把之前2.1提到的可能会限制系统数据包的捕获处理能力的地方写出来:
3.1处理流程单一:
因为原生的libpcap是单线程的,一个数据包的处理流程是“捕包—处理包—捕下个包-处理下个包。。。”所以处理包的时间长短会影响下一个捕包的开始时间,解决这个有2个办法,一个是优化处理包流程,缩短处理包时间,但这个方法治标不治本,另一个方法是用多线程的方式捕包和处理包。
3.2高中断服务负荷:
这个是操作系统捕包的关键,现在一般有2种思路
A:把网卡的多个收包队列中断均衡的绑定到多个不同的cpu上。(网上有很多教程)
B:更换网卡驱动,可以把网卡一般现有的驱动即依赖中断接收数据包,改为轮询方式,例如现在的NAPI驱动和Intel的DPDK都有用到。
3.3内核态到用户态上下文选择:
现在的libpcap1.3.0支持一次捕获多个数据包, 通过指定pcap_dispatch(pcap_t
*p, int cnt, pcap_handler callback, u_char *user)接口中的cnt变量,而且现在的捕包不是基于recvmsg的系统调用,而是共享内存队列,所以大大减少了上下切换。
3.4数据拷贝和内存分配消耗:
由于采用了现在的共享内存环形队列,即零拷贝技术,用户态和内核态只有一份数据拷贝,所以捕获每个数据包都减少了一次数据拷贝。
4. 延伸拓展
4.1 libpcap多线程捕包
用什么样的多线程架构方式更能发挥libpcap捕包性能?
4.2 Linux并行运算
使用多线程或移植到多线程的时候,有什么注意事项?
4.3 零拷贝发包
既然操作系统有“PACKET_RX_RING”这个关键字支持零拷贝捕包,那会不会也有零拷贝发包呢?
5. 参考资料:
Libpcap-MT:一种多线程的通用数据包捕获库
温曙光,文献资料
高速网络数据包捕获技术研究
郭占东,文献资料
网络安全开发包详解
刘文涛,书籍
基于 linux 平台的 libpcap 源代码分析
施聪,IBM论坛
PACKET_MMAP's documentation
Uaca,国外网络资料