文件名称:基于linux/C++的网络爬虫
文件大小:3.8MB
文件格式:ZIP
更新时间:2020-08-19 09:02:43
网络爬虫
基于linux下的网络爬虫的编写,有详细的注释和文档,方便初学者的学习
【文件预览】:
craeler
----download()
----src()
--------DnsThread.h(814B)
--------SendThread.cpp(615B)
--------BloomFilter.cpp(3KB)
--------PluginMngr.cpp(4KB)
--------Url.h(2KB)
--------StrKit.h(1KB)
--------DnsThread.cpp(5KB)
--------RecvThread.h(591B)
--------Plugin.h(769B)
--------Socket.h(1KB)
--------Hash.cpp(3KB)
--------UrlFilter.h(616B)
--------Hash.h(1KB)
--------Thread.cpp(1KB)
--------Log.h(1KB)
--------Precompile.h(849B)
--------SendThread.h(420B)
--------MultiIo.cpp(2KB)
--------Socket.cpp(12KB)
--------RecvThread.cpp(968B)
--------Main.cpp(2KB)
--------Http.h(980B)
--------PluginMngr.h(2KB)
--------Configurator.h(2KB)
--------Makefile(657B)
--------Thread.h(671B)
--------MultiIo.h(1KB)
--------WebCrawler.h(2KB)
--------UrlQueues.h(3KB)
--------Url.cpp(5KB)
--------UrlQueues.cpp(14KB)
--------Configurator.cpp(4KB)
--------StrKit.cpp(4KB)
--------BloomFilter.h(1KB)
--------WebCrawler.cpp(11KB)
--------Log.cpp(4KB)
----plugins()
--------MaxDepth.cpp(1KB)
--------SaveImageToFile.cpp(5KB)
--------MaxDepth.mak(738B)
--------DomainLimit.h(877B)
--------mkall(305B)
--------HeaderFilter.mak(248B)
--------SaveHTMLToFile.cpp(2KB)
--------HeaderFilter.h(822B)
--------SaveImageToFile.mak(254B)
--------SaveImageToFile.h(768B)
--------DomainLimit.mak(246B)
--------DomainLimit.cpp(3KB)
--------MaxDepth.h(708B)
--------SaveHTMLToFile.h(807B)
--------SaveHTMLToFile.mak(252B)
--------HeaderFilter.cpp(2KB)
----docs()
--------详细设计.pdf(3.77MB)
--------概要设计.pdf(894KB)
----bin()
--------WebCrawler.cfg(598B)
--------WebCrawler.scr(897B)