可配置的并行Web爬网程序,旨在对网站进行爬网以获取内容。-Rust开发

时间:2024-06-16 13:25:38
【文件属性】:

文件名称:可配置的并行Web爬网程序,旨在对网站进行爬网以获取内容。-Rust开发

文件大小:8KB

文件格式:ZIP

更新时间:2024-06-16 13:25:38

Rust Network programming

url-crawler可配置的并行Web爬网程序,旨在对网站进行爬网以获取内容。 Changelog Docs.rs url-crawler一个可配置的并行Web爬网程序,旨在对网站进行爬网以获取内容。 Changelog Docs.rs示例外部箱url_crawler; 使用std :: sync :: Arc; 使用url_crawler :: *; ///用于在HEAD请求之前过滤搜寻器中的内容的函数。 /// ///仅允许目录条目和具有`deb`扩展名的文件。 fn apt_filter(url:&Url)-> bool {let url = url.as_str(); url.ends_with(“ /”)|| url.ends_with(“。deb”)} pub fn main(){//创建搜寻器设计


【文件预览】:
url-crawler-master
----.gitignore(32B)
----src()
--------scraper.rs(1KB)
--------lib.rs(12KB)
----LICENSE(1KB)
----CHANGELOG.md(581B)
----Cargo.toml(468B)
----examples()
--------example.rs(884B)
----README.md(2KB)

网友评论