文件名称:LinkCrawler:在网页中查找损坏的链接
文件大小:37KB
文件格式:ZIP
更新时间:2024-02-26 01:13:28
dotnet http-requests urls console-application http-response
LinkCrawler 简单的C#控制台应用程序,它将对给定的网页进行爬网以获取损坏的图像标签和超链接。 其结果将被写入输出。 现在,我们有以下输出:console,csv,slack。 为什么? 因为知道某个网页何时由您负责对用户显示断开的链接很有用。 我让它连续运行,但是您不必这样做。 例如,在升级CMS,更改数据库方案,迁移内容等之后,可能有必要知道是否引入了断开的链接。 只需运行此工具一次,您就会确切知道断开了多少个链接,链接到的位置以及它们的位置。 建立 克隆回购 :backhand_index_pointing_right: 在Visual Studio中打开解决方案 :backhand_index_pointing_right: 建立 :oncoming_fist: AppVeyor用作CI,因此当将代码推送到此存储库
【文件预览】:
LinkCrawler-develop
----.gitattributes(2KB)
----LinkCrawler()
--------LinkCrawler.sln(1KB)
--------LinkCrawler()
--------LinkCrawler.Tests()
----LICENSE.md(1KB)
----README.md(4KB)
----.gitignore(4KB)