BurpSuite自带两个模块,相当于以前版本的spider 和scanner 模块
Dashboard
主要分为三块:
tasks:任务
event log:事件日志;这个主要是burpsuite出现问题或异常状况查看日志用,平时一般用不到。
issue activity:动态发现的问题。这个有个坑,比如点了high后,再有新的high级别的漏洞,不会实时刷新,要重新选下才会出来。
tasks中自带了两个模块,相当于以前版本中的spider和scanner模块的结合体,支持自定义创建。
主动扫描
确定一个URL,然后由扫描器中的爬虫模块爬取所有链接,对GET、POST等请求进行参数变形和污染,进行重放测试,然后依据返回信息中的状态码、数据大小、数据内容关键字等去判断该请求是否含有相应的漏洞
被动扫描:在进行手动测试的过程中,代理将流量转发给漏洞扫描器,然后再进行漏洞检测
主动式
在Dashboard仪表盘块下,点击new scan,进行扫描配置
New scan主动扫描
Scan details,设置扫描模式,爬虫或者爬虫且审计,设置扫描范围,可以把url添加到URLs to Scan
new scan (主动扫描)
scan details:选项有两个,一个是爬虫+审计,第二个是只有审计 然后填上URL即可
scan configuration:可以设置自己的UA头,或者按照默认配置即可
Application login options:应用登录选项,只有爬虫检测到登录表单会自动提交,可以自定义设置账户密码,审计用不到
Resource pool options:并发数配置,默认为10
Scan Configuration
常用的设置也就configuration name和user agent。
user agent在miscellaneous下拉框中设置
user agent可以设置成浏览器的请求头,在浏览器控制台network选项的请求中看见。
最后,编辑好设置后,save to library保存到设置库中。以后就方便直接使用了
Crawl爬行配置文件之Scanconfiguration
Crwal Optimization |
爬行的优化 |
最大链接深度更快还是更完整 |
- Maximum link depth:最大的爬行深度
- crawl strategy爬行策略
- Fastest最快的Faster很快的Normal普通的More complete爬得更加完整More complete爬得最完整的
Crawl爬行配置文件之Crawl Limits
Crwal Limits |
爬行最大限制 |
最大时间 最多链接 最大请求数 |
Crawl Limits爬行的限制
Maximum crawl time:设置爬行最长的时间默认150分钟
或者爬行了
Maximum unique locations discovered:爬行长达1500的地址结束 默认1500
Maximum request count:设置发送多少个HTTP请求后结束 默认为空
Crawl爬行配置文件之Login Functions
Login Function |
登陆注册 |
登陆操作:自动注册 用无效的用户名主动触发登陆失败 |
- Login Functions如果有登陆页面是否进行登陆
- Attempt to self-register a user 是否自行注册一个账户
- Trigger login failusers(using invalid username)是否触发登陆失败页面
Crawl爬行配置文件之Handing Application Errors During Crawl
Handing Application |
错误处理 |
爬行过程中的错误处理,比如超时 |
Handing Application Errors During Crawl 错误处理
consecutive requests time out如果出现多少次爬取失败进行跳过
% of requests time out当站点出现百分之多少时连接超时进行跳过这个站点
Auditing
Crawl and Audit审计配置文件之Audit Optimization审计的优化
Crawl and Audit审计配置文件之Audit Optimization审计的优化
Audit Optimization:审计的优化,决定速度,精确性。四个选项分别决定:
基于审计的值,是否跳过不太可能的漏洞检查。例如一个数字值就不会尝试目录遍历漏洞。
将经常出现的问题进行合并。
自动维持 session。只在当选择 Crawl and Audit 模式才有作用。
在必要时遵循重定向。可以在Project options.HTTP.Redirections 设置具体的重定向条件
Crawl and Audit审计配置文件之Issues Reported
Issues Reported审计扫描结果报告
Select by scan type:进行审计的类型选择
passive:被动扫描
Light activer:高危漏洞主动扫描
Medium active:中危漏洞扫描
Intrusive active:侵入漏洞扫描
Javascript analysis:javascript的
漏洞扫描Select individual issues:选择常见漏洞例如sql注入等
忽略的插入点,可以自行设置更改
Crawl and Audit审计配置文件之Handing Application Errors During Audit
扫描时遇见错误处理,和crawl模块一样
if [2] consecutive audit checks fail,skip remaining checks in the current insertion point如果连续两次进行审计失败的插入点进行跳过
if [2] consecutive insertion points fail,skip remaining insertion points,and flag audit item as failed如果两个插入点失败了,那么所有插入点都进行跳过
consecutive requests time out如果出现多少次爬取失败进行跳过
% of requests time out当站点出现百分之多少时连接超时进行跳过这个站点
Crawl and Audit审计配置文件之Insertion Point Types
审计插入点配置
URL parameter values:URL地址插入值
Body parameter values:Body里面插入值
Cookie parameter values:Cookie里面插入值
Paramter name:URL参数名字插入(可以造成文件包含漏洞等)
HTTP headers:http消息头插入
Entire body(for relevant conten types):整个body插入
URL path filename:URL地址filename参数插入值
URL path folders:URL中的路径文件夹插入值
Crawl and Audit审计配置文件之Modifying Parameter Locations
Modifying Parameter插入点位置替换,交叉检测
URL to body:将URL中的测试值放在Body中
URL to cookie:将URL中的测试值放在cookie中
Body to URL:将Body测试值放在URL中
Body to cookie:将Body测试值放在cookie中
Cookie to URL:将cookie值的测试值放在URL中
Cookie to body:将cookie值的测试值放在body中
Crawl and Audit审计配置文件之Ignored Insertion Points
忽略的插入点,可以自行设置更改
Crawl and Audit审计配置文件之Frequently Occurring Insertion Points
Frequently Occurring Insertion Points:当大量的插入点结果没有区别的时候,更高效的扫描
misc insertion Point Options
杂项插入点选项
javaScript Analysis
javascript Analysis 分析
Application login
application login设置登录对于没有验证码的网站,可以使用这个。软件会自动填入账号和密码到需要密码和账号的地方。
Resource pool
resource pool资源池
设置同时请求数,请求之间间隔多少时间。在Tasks界面也能改。
maximum concurrent同时请求数,delay between requests每个请求间隔
被动式
有爬虫和审计两个功能的设置:
live passive crawl from proxy实时被动爬虫(来自代理所有流量的被动抓取)
live audit from proxy实时审计(来自代理所有流量的实时审计)
被动式是几乎不额外构造请求进行爬虫和扫描,根据用户浏览网页进行常规请求,并对请求的数据进行简单分析。
New live task新的实时任务
Live audit,动态审计
Live passive crawl,动态被动爬虫
Tools scope,选择使用哪种工具作为范围
URL Scope,选择使用url的范围
deduplication,删除重复url,减少重复扫描
后面的功能和主动扫描基本一样
View Details
Sacn type:扫描类型
Scope:扫描域名称
Configuration:扫描配置文件
Requests:HTTP请求次数Errors:连接超时错误次数
Unique locations:发起的单独的地址,可以证明爬取到了很多重复的地址
扫描的过程
发现的漏洞
二、Event log日志信息
BurpSuite出现问题可以从这里查看,一般用不到
三、Issue activity发现的问题
发现的网站漏洞会出现在这里
原文转载自,助安社区(https://secself.com/)
关注公众号【助安社区】网络安全零基础到入门都在这,社区内部红队沙龙、资源共享和大厂工作经验。真正热爱安全和喜欢技术交流的小伙伴欢迎加入我们。