总体的信息收集思路:先被动信息收集,最开始的收集域名,接着查询IP,域名反查IP,天眼查,微博/人人/QQ,紧接着查询端口,对应端口的Banner,端口对应的服务,接着收集web的Banner,分析Web是什么语言写的,什么框架,这些框架存在什么漏洞,分析WEB架构,分析URL的逻辑,看URL的命令命名规则,如果带id,那么可能存在SQL注入等等,接下来就是看web的目录级别,爆破目录,隐藏目录,去googlehacker查询,看看目录是否有缓存,如果有网站cdn,采用多地测试,再收集子域名,邮件等等,主动信息收集,包括端口扫描Nmap,资产Banner扫描goby,公开网站搜索泄露的代码searchcode.com
- 查看源文件
- 隐藏的链接
- 注释内容
- JS文件
- 网站编写语言
- Web指纹探测
- Web架构
- 命名规则推测敏感目录文件
- addnews.php,viewnews.php,delnews.php
- /2022-1-12/1.jpg,/2022-1-12/2.jpg
- 暴力探测敏感目录和文件
- 探测导的目录中再探测敏感目录文件
- .bak文件、.tmp文件、.svn/entries文件
- dirsearch扫描目录
- 访问不存在的文件和目录
- 对比访问存在的目录和不存在目录的区别(如果出错,有可能报错出物理路径等)
- 错误码分析
- 收集网站的开发人员和管理维护人员信息
- Whois查询
- DNS查询
- 社会工程学
- 注意返回的状态码
- w
- HTTP响应头信息
- 比如Server:BIG-IP暗示站点使用了负载均衡,如果一个站点使用负载均衡,并且只有一个服务器配置不当,泄露F5的IP信息。