在使用爬虫爬取网络数据时,如果长时间对一个网站进行抓取时可能会遇到IP被封的情况,这种情况可以使用代理更换ip来突破服务器封IP的限制。
随手在百度上搜索免费代理IP,可以得到一系列的网站,这里我们通过对西刺网站的抓取来举例。
通过编写一个爬虫来抓取网站上面的IP地址,端口,及类型,把这些信息存到本地。这里不做介绍。
验证代理IP是否可用。原理是使用代理IP访问指定网站,如果返回状态为200,表示这个代理是可以使用的。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
|
# _*_ coding:utf-8 _*_
import urllib2
import re
class TestProxy( object ):
def __init__( self ):
self .ip = '106.46.136.64'
self .port = '808'
self .url = 'http://www.baidu.com'
self .timeout = 3
self .regex = re. compile (r 'baidu.com' )
self .run()
def run( self ):
self .linkWithProxy()
def linkWithProxy( self ):
server = 'http://' + self .ip + ':' + self .port
opener = urllib2.build_opener(urllib2.ProxyHandler({ 'http' :server}))
urllib2.install_opener(opener)
try :
response = urllib2.urlopen( self .url, timeout = self .timeout)
except :
print '%s connect failed' % server
return
else :
try :
str = response.read()
except :
print '%s connect failed' % server
return
if self .regex.search( str ):
print '%s connect success .......' % server
print self .ip + ':' + self .port
if __name__ = = '__main__' :
Tp = TestProxy()
|
也可以使用requests包来进行验证,要少写好多代码
1
2
3
4
5
6
7
|
import requests
try :
requests.get( 'http://wenshu.court.gov.cn/' , proxies = { "http" : "http://121.31.154.12:8123" })
except :
print 'connect failed'
else :
print 'success'
|
把验证通过的IP保存在redis里面,在IP被禁止的时候可以从redis中取出来使用。
受@齐俊杰的提醒,添加一种使用telnet来验证的方法:
1
2
3
4
5
6
7
|
import telnetlib
try :
telnetlib.Telnet( '127.0.0.1' , port = '80' , timeout = 20 )
except :
print 'connect failed'
else :
print 'success'
|
总结
以上所述是小编给大家介绍的使用python验证代理ip是否可用,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对服务器之家网站的支持!
原文链接:https://www.jianshu.com/p/588241a313e7