如下所示:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
#coding:utf-8
'''''
Created on 2014-7-24
@author: Administrator
'''
import urllib2
try :
url = "http://www.baidu.com"
f = urllib2.urlopen(url, timeout = 0 ) #timeout设置超时的时间
result = f.read()
# print len(result)
print result
except Exception,e:
print 'a' , str (e)
|
以上这篇python爬虫超时的处理的实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持服务器之家。
原文链接:https://blog.csdn.net/ztsghjls/article/details/64438872