[ Crawler ] 爬虫防屏蔽技巧

时间:2022-01-16 20:40:54

技巧1  仿真Request(使用随机UserAgent、随机Proxy与随机时间间隔对墙进行冲击)

准备UserAgent array与Proxy array,随机拼对,进行访问。一般情况下,会有 ScrapManager 下面包含 UserAgentManager 与 ProxyManager的一些封装。注意在轮询遍历时候,需要Sleep一定的时间。

Thread.Sleep(Consts.RandInt() * 1000);
public class ScrapManager
{
     public static void Load()
     {
        ProxyManager.Load();
        UserAgentManager.Load();
     }

     public static void Next( )
     {
        ProxyManager.Next();
        UserAgentManager.Next();
     }
}
public class ProxyManager
{
   public static string Proxy = " your proxy ";
    public static void Load()
   {

   }

   public static Next()
   { 

   }
}
public class UserAgentManager
{
   public static string UserAgent = "Mozilla/5.0 (compatible; MSIE 10.0; Windows NT 6.2; Trident/6.0)";

   public static void Load()
   {

   }

   public static Next()
   {

} }
string HtmlContent  = string.Empty;

// Request
HttpWebRequest m_HttpWebRequest
= (HttpWebRequest)WebRequest.Create(“ your link”); // Proxy m_HttpWebRequest.Proxy = new WebProxy(ProxyManager.Proxy, true); // UserAgent m_HttpWebRequest.UserAgent = UserAgentManager.UserAgent; m_HttpWebRequest.Method = "GET"; m_HttpWebRequest.Timeout = -1; // Response
HttpWebResponse m_HttpWebResponse
= (HttpWebResponse)m_HttpWebRequest.GetResponse(); using (StreamReader reader = new StreamReader(m_HttpWebResponse.GetResponseStream())) { HtmlContent = reader.ReadToEnd(); reader.Close(); }

 总结:保持随机性,一般能不会被完全屏蔽。受限于手上的代理数,需要很多的代理,博主本人手上有14个代理,还是感到有点吃力。


技巧2  Iframe嵌套原页面使用前段抓取(针对load script html page)

 参考:http://www.cnblogs.com/VincentDao/archive/2013/02/05/2892466.html 

 总结:实现较为简单,适合扒取脚本load data的网站。

 

技巧3  仿造Cookie(针对某些门户的屏蔽措施)

// Cookie
CookieContainer m_CookieContainer = new CookieContainer();
m_HttpWebRequest.CookieContainer = m_CookieContainer;
m_HttpWebRequest.CookieContainer.Add(new Cookie() { Name = "key", Value = "value", Domain = www.example.com });

 总结:可以使用IE开发人员工具,Firefox,Chrome对request与response的Cookie进行监测。一般解决商城、社交网络的网页扒取。

 

技巧4  使用Selenium调用浏览器扒取页面

 

 [ Crawler ] 爬虫防屏蔽技巧

 总结:被屏蔽概率最低,能很好的解决以上暴露的不足与问题。对Dev的水平要求较高。