if(preg_match("/(Googlebot|Msnbot|YodaoBot|Sosospider|baiduspider|google|baidu|yahoo|sogou|bing|coodir|soso|youdao|zhongsou|slurp|ia_archiver|scooter|spider|webcrawler|OutfoxBot)/i", $_SERVER['HTTP_USER_AGENT']))
{
header('HTTP/1.1 403 Forbidden');
exit;
}
10 个解决方案
#1
LZ的思路我懂了 但是每个文件都包含这段文字还是主页包含就好了?
#2
哦,忘记说一句,我的系统是单一入口,直接加入口文件中即可。多入口那没办法,只好各个入口文件头部都加了
#3
这招绝
#4
领教了,灭绝师太
#5
不错!!!
不过为什么要阻止那?蜘蛛们多爬行不是更利于搜索引擎收录你的站点,更利于推广?
不过为什么要阻止那?蜘蛛们多爬行不是更利于搜索引擎收录你的站点,更利于推广?
#6
有些东西是不希望被搜索引擎收录的,比如涉及到邮件地址、电话号码、姓名等信息
#7
有道理!!!!
#8
这种方式能阻止的都是“友好的蜘蛛”,当然也许这些“友好的蜘蛛”并没有完全尊重 robots.txt 的指示,但它至少告诉了你“我是××蜘蛛”。
如果是不友好的蜘蛛,这种判断也就失效了。
如果是不友好的蜘蛛,这种判断也就失效了。
#9

如果是不友好的蜘蛛,这种判断也就失效了。
确实,比如某些黑客写的貌似“万能蜘蛛”一类的 他就不申明“我是xx蜘蛛”,那就无法抵挡了。
#10
#1
LZ的思路我懂了 但是每个文件都包含这段文字还是主页包含就好了?
#2
哦,忘记说一句,我的系统是单一入口,直接加入口文件中即可。多入口那没办法,只好各个入口文件头部都加了
#3
这招绝
#4
领教了,灭绝师太
#5
不错!!!
不过为什么要阻止那?蜘蛛们多爬行不是更利于搜索引擎收录你的站点,更利于推广?
不过为什么要阻止那?蜘蛛们多爬行不是更利于搜索引擎收录你的站点,更利于推广?
#6
有些东西是不希望被搜索引擎收录的,比如涉及到邮件地址、电话号码、姓名等信息
#7
有道理!!!!
#8
这种方式能阻止的都是“友好的蜘蛛”,当然也许这些“友好的蜘蛛”并没有完全尊重 robots.txt 的指示,但它至少告诉了你“我是××蜘蛛”。
如果是不友好的蜘蛛,这种判断也就失效了。
如果是不友好的蜘蛛,这种判断也就失效了。
#9

如果是不友好的蜘蛛,这种判断也就失效了。
确实,比如某些黑客写的貌似“万能蜘蛛”一类的 他就不申明“我是xx蜘蛛”,那就无法抵挡了。