屏蔽百度蜘蛛方法之一二
...
繼淘寶屏蔽百度蜘蛛以后,各大門(mén)戶(hù)先后屏蔽百度,屏蔽百度已經(jīng)成為今天的熱門(mén)話題.如果你也想屏蔽百度,那就試試下面的方法把
首先我自己不會(huì)屏蔽baiduspider,也不大相信baiduspider會(huì)故意忽略robots.txt,但如果你真的想屏蔽 baiduspider,可嘗試以下方法:
1. 上傳一個(gè)robots.txt到根目錄,內(nèi)容為:
User-agent: baiduspider
Disallow: /
一個(gè)搜索引擎爬蟲(chóng)工作前首先應(yīng)該訪問(wèn)/robots.txt制定排除列表,baiduspider還無(wú)法高級(jí)到故意忽略某些網(wǎng)站的robots.txt,不知道baiduspider怎么折騰才能讓robots.txt失效。
2. 如果僅僅因?yàn)榉?wù)器吃不消,不防按照的指示寫(xiě)信給百度。估計(jì)很多人試過(guò)得不到回復(fù)(Google基本都是2個(gè)工作日內(nèi)回復(fù))。
3. 如果還沒(méi)有辦法,可嘗試.htaccess屏蔽,上傳一個(gè).htaccess文件到根目錄,內(nèi)容為:
SetEnvIfNoCase User-Agent "^baiduspider" ban_bot
deny from env=ban_bot
還可以擴(kuò)大這個(gè)列表,屏蔽那些Email提取爬蟲(chóng)、網(wǎng)站克隆爬蟲(chóng)等(小偷一般不守法,但總比自己什么都不做強(qiáng)):
SetEnvIfNoCase User-Agent "^baiduspider" ban_bot
SetEnvIfNoCase User-Agent "^HTTrack" ban_bot
SetEnvIfNoCase User-Agent "^EmailCollector" ban_bot
SetEnvIfNoCase User-Agent "^EmailWolf" ban_bot
SetEnvIfNoCase User-Agent "^ExtractorPro" ban_bot
SetEnvIfNoCase User-Agent "^Offline" ban_bot
SetEnvIfNoCase User-Agent "^WebCopier" ban_bot
SetEnvIfNoCase User-Agent "^Webdupe" ban_bot
SetEnvIfNoCase User-Agent "^WebZIP" ban_bot
SetEnvIfNoCase User-Agent "^Web Downloader" ban_bot
SetEnvIfNoCase User-Agent "^WebAuto" ban_bot
SetEnvIfNoCase User-Agent "^WebCapture" ban_bot
SetEnvIfNoCase User-Agent "^WebMirror" ban_bot
SetEnvIfNoCase User-Agent "^WebStripper" ban_bot
deny from env=ban_bot
.htaccess要用文本方式上傳,有些Apache配置比較怪異,防止引起沖突建議上傳后立刻看看是否影響普通用戶(hù)的訪問(wèn)。如果瀏覽正常,再用FlashGet模擬baiduspider測(cè)試這個(gè).htaccess是否工作,方法是:
FlashGet->工具->選項(xiàng)->協(xié)議,把HTTP用戶(hù)代理改成用戶(hù)自定義:baiduspider;然后用FlashGet下載該網(wǎng)站任意頁(yè)面,在FlashGet的下載日志里得到HTTP/1.1 403 Forbidden則成功.
下一條:ASP字符串函數(shù)大全