如何有效的屏蔽百度蜘蛛

很多時(shí)候,我們都不會(huì)去把百度蜘蛛去屏蔽掉,但是也有需要去屏蔽一些不必要的抓取,比如一些大型的網(wǎng)站門(mén)戶(hù)網(wǎng),有登錄頁(yè)面或者是注冊(cè)頁(yè)面,還有一些不想讓百度蜘蛛抓取文件都可以利用robots協(xié)議來(lái)完成,那么重慶SEO鵬鵬就講解哈屏蔽百度蜘蛛的具體方法。

一、robots協(xié)議

robots協(xié)議相信大家都不陌生,首先既然要用到robots協(xié)議,那么我們就要先創(chuàng)建一個(gè)記事本,把記事本重命名為robots,然后我們寫(xiě)下robots協(xié)議具體如下:

User-agent: BadBot

Disallow: /

然后保存后通過(guò)FTP工具上傳到網(wǎng)站根目錄即可。

二、robots Meta標(biāo)簽

robots?Meta標(biāo)簽也可以屏蔽百度蜘蛛抓取,這種方法與robots類(lèi)似,但是還是部分搜索引擎不支持,robots?Meta用來(lái)對(duì)某幾個(gè)頁(yè)面單獨(dú)設(shè)置時(shí)使用。其代碼是寫(xiě)在“<head></head>”之間,如下所示:

<head>

<meta?name=”robots”?content=”index,follow”?/>

</head>

三、.htaccess屏蔽

如果說(shuō)使用robots協(xié)議無(wú)法全部屏蔽你的網(wǎng)站,那么你可以在你的網(wǎng)站根目錄下找到.htaccess屏蔽代碼如下:

方法1:

RewriteEngine on

RewriteCond %{HTTP_USER_AGENT} ^Baiduspider [NC]

RewriteRule .* – [F]

方法2:

SetEnvIfNoCase User-Agent “^Baiduspider” bad_bot

<Limit GET POST>

Order Allow,Deny

Allow from all

Deny from env=bad_bot

</Limit>

總結(jié):百度蜘蛛屏蔽方法有許多,以上方法可參考,重慶SEO鵬鵬覺(jué)得還是以robots協(xié)議較好,所以其他方法及時(shí)可以用,但是也不建議去做,因?yàn)橐徊叫⌒母沐e(cuò)了,就會(huì)導(dǎo)致麻煩不斷!

本文來(lái)源:http://www.pengpengseo.com/

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • 去過(guò)MUJI的朋友都能感受到撲面而來(lái)的一股日系簡(jiǎn)潔風(fēng),性冷淡的顏色,條理清晰的收納!實(shí)際上,日本似乎在整理,收納,...
    陽(yáng)小T閱讀 693評(píng)論 0 2
  • 人生真的很怪,時(shí)絕望,時(shí)而又充滿(mǎn)希望,不停的在希望和絕望之間徘徊著,痛并快樂(lè)著前行。 我一直認(rèn)為自己從此與夢(mèng)想無(wú)緣...
    夜光姑娘閱讀 187評(píng)論 0 2
  • 01 打牌 這可以追憶到小時(shí)候,在寒冷的冬天里,我們沒(méi)有手機(jī),沒(méi)有電腦,那會(huì)一個(gè)村里也沒(méi)幾家有電視,...
    道理都懂閱讀 473評(píng)論 0 0

友情鏈接更多精彩內(nèi)容