robots是什么,怎么寫?協(xié)議標準是什么?

發(fā)布時間:2015-06-09 發(fā)布者: 點擊:

首頁>網(wǎng)站推廣

首先我們得要知道robots文件時干什么的?存放的位置在哪里?

robots文件主要是告訴搜素引擎,網(wǎng)站哪些頁面可以抓取,哪些頁面拒絕抓取,下面我們看下幾個截圖!

京東robots截圖

京東牛B吧,拒絕了360,一淘網(wǎng),

disallow的主要作用是拒絕某些指定的搜索引擎抓取我們不想讓他看見的頁面,作為企業(yè)站的我們肯定是希望搜索引擎來抓取我們那么這個disallow到底有什么具體應用呢,其實我們可以用disallow拒絕404錯誤的地址頁面或者重復的頁面!

 User-agent: * (聲明禁止所有的搜索引擎抓取以下內容)

Disallow:/blog/(禁止網(wǎng)站blog欄目下所有的頁面。比如說:/blog/123.html)

Disallow:/api(比如說:/apifsdfds/123.html也會被屏蔽。)

 Disallow:*?*(只要你的路徑里面帶有問號的路徑,那么這條路徑將會被屏蔽。比如說:http://xxxxx/?expert/default.html將會被屏蔽。)

Disallow:/*.php$(意思是以.php結尾的路徑全部屏蔽掉。)

 Sitemap:http://xxx.com/sitemap.html 網(wǎng)站地圖 告訴爬蟲這個頁面是網(wǎng)站地圖

User-agent: * 允許訪問所有

Disallow: /   拒絕所有

Allow: /tmp 這里定義是允許爬尋tmp的整個目錄

Allow: .htm$ 僅允許訪問以".htm"為后綴的URL。

Allow: .gif$ 允許抓取網(wǎng)頁和gif格式圖片

更多搜索引擎體驗請點擊

相關推薦文章