Latest News

Home » 搜尋引擎排名SEO文章 » 如何寫robots.txt(指定搜尋引擎只收錄特殊的內容)?

如何寫robots.txt(指定搜尋引擎只收錄特殊的內容)?

如何寫robots.txt(指定搜尋引擎只收錄特殊的內容)?

有些網站管理者似乎對robots.txt並沒有引起多大重視(或許不懂怎麼做?),今天想通過這篇文章來簡單談一下robots.txt的寫作。

robots.txt基本介紹

robots.txt是一個純文字檔案,在這個檔案中網站管理者可以聲明該網站中不想被robots訪問的部分,或是指定搜尋引擎只收錄特殊的內容。

當一個搜尋機器人(有的叫搜尋蜘蛛)訪問一個站台時,它會首先檢查該站台根目錄下是否存在robots.txt,如果存在,搜尋機器人就會按照該檔案中的內容來確定訪問的範圍;如果該檔案不存在,那麼搜尋機器人就沿著連結抓取。

另外,robots.txt必須放置在一個站台的根目錄下,而且檔名必須全部小寫。

robots.txt寫作語法

首先,我們來看一個robots.txt範例:http://網址/robots.txt

訪問以上具體位址,我們可以看到robots.txt的具體內容如下:

# Robots.txt file from http://網址
# All robots will spider the domain

User-agent: *
Disallow:

以上文字表達的意思是容許所有的搜尋機器人訪問網址站台下的所有檔案。

具體語法分析:其中#後面文字為說明訊息;User-agent:後面為搜尋機器人的名稱,後面如果是*,則泛指所有的搜尋機器人;Disallow:後面為不容許訪問的檔案目錄。

下面,我將列舉一些robots.txt的具體用法:

容許所有的robot訪問

User-agent: *
Disallow:

或是也可以建一個空檔案 「/robots.txt」 file

禁止所有搜尋引擎訪問網站的任何部分

User-agent: *
Disallow: /

禁止所有搜尋引擎訪問網站的幾個部分(下例中的01、02、03目錄)

User-agent: *
Disallow: /01/
Disallow: /02/
Disallow: /03/

禁止某個搜尋引擎的訪問(下例中的BadBot)

User-agent: BadBot
Disallow: /

只容許某個搜尋引擎的訪問(下例中的Crawler)

User-agent: Crawler
Disallow:

User-agent: *
Disallow: /

另外,我覺得有必要進行拓展說明,對robots meta進行一些介紹:

Robots META標籤則主要是針對一個個具體的頁面。和其他的META標籤(如使用的語系、頁面的描述、關鍵詞等)一樣,Robots META標籤也是放在頁面的<head></head>中,專門用來告訴搜尋引擎ROBOTS如何抓取該頁的內容。

Robots META標籤的寫法:

Robots META標籤中沒有大小寫之分,name=」Robots」表示所有的搜尋引擎,可以針對某個具體搜尋引擎寫為name=」BaiduSpider」。 content部分有四個指令選項:index、noindex、follow、nofollow,指令間以「,」分隔。

INDEX 指令告訴搜尋機器人抓取該頁面;

FOLLOW 指令表示搜尋機器人可以沿著該頁面上的連結繼續抓取下去;

Robots Meta標籤的預設值是INDEX和FOLLOW,只有inktomi除外,對於它,預設值是INDEX,NOFOLLOW。

這樣,一共有四種組合:

<META NAME=」ROBOTS」 CONTENT=」INDEX,FOLLOW」>
<META NAME=」ROBOTS」 CONTENT=」NOINDEX,FOLLOW」>
<META NAME=」ROBOTS」 CONTENT=」INDEX,NOFOLLOW」>
<META NAME=」ROBOTS」 CONTENT=」NOINDEX,NOFOLLOW」>

其中

<META NAME=」ROBOTS」 CONTENT=」INDEX,FOLLOW」>可以寫成<META NAME=」ROBOTS」 CONTENT=」ALL」>;

<META NAME=」ROBOTS」 CONTENT=」NOINDEX,NOFOLLOW」>可以寫成<META NAME=」ROBOTS」 CONTENT=」NONE」>

目前看來,絕大多數的搜尋引擎機器人都遵守robots.txt的規則,而對於Robots META標籤,目前支援的並不多,但是正在逐漸增加,如著名搜尋引擎GOOGLE就完全支援,而且GOOGLE還增加了一個指令「archive」,可以限制GOOGLE是否保留網頁快照。例如:

<META NAME=」googlebot」 CONTENT=」index,follow,noarchive」>

表示抓取該站台中頁面並沿著頁面中連結抓取,但是不在GOOLGE上保留該頁面的網頁快照。

About

發佈留言