robots.txt必須放置在一個(gè)站點(diǎn)的根目錄下,而且文件名必須全部小寫(xiě)。 "/>

一区二区三区在线播放_国产www在线_九九在线精品_韩日一区二区_操人视频网站_久草视

當(dāng)前位置: 博客首頁(yè) >> Google優(yōu)化 >> 怎樣向百度提交站點(diǎn)地圖文件?robots.txt寫(xiě)法詳解 rss

怎樣向百度提交站點(diǎn)地圖文件?robots.txt寫(xiě)法詳解

成都網(wǎng)站優(yōu)化 在 2010-07-27 發(fā)表,評(píng)論(0),閱讀(0)

怎樣向百度提交站點(diǎn)地圖文件?
 
我們知道可以通過(guò)Google 網(wǎng)站管理員工具向 Google 提交站點(diǎn)地圖 Sitemap,雅虎/MSN都有相應(yīng)的網(wǎng)站管理員工具以提交站點(diǎn)地圖,具體請(qǐng)查詢(xún):各大搜索引擎網(wǎng)站站長(zhǎng)管理員工具詳解:GOOGLE管理員工具-YAHOO管理員工具-BING管理員工具 http://m.wanhuahuibella.cn/seoblog/article45.html 
 
而百度還沒(méi)有相應(yīng)的網(wǎng)站管理員工具以供提交站點(diǎn)地圖,有待完善.那么如何向百度搜索引擎提交站點(diǎn)地圖Sitemap文件?

搜索引擎都遵循一樣的 Sitemap 協(xié)議,baidu Sitemap 內(nèi)容和形式可以和 Google Sitemap 完全一樣。但因?yàn)榘俣冗€沒(méi)開(kāi)通類(lèi)似 Google 網(wǎng)站管理員工具的提交后臺(tái),所以,我們需要采用以下方式提交"baidu Sitemap" 。

我們可以通過(guò)在 robots.txt 文件中添加以下代碼行來(lái)告訴搜索引擎 Sitemap 的存放位置。包括 XML Sitemap 和 文本形式的 Sitemap。

Sitemap:<sitemap_location>

<sitemap_location> 填寫(xiě) Sitemap 的完整網(wǎng)址

如:Sitemap: http://m.wanhuahuibella.cn/sitemap2010.xml 
 

如果有很多個(gè).xml 或 .txt 文件,則你可以先建立一個(gè)索引文件,把這些.xml 或 .txt 文件的完整網(wǎng)址列在其中。<sitemap_location> 中填寫(xiě)完整的該索引文件的網(wǎng)址。

以下是思為網(wǎng)絡(luò)網(wǎng)站http://m.wanhuahuibella.cn 的robots.txt 文件:

*****************************
允許所有搜索引擎收錄所有頁(yè)面
添加網(wǎng)站站點(diǎn)地圖文件
*****************************

User-agent: *
Allow: /
Sitemap:
http://m.wanhuahuibella.cn/sitemap2010.xml

什么是robots.txt?

  robots.txt是搜索引擎中訪問(wèn)網(wǎng)站的時(shí)候要查看的第一個(gè)文件。Robots.txt文件告訴蜘蛛程序在服務(wù)器上什么文件是可以被查看的。

  當(dāng)一個(gè)搜索蜘蛛訪問(wèn)一個(gè)站點(diǎn)時(shí),它會(huì)首先檢查該站點(diǎn)根目錄下是否存在robots.txt,如果存在,搜索機(jī)器人就會(huì)按照該文件中的內(nèi)容來(lái)確定訪問(wèn)的范圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪問(wèn)網(wǎng)站上所有沒(méi)有被口令保護(hù)的頁(yè)面。
  robots.txt必須放置在一個(gè)站點(diǎn)的根目錄下,而且文件名必須全部小寫(xiě)。
  語(yǔ)法:最簡(jiǎn)單的 robots.txt 文件使用兩條規(guī)則:

  ? User-Agent: 適用下列規(guī)則的漫游器
  ? Disallow: 要攔截的網(wǎng)頁(yè)

具體語(yǔ)法分析:其中#后面文字為說(shuō)明信息;User-agent:后面為搜索機(jī)器人的名稱(chēng),后面如果是*,則泛指所有的搜索機(jī)器人;Disallow:后面為不允許訪問(wèn)的文件目錄。

例如:

允許所有的搜索引擎蜘蛛robot訪問(wèn)

User-agent: *
Allow:

或者也可以建一個(gè)空文件 “/robots.txt” file

禁止所有搜索引擎訪問(wèn)網(wǎng)站的任何部分

User-agent: *
Disallow: /

禁止所有搜索引擎訪問(wèn)網(wǎng)站的幾個(gè)部分(下例中的images/inc/目錄)

User-agent: *
Disallow: /images/
Disallow: /inc/

禁止某個(gè)搜索引擎的訪問(wèn)(例如:禁止百度收錄)

User-agent: Baiduspider
Disallow: /

只允許某個(gè)搜索引擎的訪問(wèn)(例如只允許百度收錄)

User-agent: Baiduspider
Disallow:

User-agent: *
Disallow: /

常見(jiàn)搜索引擎蜘蛛

百度蜘蛛: Baiduspider

GOOGLE蜘蛛:Googlebot

GOOGLE ADWORDS右側(cè)推廣蜘蛛:adsbot-google

有道蜘蛛:youdaobot

微軟蜘蛛:msnbot

Yahoo雅虎蜘蛛:yahoo-mmcrawler

Alexa 蜘蛛:alexa robot

www.dotnetdotcom.org蜘蛛:dotbot

www.exabot.com蜘蛛:exabot

Survey蜘蛛:survey

openbot 蜘蛛:openbot

inktomi 蜘蛛:inktomi

網(wǎng)站管理員必須使蜘蛛程序遠(yuǎn)離某些服務(wù)器上的目錄——保證服務(wù)器性能。比如:大多數(shù)網(wǎng)站服務(wù)器都有程序儲(chǔ)存在“cgi-bin”目錄下,因此在robots.txt文件中加入“Disallow: /cgi-bin”是個(gè)好主意,這樣能夠避免將所有程序文件被蜘蛛索引,可以節(jié)省服務(wù)器資源。一般網(wǎng)站中不需要蜘蛛抓取的文件有:后臺(tái)管理文件、程序腳本、附件、數(shù)據(jù)庫(kù)文件、編碼文件、樣式表文件、模板文件、導(dǎo)航圖片和背景圖片等等。

討論:通過(guò)robots.txt列出限制搜索引擎進(jìn)行目錄抓取,這樣會(huì)將網(wǎng)站管理后臺(tái)及一些重要的文件目錄暴露出來(lái),這將給網(wǎng)站攻擊者以入口,為了保證網(wǎng)站的安全,思為網(wǎng)絡(luò)認(rèn)為這種寫(xiě)法不是很可取,可以變更為:允許搜索引擎抓取指定的文件夾,如果有新的目錄生成,則需要修改robots.txt文件來(lái)完善.如果是企業(yè)網(wǎng)站,個(gè)人建議還是允許抓取所有目錄.

 如果大家有更好的方法,歡迎與我們聯(lián)系,共同交流學(xué)習(xí)!本文原創(chuàng),轉(zhuǎn)載請(qǐng)注明出處!

Tags:站點(diǎn)地圖robots搜索引擎

思為網(wǎng)絡(luò)騰訊企業(yè)微博,請(qǐng)關(guān)注我們:
已有位網(wǎng)友對(duì)“怎樣向百度提交站點(diǎn)地圖文件?robots.txt寫(xiě)法詳解”發(fā)表評(píng)論。

 

m.wanhuahuibella.cn/seoblog/
主站蜘蛛池模板: 国产91精品一区二区视色 | a国产| 国产精品亚洲精品观看不卡 | 性新婚a大黄毛片 | 欧美日韩精品乱国产538 | 中文亚洲欧美日韩无线码 | 久久久久国产精品美女毛片 | 亚洲 国产 日韩 欧美 | 久久精品成人一区二区三区 | 亚洲黄色网站视频 | 亚洲天堂一区二区三区 | 国产区精品 | 国产精品免费视频播放 | 黄色毛片视频 | 亚洲精彩视频在线观看 | 亚洲欧美日韩综合在线 | 日韩精品一区二区三区国语自制 | 亚洲精品综合久久中文字幕 | 日韩成人在线观看视频 | 精品日本一区二区三区在线观看 | 欧美成人一区二区三区 | 免费看男女做好爽好硬视频 | 久久精品国产亚洲欧美 | 欧美另类v | 久久精品国产亚洲a不卡 | 国产精品va一级二级三级 | 欧美精品久久久亚洲 | 亚洲国产精品日韩在线 | 91精品久久久久久久久网影视 | 国产日韩在线看 | 精品免费久久久久国产一区 | 极品久久 | 欧美极品另类 | 国产精品久久久久aaaa | 日韩在线观看视频网站 | 精品精品国产高清a毛片牛牛 | 亚洲日韩视频 | 亚洲国产欧美91 | 亚洲性一区 | 亚欧美色 | 国产精品国产亚洲精品看不卡 |