<rp id="kfixt"></rp>
        <dd id="kfixt"><track id="kfixt"></track></dd><tbody id="kfixt"></tbody><th id="kfixt"><input id="kfixt"><form id="kfixt"></form></input></th><nav id="kfixt"><track id="kfixt"><rt id="kfixt"></rt></track></nav>
          <dd id="kfixt"><center id="kfixt"><video id="kfixt"></video></center></dd>

          <tbody id="kfixt"><pre id="kfixt"></pre></tbody>
        1. <dd id="kfixt"><track id="kfixt"><dl id="kfixt"></dl></track></dd>

          robots.txt在線生成

          默認 - 所有機器人是:
          檢索間隔:
          Sitemap: (留空為無)
          普通搜索機器人: Google
          googlebot
          Baidu
          baiduspider
          MSN Search
          msnbot
          Yahoo
          yahoo-slurp
          Ask/Teoma
          teoma
          Cuil
          twiceler
          GigaBlast
          gigabot
          Scrub The Web
          scrubby
          DMOZ Checker
          robozilla
          Nutch
          nutch
          Alexa/Wayback
          ia_archiver
          Naver
          naverbot, yeti
          特殊搜索機器人: Google Image
          googlebot-image
          Google Mobile
          googlebot-mobile
          Yahoo MM
          yahoo-mmcrawler
          MSN PicSearch
          psbot
          SingingFish
          asterias
          Yahoo Blogs
          yahoo-blogs/v3.9
          限制目錄: 路徑是相對的,但每個路徑之前都要包含:"/"

          什么是robots.txt文件

          • robots.txt(統一小寫)是一種存放于網站根目錄下的文本文件,它通常告訴網絡搜索引擎的漫游器(又稱網絡蜘蛛),此網站中的哪些內容是不應被搜索引擎蜘蛛獲取的,哪些是可以被(蜘蛛)獲取的。
          • 因為一些系統中的URL是大小寫敏感的,所以robots.txt的文件名應統一為小寫。robots.txt應放置于網站的根目錄下。
          • 如果想單獨定義搜索引擎的漫游器訪問子目錄時的行為,那么可以將自定的設置合并到根目錄下的robots.txt,或者使用robots元數據。
          • robots.txt協議并不是一個規范,而只是約定俗成的,所以并不能保證網站的隱私。注意robots.txt是用字符串比較來確定是否獲取URL,所以目錄末尾有與沒有斜杠“/”表示的是不同的URL。robots.txt允許使用類似"Disallow: *.gif"這樣的通配符。
          • Robots協議是國際互聯網界通行的道德規范,基于以下原則建立:1、搜索技術應服務于人類,同時尊重信息提供者的意愿,并維護其隱私權;2、網站有義務保護其使用者的個人信息和隱私不被侵犯。

          robots.txt文件內容

          • 搜索引擎蜘蛛的是否可訪問性或者說可爬行性。
          • 搜索引擎蜘蛛針對目錄或者文件的可訪問性。
          • 網站站點地圖sitemap路徑定義。
          • 搜索引擎蜘蛛爬行的時間間隔限制。

          關于robots.txt文件生成器

          • 通過web界面設置好要配置的數據, 點擊生成器的生成即可在最下方的文本輸入框獲得robots.txt的文件內容。
          • 現在,你創建一個空白的文本文件,命名為:“robots.txt”,然后把上面的內容,復制并粘貼到“robots.txt”中去。
          • 把“robots.txt”放在你網站的根目錄,訪問robots.txt,確保他能讓訪問者(如搜索引擎)訪問到。

          您最近使用了:

          收藏 菜單 QQ