精品人妻互换一区二区三区免费,午夜精品久久久久久久9,欧美巨鞭大战丰满少妇,97精品人妻一区二区三区蜜桃

岳陽seo使用robots

  搜索引擎機器人不斷抓取網(wǎng)站,以便將它們添加到搜索引擎索引中。但是,有時開發(fā)人員希望將自己的網(wǎng)站或特定頁面隱藏在搜索引擎結(jié)果中,在這種情況下,robots.txt可用于阻止搜索引擎蜘蛛訪問網(wǎng)站。在本教程中,您將學(xué)習(xí)如何創(chuàng)建robots.txt文件并阻止搜索引擎蜘蛛訪問或抓取網(wǎng)站。

  步驟1 – 訪問服務(wù)器并創(chuàng)建新文件

  首先,創(chuàng)建一個robots.txt文件,可以使用FTP客戶端或?qū)毸姘鍖⒃撐募蟼髦了鶎倬W(wǎng)站的根目錄下。

  第2步 – 編輯robots.txt

  每個搜索引擎都有自己的抓取工具(user-agen),在robots.txt中,您可以指定抓取工具User-agent?;ヂ?lián)網(wǎng)有數(shù)百個爬蟲,但最常見的是:

  Googlebot

  Yahoo! Slurp

  bingbot

  AhrefsBot

  Baiduspider

  Ezooms

  MJ12bot

  YandexBot

  例如,如果想阻止百度抓取工具訪問正規(guī)網(wǎng)站,則可以使用以下規(guī)則編輯robots.txt:

  User-agent: Baiduspider

  Disallow: /

  如果要阻止所有搜索引擎抓取工具,可以使用*作為通配符:

  User-agent: *

  Disallow: /

  如果要阻止搜索引擎爬網(wǎng)程序僅訪問特定文件或文件夾,則使用類似語法,但是,需要指定文件或文件夾的名稱。假設(shè)我們想阻止搜索引擎抓取工具僅訪問文章文件夾(articles)和private.php文件。在這種情況下,robots.txt文件的內(nèi)容應(yīng)如下所示:

  User-agent: *

  Disallow: /articles/

  Disallow: /private.php

  完成編輯robots.txt文件后,保存更改,并上傳至網(wǎng)站的根目錄下??梢栽跒g覽器搜索欄中輸入,域名/robots.txt 進(jìn)行查看。

爆乳熟妇一区二区三区霸乳| 国产伦精品一区二区三区二区| 老司机午夜免费视频| 艳妇臀荡乳欲伦岳肉| 精品无码无人网站免费视频| 亚洲丰满熟妇| 亚洲国产精品成人久久66| 中文字幕日韩精品在线| 大肉大捧一出一进免费视频| 啊高潮了嗯~喷水了视频| 亚洲国产精品网| 91丨九色丨国产在线| 动漫av免费| 蜜臀av在线免费观看| av午夜电影| 高跟黑色丝袜呻吟啪啪网站| 色网址在线观看| 国产成人精品男人的天堂538| 91亚洲视频| 午夜久久久久久久久久一区二区| 色婷婷久久91精品一区二区三区| 女女女女女女bbbbbb视频| 欧美疯狂做受xxxx高潮| 国产乱淫av麻豆国产免费| 色噜噜色综合| 国内揄拍国内精品| 欧美jizz40性欧美| 亚洲一区二区视频在线播放 | 黄色三级在线观看| 蜜臀精品国产91内射久久| 精品国产一区二区三区在线观看| 亚洲av成人精品午夜一区二区| 无码一区二区三区中文字幕| 国产乱码精品一区二区三区四川人| 88国产精品欧美一区二区三区| JAPANESE极品丰满少妇| 成人免费视频一区二区三区 | 黑人精品一区二区| 亚洲精品国产一区二区精华液| 丝袜美腿二区三区| 91久久人澡人妻人人澡人人爽|