国产一级a片免费看高清,亚洲熟女中文字幕在线视频,黄三级高清在线播放,免费黄色视频在线看

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
robots.txt文件怎么配置! - 已解決 - 搜搜問問
例1. 禁止所有搜索引擎訪問網站的任何部分

User-agent: *
Disallow: /

例2. 允許所有的robot訪問
(或者也可以建一個空文件 "/robots.txt")
User-agent: *
Disallow:
或者
User-agent: *
Allow: / 

例3. 僅禁止baiduspider訪問您的網站 User-agent: baiduspider
Disallow: /

例4. 僅允許baiduspider訪問您的網站 User-agent: baiduspider
Disallow:

User-agent: *
Disallow: /

例5.禁止spider訪問特定目錄
  在這個例子中,該網站有三個目錄對搜索引擎的訪問做了限制,即robot不會訪問這三個目錄。需要注意的是對每一個目錄必須分開聲明,而不能寫成 "Disallow: /cgi-bin/ /tmp/"。
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/

例6. 允許訪問特定目錄中的部分url
User-agent: *
Allow: /cgi-bin/see
Allow: /tmp/hi
Allow: /~joe/look
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/

例7. 使用"*"限制訪問url
   禁止訪問/cgi-bin/目錄下的所有以".htm"為后綴的URL(包含子目錄)。
User-agent: *
Disallow: /cgi-bin/*.htm

例8. 使用"$"限制訪問url
   僅允許訪問以".htm"為后綴的URL。 User-agent: *
Allow: .htm$
Disallow: /

例9. 禁止訪問網站中所有的動態(tài)頁面
User-agent: *
Disallow: /*?*
本站僅提供存儲服務,所有內容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權內容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
robot文件
robots.txt如何使用?掌握下面幾點:
SEO中的robots規(guī)則與網站最為親密
網站robots.txt文件的安全設置
Robots.txt指南:全國特價虛擬主機聯(lián)盟!
robots.txt和Robot.txt準確代碼的寫法說明
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服