东京热成人网站_XX另类XX伦理XXAV_亚洲精品无码成人AAA片_高清av中文字幕无码_手机看片国产欧美日韩高清_bd美妙第进化型

咨詢電話:
15628812133
08
2017/06

robots是什么,robots怎么寫?

發(fā)布時間:2017-06-08 10:23:51
發(fā)布者:liqianqian
瀏覽量:
0

Robots.txt文件看似只有幾行字母,但是其實有很多細節(jié)需要注意的。因為如果你不注意這些細節(jié),有的語句將不會發(fā)揮效果,甚至出現(xiàn)反效果。robots.txt文件是搜索引擎進入文匯軟件站點后訪問的第一個文件,文匯軟件(濟南網(wǎng)站建設(shè))提醒大家robots.txt文件寫的好不好直接關(guān)系到站點的seo能否順利進行。

1456724970683.png

1、robots的用法

User-agent:定義進制搜索引擎名字,比如說:百度(Baiduspider)、谷歌(Googlebot)、360(360Spider)等。*號代表全部搜索引擎
Disallow:不允許收錄

Allow:允許收錄

案例:

User-agent: * (聲明禁止所有的搜索引擎抓取以下內(nèi)容)

Disallow:/blog/(禁止網(wǎng)站blog欄目下所有的頁面。比如說:/blog/123.html)

Disallow:/api(比如說:/apifsdfds/123.html也會被屏蔽。)

Allow:/blog/12/(一般情況下不需要寫Allow的,而我們在禁止的目錄下面,我們需要讓搜索引擎收錄,那么我們就可以使用Allow,比如說我們前面禁止了blog欄目下所有的頁面,同時我們想/12/欄目下被收錄,這個時候我們就需要通過Allow來允許搜索引擎的收錄。)

Disallow:*?*(只要你的路徑里面帶有問號的路徑,那么這條路徑將會被屏蔽

Disallow:/*.php$(意思是以.php結(jié)尾的路徑全部屏蔽掉。)

對于robots.txt文件的重要性想必很多站長都深有體會。如果濟南網(wǎng)站建設(shè)不重視這些書寫的小細節(jié)的不僅會失去robotss.txt原有的效果,還會引起不必要的反效果。

關(guān)鍵詞:
返回列表