公司做網(wǎng)站優(yōu)化很久了,一直不是很了解robots文件該怎么設置,也不知道設置它對網(wǎng)站優(yōu)化有沒有作用,求解答。
|2020/01/08 15:17
robots文件用于指令搜索引擎禁止抓取網(wǎng)站某些內容或者指定抓取網(wǎng)站某些內容。因為robots文件是針對搜索引擎的,所以運用好能夠增加搜索引擎爬取網(wǎng)站的體驗度從而增加網(wǎng)站收錄量。
1. 屏蔽網(wǎng)站的空、死鏈接
由于網(wǎng)站內容的修改以及刪除,容易導致網(wǎng)站內的一些內鏈失效變?yōu)榭真溁蛘咚梨?。通常我們會對網(wǎng)站定期檢查空鏈和死鏈,將這些鏈接提取出來,寫入robots文件之中,防止搜索引擎爬取該鏈接,間接提升搜索引擎的體驗。該種方式是有效的,因為修改已經(jīng)收錄的內容時會使得搜索引擎重新的爬取修改過的網(wǎng)頁,再次判斷是否進行收錄,如果沒有繼續(xù)收錄了,那么就得不嘗試了。
2. 防止蜘蛛爬取網(wǎng)站重復內容
因為網(wǎng)站很多的動態(tài)頁面搜索引擎時無法收錄的,所以很多時候我們需要對于這些動態(tài)頁面進行制定一個靜態(tài)的頁面以助于搜索引擎收錄。這時候就讓搜索引擎不要爬取某一些重復的內容,可以減少站內的頁面關鍵詞權重競爭。
3. 防止蜘蛛爬取無意義內容,浪費服務器資源
網(wǎng)站上是有很多的內容都是一些無意義的內容,例如網(wǎng)站的各種腳本代碼、css文件和php文件等等,這些文件對于網(wǎng)站優(yōu)化都是無意義的,爬取這些網(wǎng)站不僅不會收錄,而且還會浪費服務器的資源。上圖中很多禁止訪問的內容都是這類無意義的文件目錄。
4. 保護網(wǎng)站隱私內容
網(wǎng)站有很多的頁面都是有著一定隱私的,例如一個用戶接受的推送又或者是購物車等等,這些鏈接雖然在一個頁面之中有,但是顯然是不希望搜索引擎爬取的內容。
5. 有利于網(wǎng)站調試
在網(wǎng)站初步上線前都會有著一定的錯誤,需要一段時間的調試再對搜索引擎開放爬取,在調試期間就可以將robots文件設置為對于所有的搜索引擎都處于拒絕爬取狀態(tài),等所有的錯誤都解決后再修改robots文件。
我在海之睿公司工作,對網(wǎng)站優(yōu)化有些了解,上面是我的個人見解,希望對你有幫助。
1.User-agent的設置
在"robots.txt"文件中,如果有多條 User-agent 記錄說明有多個 robot 會受到"robots.txt"的限制,對該文件來說,至少要有一條 User-agent 記錄。如果該項的值設為*,則對任何 robot均有效,在"robots.txt"文件中,"User-agent:*"這樣的記錄只能有一條。
2.Disallow的設置
這個值可以是一條完整的路徑,也可以是路徑的非空前綴,以 Disallow 項的值開頭的URL不會被 robot 訪問。
3.Allow的設置
與 Disallow 項相似,這個值可以是一條完整的路徑,也可以是路徑的前綴,以 Allow項的值開頭的 URL是允許robot訪問的。