一、分析網站根目錄robots協議是否正確。
網站建成后,蜘蛛爬行的文件是網站robots文件而不是其他文件,所以正確robots文件協議的設置尤為重要。一般來說,正確的設置原則有幾點:
1:不希望蜘蛛索引文件被屏蔽。
2.根據網站安全性,還需要屏蔽一些活絡文件。
3:可將xml將格式地圖放置在文件中。
二、網站是否根據搜索引擎設置xml網站地圖格式。
網站地圖關于搜索引擎來講,是和睦的。能將網站的整體結構條理呈現給搜索引擎,以便于搜索引擎率的索引網站。關于網站地圖的制作,有許多的教程,一些周六的cms建站系統也有相應的插件,不重復。
網站是否設置了正確的404頁面。
早年,404頁面并不是一個優化點。隨著搜索引擎算法的不斷演變,許多點可以概括為優化點。網站設置404頁,告訴用戶頁面是否刪除,無法訪問。大師搜索引擎頁面的情況是非常必要的。此外,不建議404頁自動跳轉到主頁或某個頁面,用戶可以自動選擇。
四、分析網站鏈接的獨特性。
很多時候,一個網站的頁面可以一起訪問多個頁面,這不利于關鍵鏈接的集權值。一般操作是設置更重要的url其他鏈接通過301重定向指向搜索引擎url,其他的,可以通過canonical處理標簽。
五、確診網站相同ip網站的健康狀況。
同一個ip網站上有很多事情。假設其他網站或多或少不健康,很可能涉及到自己的網站。在這種情況下,需要診斷相同ip網站是否有問題。