複製鏈接
請複製以下鏈接發送給好友

重複內容

鎖定
重複內容通常是指網域內或網域間與其他內容完全匹配或大致類似的大量內容。大多數情況下,重複內容本身不具有欺騙性。非惡意性重複內容可能包括:
能夠生成用於移動設備的常規和簡化網頁的論壇通過多個不同網址顯示或鏈接的存儲項網頁的可打印版本。
中文名
重複內容
外文名
Duplicate Content
應用領域
計算機

重複內容重複內容介紹

重複內容通常是指域內或多個域之間存在的、與其他內容完全匹配或大致類似的內容。大多數情況下,重複內容本身不具有欺騙性。

重複內容問題

這裏有五個所面臨的問題,以及如何解決這些問題,防止他們在未來再次發生
(1)重複的內容從動態的過濾器頁面
動態過濾器的網頁是一個最常見的技術問題,人們面臨的網站擁有者往往會發現成千上萬的人被搜索引擎收錄
一個動態的過濾器頁面的例子:
解決這個問題:
經測試一些替代的修正,我們發現,使用meta robots規則是迄今為止最有效的方法來消除這種問題。這過程中,我們遵循從索引的網頁:
地圖的中刪除。
應用元機器人規則(使用 noindex, follow)。
開始做百度谷歌網站管理員工具中的刪除請求。
一旦你已經做了一些刪除請求的,百度谷歌注意到,並採取了更快收錄其他頁面。
(2)搜索頁面的重複內容
發現百度和谷歌的收錄了搜索頁面,是一個非常普遍的問題。
解決方法:
解決這個問題實際上是非常簡單的。你只需要在robots.txt文件禁止目錄,如果你不允許目錄搜索目錄,然後刪除它在百度和谷歌網站管理員工具。
(3)重複評論網頁的內容
評論頁面很有意思,因為這些問題可能有所不同,這取決於你如何組織你的網站和你使用的插件。我們面臨着重複內容的問題,當我們在產品頁面上顯示內容,但有一個單獨的頁面相同的內容,但我知道,這是情況並非總是如此。
因此,我們面臨的情況下,我們去掉了多餘的頁面
為了消除這些網頁上,我們只需要在robots.txt文件禁止/?,然後提交了該文件夾的刪除請求。
評論網頁只會導致重複內容的問題。
(4)重複的內容分頁
分頁版本的網頁是否應該方便搜索引擎的討論已經持續數年,但谷歌宣佈推出的 rel=next/prev/all,這些頁面其實是分頁的。
所以,我的回答是消除重複內容的問題所造成的分頁實現這些標籤,也可以簡化使用我們的SEO負擔。
(5)重複的內容從非搜索友好的URL
網站默認情況下,採用非搜索友好的URL,並且他們似乎經常出現在一個較新的版本。如下面的例子中,通常被搜索引擎收錄,並導致重複內容的問題,同時,它們所造成的重寫規則的問題,這就更要注意網址URL規範化。
我會建議您的robots.txt文件中不允許這些網頁,對無用的URL做301重定向然後做一個百度和谷歌網站管理員工具中的文件夾的刪除請求。

重複內容屏蔽方法

1、用Nofollow標籤屏蔽,這種方法很實用,但是有點麻煩。
2、用Robots.txt屏蔽無用鏈接,但是這有個缺點,就是這些頁面雖然不被搜索引擎索引,但是權重還會從其他網頁上傳遞進來,但是不會傳遞出去。於是就形成了一個權重黑洞,只進不出,不過這種方法被很多站長們利用,包括福建seo
3、Meta Noindex和 Follow。搜索引擎不會收錄這些頁面,但是會爬取這些頁面上的鏈接,還是會降低蜘蛛的爬去效率。