Duplicate content a WordPress SEO
WordPress jest uważany za system CMS przyjazny wyszukiwarkom internetowym. Gdy zainstalujemy dodatkowo kilka przydatnych wtyczek jak SEO by Yoast czy Yet Another Related Posts Plugin (YARPP) staje się on jeszcze bardziej przyjazny wyszukiwarkom. Niemniej czasem zdarza się, że nie da się uniknąć powielania treści tzw. duplicate content. Niestety konsekwencją powielania treści często jest kara od Google i spadek w wynikach wyszukiwania.
Postaram się naświetlić, gdzie może się nam pojawić taki problem, jak sobie z nim poradzić i co na to wyżej wymienione wtyczki…
Jak sprawdzić czy moja strona ma zduplikowane treści lub czy nasze treści zostały skopiowane?
W tym momencie myślę, że warto wspomnieć o takim operatorze wyszukiwania jak „intitle:”
W polu wyszukiwania Google wpisujemy:
site:strona.pl intitle:"slowo"
Przykład pokazuje, że zaznaczony na różowo fragment jest powtórzony w 2 innych miejscach w ramach serwisu.

Innym ciekawym narzędziem do sprawdzenia linków, tytułów, nagłówków na stronie jest seo spider.
Klikając Status w wszyukiwarce – Udoskonalenia HTML Google wskazuje właścicielowi witryny czy istnieją problemy z meta opisami na stronie (również tytułami).

Parametry skryptów PHP
W Google Webmaster Tools (Google Search Console) mamy możliwość wskazać, które parametry mają być ignorowane, aby uniknąć duplikacji treści np. dla adresów http://strona.pl/podstrona?color=1
http://strona.pl/podstrona?color=2
W systemie WordPress sytuacja często dotyczy systemu komentarzy.
Dodawanie artykułu do kilku kategorii, tagów…
Jak już mogliśmy zauważyć w Google Webmaster Tools (Google Search Console) jeśli strona ma ten sam tytuł lub zduplikowane opisy, to jest to sygnalizowane jako błąd.
Kiedy mamy sytuację, że jeden artykuł jest dodany do dwóch kategorii, możemy zmodyfikować tytuł np. dodając do niego nazwę kategorii. Google potraktuje te tytuły jako różne.
We wtyczce SEO by Yoast możemy ustawić tytuły dla stron kategorii, tagów, archiwum, archiwum autora, wyniki wyszukiwania, stronicowania itp.
Ustawienie we wtyczce SEO by Yoast, aby kolejne strony archiwum nie były indeksowane:
Jeżeli chcielibyśmy ręcznie ustawić nagłówki można je ustawić tak:
if ( $paged >1 ) {
echo '< meta name="robots" content="noindex,follow" />';
}
if (is_search() ) {
echo '< meta name="robots" content="noindex,follow" />';
}
if (is_archive() ) {
echo '< meta name="robots" content="noindex,follow" />';
}
if (is_tag() ) {
echo '< meta name="robots" content="noindex,follow" />';
}
if (is_trackback() ) {
echo '< meta name="robots" content="noindex,follow" />';
}
Przekierowania 301 i tag „canonical”
Rozwiązaniem problemu powielanej treści, sugerownym przez Google, jest skorzystanie z tagu rel=”canonical” lub użycie przekierowania. Używając tag rel=”canonical” wskazujemy, na której stronie znajdują się oryginalne treści, a które strony chcemy wyeliminować z wyników wyszukiwania.
< link rel="canonical" href="http://strona.pl/produkt" />
Z pomocą również przychodzi wtyczka SEO by Yoast – poniższa opcja jest dostępna pod każdym artykułem w zakładce zaawansowane.
Używając przekierowania 301 dla starego adresu również sugerujemy wyszukiwarce, który adres chcemy wyeliminować z indeksu.
Adres strony z www i bez www
Zarówno z punktu widzenia użytkownika jak i z punktu widzenia wyszukiwarki nie ma znaczenia czy strona jest z www czy bez. Niemniej Google radzi aby zdecydować się na jedną wersję, żeby uniknąć „duplicate content”.

powinien on wyglądać mniej więcej tak:
RewriteEngine On
RewriteCond %{HTTP_HOST} ^strona.pl$ [NC]
RewriteRule ^(.*)$ http://www.strona.pl/$1 [R=301,L]
Nasza strona pod kilkoma, różnymi adresami www
Może się zdarzyć sytuacja, że np. przenosimy stronę pod inny adres www. Gdy stara strona nadal widnieje w wynikach wyszukiwania i uruchamiamy nową, pojawia nam się ta sama treść w różnych miejscach. Robot wyszukiwarki to taki bardzo zagubiony użytkownik, nie wie którą powinien czytać czy ocenić wyżej (trochę upraszczając, bo wiadomo, że to nie jedyny wyznacznik tworzenia rankingu przez wyszukiwarki). Wie jednak, że ma karać w przypadku powielania treści (algorytm Google Panda).
Z pomocą przychodzi samo Google (Webmaster Tools), które „pomaga w przenosinach naszej witryny”.
Treści RSS
Indeksowane treści z naszego kanału RSS, które pojawiają się na innych stronach mogą być uznawane przez roboty Google za zduplikowaną treść. Nie ma w tym nic złego, o ile treść jest przydatna użytkownikowi, a nie tylko generowaną treścią w celu podbijania rankingu w Google. Nie ma idealnego sposobu przeciwdziałania „kradzieży” naszej treści. Na szczęście Google coraz lepiej potrafi rozpoznać źródło treści kanałów RSS. Dobrze jest jednak dopilnować, aby adresy w naszym RSS-ie były adresami bezwzględnymi (cała ścieżka do naszej strony/artykułu).
We wtyczce SEO by Yoast w ustawieniach zaawansowanych mamy możliwość dodać linki zwrotne do naszej strony i artykułów:
Można również za pomocą wtyczki YARPP dodania po treści artykułu listy powiązanych z nim wpisów.
Pozbywanie się niechcianych linków z indeksu Google
Może zdarzyć się sytuacja, że Google zaindeksuje nam coś czego nie chcieliśmy zaindeksować. Co wtedy?
Zaglądamy do Google Webmasters Tools: możemy albo wysłać prośbę o usunięcie linku do Google lub użyć pliku robots.txt, aby określić sposób indeksowania.
Więcej na temat użycia pliku robots.txt można znaleźć w tym artykule O linkowaniu wewnetrznym i indeksowaniu slow-kilka.
Czy wersja mobilna strony jest uznawana za kopię strony?
Zdarza się, że duże serwisy mają osobną wersję dla urządzeń mobilnych dostępną pod innym adresem np. m.onet.pl… W tym wypadku (uogólniając) mamy tą samą wersję witryny pod różnymi adresami. Jednak wyszukiwarki wiedząc o tym, że jest to mobilna wersja serwisu nie traktują jej jako duplikat. Strony mobilne są indeksowane przez specjalne roboty dla nich przeznaczone. Niemniej 21 kwietnia tego roku Google oficjalnie potwierdziło, że faworyzuje w wynikach wyszukiwania responsywne strony (Responsive Web Design); i to zarówno jeżeli chodzi o wyszukiwanie mobilne jak i tradycyjne.
Na koniec kilka słów rozsądku o tym, że nie zawsze „duplicate content” musi zaszkodzić naszej stronie: Google’s Matt Cutts: A Little Duplicate Content Won’t Hurt Your Rankings
Leave a Reply