Tworząc serwis lub już go posiadając, warto poświęcić nieco czasu na jego analizę oraz poprawną optymalizację. To idealny moment na to, aby ustrzec się błędów lub po prostu je wyeliminować. Robot Google nie jest wszechwiedzący. Pewnych rzeczy jest w stanie się domyślić, ale prawidłowy obraz sytuacji może uzyskać wyłącznie dzięki naszej pomocy.

Najczęstsze błędy

Duplicate Content to jeden z częściej pojawiających się błędów w obrębie dużych lub mniejszych witryn internetowych. Na czym polega? Jak sama nazwa wskazuje − na duplikacji treści, która może pojawiać się w kilku wariantach.

Na temat jakości treści wypowiadali się już pracownicy Google, między innymi Matt Cutts:

 

„If the vast majority or all of your content is the same content that appears everywhere else, and there’s nothing else to really distinguish it or to add value, that’s something I would try to avoid if you can.”

Duplikacja w strukturze strony

Po pierwsze: duplikacja strony głównej, którą widzimy pod różnymi adresami URL. Mowa mianowicie o sytuacji, kiedy strona aktywna jest pod postacią www.example.com.pl oraz example.com.pl, a także www.example.com.pl/index.html lub example.com.pl/index.html. Widzimy tu kilka RÓŻNYCH adresów, ale ciągle tę samą stronę. Google nie domyśli się, że przykładowo − naszym głównym, „oryginalnym” URL-em jest adres example.com.pl. I zamiast tego adresu w wynikach wyszukiwania witryna pojawia się pod postacią www.example.com.pl/index.html.

Rozwiązanie

Jeśli nasz serwis widnieje pod kilkoma adresami musimy zdecydować się na jeden. Cała reszta adresów URL powinna zostać odpowiednio przekierowana. Jak wiemy, istnieje kilka możliwości przekierowań, ale w takiej sytuacji najlepiej ustawić przekierowanie 301.

Kod 301 oznacza „Moved Permanently” i informuje robota o tym, że strona została na stałe przeniesiona do innej lokalizacji czy też, mówiąc prościej, pod inny adres. Poniżej znaleźć można przykładową treść, która powinna znaleźć się w pliku .htaccess:

Redirects bez www na wersję z www

RewriteCond %{HTTP_HOST} !^www.
RewriteRule ^(.*)$ http://www.%{HTTP_HOST}/$1 [R=301,L]

Redirects z www na bez www

RewriteEngine On
RewriteCond %{HTTP_HOST} ^www.example.com.pl$ [NC]
RewriteRule ^(.*)$ http://example.com.pl/$1 [R=301,L]

Redirects z adresu index.html na adres bez index.html

RewriteEngine On
RewriteRule ^index.html$ http://www.example.pl [R=301,L,NC]

Rodzaje przekierowań

Tak naprawdę istnieje kilka rodzajów redirect’ów. Wcześniej wspomniane przekierowanie 301 polega na tym, że strona zostanie na stałe przeniesiona pod nowy, wskazany przez nas, adres. Ten rodzaj przekierowania powoduje także wyindeksowanie starego adresu URL, a dodatkowo przekazuje ono od większość „mocy linków”.

Możemy także wyróżnić przekierowanie 302, które jest tymczasowym rozwiązaniem. Jeśli wiemy, że nasz URL będzie „nieczynny” tylko przez jakiś czas, to warto skorzystać właśnie z takiego rozwiązania. Robot Google otrzymuje w ten sposób od nas informację, że stary adres URL na razie nie funkcjonuje, ale niedługo wszystko powróci na pierwotny tor. Ten rodzaj przekierowania nie powoduje także wyindeksowania URLa z wyszukiwarki, co jest dobrym rozwiązaniem przy czasowych przenosinach strony.

Warto pamiętać o różnicach między przekierowaniami 301 a 302 i jeśli migrujemy do nowego serwisu, lub chcemy zwalczyć duplikację treści, to powinniśmy użyć przekierowania permanentnego, czyli 301.

To o czym należy także przypomnieć to fakt, że zbyt duża liczba redirect’ów nie popłaca. Google podąża trzema, maksymalnie czterema przekierowaniami. Warto więc wziąć to pod uwagę, gdy będziemy np.: migrować na nowy serwis po raz trzeci i dalej. W takim przypadku należy edytować „poprzednie” mappingi adresów i przekierować dużo starsze adresy na te najnowsze, aby utrzymać niską liczbę „kroków” w przekierowaniach.

Strony testowe / produkcyjne

Zdarza się, że zduplikowana zawartość może występować także wtedy, gdy strona występuje w dwóch wersjach: oficjalnej lub testowej, która powinna być jeszcze opublikowana. Czasem zapominamy jednak o tym, aby strony testowe/tymczasowe były wyłączone z indeksu. Jeśli do tego dojdzie mamy do czynienia z kolejną wersją duplikacji treści.

Rozwiązanie

W takim przypadku powinnyśmy wyłączyć strony testowe z indeksu przy pomocy kodu w sekcji <head> Wystarczy użyć odpowiedniego znacznika Meta robots:

<meta name=”robots” content=”noindex, nofollow”>

Drugi sposób to dodanie do pliku robots.txt odpowiedniego kodu:

User-agent: *
Disallow: /

Jak można zauważyć, kod ten składa się z dwóch linijek. Pierwsza linijka informuje o tym, których wyszukiwarek oraz ich robotów dotyczy wpis. Jeśli używamy w tym miejscu symbolu gwiazdki to przekazujemy informację, że dostęp do drugiej linijki naszego kodu mają wszystkie roboty.

Druga linijka Disallow pozwala nam wyłączyć z indeksacji cały serwis. Używając po dwukropku znaku „/” informujemy, że cały serwis ma nie być indeksowany przez robota. Gdybyśmy chcieli odwrócić tę sytuację musimy po dwukropku pozostawić puste miejsce.Istnieje jeszcze jedna możliwość. Wystarczy ograniczyć dostęp do strony tymczasowej tylko dla określonych adresów IP, lub zabezpieczyć ją np.: hasłem.

Duplikacja Meta Treści

Google docenia unikalną treść, dotyczy to także Meta Treści, które powinny być odpowiednio skonstruowane. Mała zmiana tytułów oraz opisów może pomóc nam rankować w wyszukiwarce, więc dlaczego mielibyśmy z tego nie skorzystać?

Rozwiązanie

Dla Google tytuły strony oraz ich opisy są jednymi z najistotniejszych elementów budowy strony, dlatego warto w Narzędziach dla Webmasterów (Google Search Console) wykluczyć wszelkie błędy. Przede wszystkim w zakładce „Status w wyszukiwarce” à „Udoskonalenia HTML” możemy sprawdzić, gdzie na naszym serwisie występują podwójne meta-opisy, zbyt długie lub zbyt krótkie. Pamiętajmy również o tym, aby każda podstrona posiadała unikalny Title oraz Description. Dzięki temu Google otrzymuje od nas dokładną informację na temat zawartości, a użytkownicy wyszukiwarki z łatwością trafią na nasz serwis.

Paginacja

Co kryje się pod tym tajemniczym słowem? Paginacja nie jest niczym innym jak dzieleniem danej treści na podstrony. Rodzi to jednak problem dla nas, właścicieli witryny, mianowicie: która z podstron powinna pojawić się w wynikach wyszukiwania?

Wyobraźmy sobie sklep internetowy z branży odzieżowej, który posiada różne kategorie: odzież damska, męska, bluzy, spodnie itd. Wchodząc w konkretną kategorię, powiedzmy „Spódnice”, wyświetlamy długą listę spódnic w różnych kolorach oraz fasonach. W ten sposób tworzy nam się lista, która czasem jest podzielona na kilka stron (1,2,3…10). To jest właśnie paginacja listingów produktów. Jednak dla SEO, najważniejszą stroną jest ta pierwsza.

Potencjalne problemy z paginacją

Sama paginacja NIE JEST problemem! Należy o tym pamiętać. To co stwarza problemy w obszarze paginacji to duplikacja tytułów oraz opisów, oraz contentu, gdyż czasem tekst wspierający SEO pojawia się na każdej podstronie. Tekst ten jest najczęściej wsparciem dla specjalisty SEO, który umieszcza w nim słowa kluczowe. Ponadto lista produktów z podstronami powinna posiadać unikalną Meta Treść, dzięki czemu Google nie będzie miał do nas „pretensji” o duplikację tych elementów.

Rozwiązanie

Rozwiązaniem nieprzejrzystości paginacji dla robota Google jest zastosowanie nowych meta tagów rel=”next” i rel=”prev”, które są dla niego wsparciem – informacją o relacji między podstronami. Pozostawiamy paginację strony i dodajemy meta znaczniki w sekcji <head>. Warto tutaj nadmienić, że formuła „next” informuje robota o tym, jaka strona jest następna, a „prev”, która jest wcześniejsza. Dzięki temu ułatwiamy robotowi Google identyfikację strony pierwszej, czyli najważniejszej.

Odzwierciedla to krótki przykład, który opublikowano na oficjalnym blogu Google:

Posiadamy artykuł, który podzielony jest na 4 podstrony paginacji:

Na pierwszej podstronie w sekcji <head> wstawiamy krótki kod:

<link rel=”next” href=”http://www.example.com/article?story=abc&page=2/>

Na drugiej podstronie kolejne dwie linijki kodu:

<link rel=”prev” href=”http://www.example.com/article?story=abc&page=1″ />
<link rel=”next” href=”http://www.example.com/article?story=abc&page=3″ />

Na trzeciej podstronie powtarzamy czynność:

<link rel=”prev” href=”http://www.example.com/article?story=abc&page=2″ />
<link rel=”next” href=”http://www.example.com/article?story=abc&page=4″ />

Na czwartej, ostatniej podstronie:

<link rel=”prev” href=”http://www.example.com/article?story=abc&page=3″ />

W ten prosty sposób nadajemy hierarchię wszystkim podstronom w obrębie jednej kategorii.

Jeśli nie chcemy, aby kolejne strony paginacji były przez robota Google indeksowane, najlepiej jest użyć dyrektywy:

robots=”noindex, follow”

Jeśli chodzi o duplikację Treści Meta to do najprostszych zabiegów należy po prostu dodanie w Title oznaczenia dla każdej strony, np.:

Spódnice| Odzież damska | Strona 2 | Sklep ABC

Nie zapominajmy także o tym, aby w opisach naszych podstron znalazła się podobna informacja, np.:

<meta name=”description” content=”Obuwie – Strona 4 – Najlepsze oferty w jednym miejscu. Satysfakcja z zakupów i bezpieczeństwo transakcji gwarantowana! Sprawdź to!”/>

Z kolei tekst wspierający SEO powinien znaleźć się wyłącznie na stronie pierwszej. Tekst ten powinien być poprawny stylistycznie i jak najbardziej naturalny. Dobrze, jeśli będzie marketingowo chwytliwy. Jednak jego powielenie na każdych kolejnych stronach zostanie przez Google odebrane jako duplikacja treści w obrębie serwisu..

Duplikacja opisu produktów

Na stronie wielu sklepów możemy znaleźć te same dane dotyczące podobnych produktów. Właściciele serwisów czasem kopiują je ze strony producenta. Z jednej strony trudno się temu dziwić. W końcu ciężko jest napisać innymi słowami, że bluzka jest niebieska i wykonana z bawełny, jeśli rzeczywiście taka jest.

Rozwiązanie

Danych produktów nie zmienimy, ale… możemy do każdego produktu dodać unikalny i wartościowy opis. To również świetny sposób na to, aby rankować na frazy z długiego ogona. Niemniej dopisanie 500-700 dodatkowych znaków do treści kopiowanej ze strony producenta przyczynia się do zminimalizowania skutków duplikacji treści.

Jeśli jednak zmiana opisów produktów jest w naszym przypadku niemożliwa, kolejnym rozwiązaniem staje się możliwość dodawania opinii przez użytkowników. Dzięki ocenianiu produktów przez userów zyskujemy możliwość otrzymywania unikalnej, a do tego darmowej treści.

Jest to również najważniejszy krok ku Gwiazdkom w wynikach wyszukiwania.

Oczywiście, aby je osiągnąć, należy wdrożyć dodatkowo oznaczenia danych strukturalnych, ale najważniejsze – czyli content – już będziemy posiadać.

Parametry śledzące w adresach URL

Mowa o afiliacji, która polega na dodaniu odpowiedniego parametru adresu URL: www.example.com.pl/?partnerid-7653 gdzie dodawany jest parametr np. w formie „?partnerid-7653”

Stworzenie takiego linka afiliacyjnego może doprowadzić do pojawienia się duplikacji treści, jeśli Google będzie mogło indeksować takie URLe.

Rozwiązanie

Jednym z najprostszych rozwiązań jest użycie znaku # zamiast ?. Warto tu przypomnieć także fakt, że wszystko, co znajduje się w adresie URL po znaku # nie jest przez Google indeksowane. Zatem, w wyszukiwarce znaleźć możemy adres wyłącznie do znaku #.

Duplikacja treści jest najczęstszym błędem pojawiającym się w obrębie serwisów jak i między nimi. Aby Google traktował naszą stronę jako wartościową należy zadbać o to, by posiadała unikalny tekst. Sposobów na uporanie się z duplicate content’em jest wiele. Nie są one trudne do wprowadzenia. Największy problem tkwi zawsze w zauważeniu problemu. Dlatego tak ważna staje się kwestia audytu strony.

Chcesz przeprowadzić audyt strony? Szukasz pomocy? Skontaktuj się z nami!

Oceń ten wpis
(13)
Komentarze
Napisz nam, co myślisz.
MakoLab korzysta z plików cookie w celu realizacji usług zgodnie z Polityką prywatności. Możesz określić warunki przechowywania lub dostępu do cookie w Twojej przeglądarce lub konfiguracji usługi.
Obserwuj MakoLab na portalach społecznościowych
Chcesz być na bieżąco z MakoNewsami? Zapisz się na nasz newsletter.