Blog

Narzędzia Google dla webmasterów – dlaczego warto ich używać?

01 October 2012

Google cały czas udoskonala swoje narzędzia, które posiadają coraz więcej naprawdę przydatnych funkcji. Tak też dzieje się z Narzędziami Google dla webmasterów (Google Webmaster Tools ? w skrócie GWT), które bardzo często bywają przez nich niedoceniane.

GWT dla każdego webmastera powinno być głównym źródłem informacji o stanie jego serwisów. Ostatnie zmiany w algorytmie wyszukiwarki Google zmuszają nas do ciągłego monitorowania wszelkich aspektów związanych z naszymi serwisami, w tym: błędów technicznych, nienaturalnych linków czy też duplikacji treści w obrębie serwisu.

Jak skutecznie wykorzystać Narzędzia Google dla webmasterów do analizy swojego serwisu?

Po pierwsze, jeśli jeszcze nie dodaliście swoich domen do tego narzędzia sugeruję zrobić to teraz ? link!

Żeby rozpocząć pracę z GWT musicie najpierw zweryfikować siebie, jako właściciela domeny. Można to zrobić na różne sposoby, poprzez swoje konto Google Analytics (jeśli podpięta jest do niego wasza domena), wgranie odpowiedniego pliku na serwer FTP lub dodanie linii kodu do strony.

Jeśli wykonaliście wszystkie kroki poprawnie, możemy zacząć!

1.    Wiadomości

Jest to obecnie jedyna metoda komunikowania przez Google ewentualnych problemów na jakie natrafiają roboty wyszukiwarki analizując nasze serwisy. W dobie ostatnich zmian algorytmu, Google rozsyła do webmasterów coraz bardziej szczegółowe wiadomości. Informuje nas np. o nienaturalnych linkach prowadzących do naszego serwisu, problemach z indeksowaniem, dużych zmianach w poziomie ruchu, które mogą być wynikiem problemów z naszym serwisem.

2.    Linki witryny

W przypadku linków witryny częściej spotkacie się określeniem Sitelinks. Opcja ta umożliwia nam dodanie w niektórych wynikach wyszukiwania Google linków do podstron naszego serwisu. Rozwiązanie to ma pomóc internautom, czyli oszczędzając ich czas umożliwić im szybkie znalezienie poszukiwanych informacji. Więcej szczegółów o linkach witryny znajdziecie tutaj.


Ciekawostka: Od jakiegoś czasu dla zapytań prezentujących linki witryny, na pierwszej stronie wyników wyszukiwania znajduje się tylko 7 stron Google SERP Dumps 5.5% of Organic First Page Listings.

3.    Błędy indeksowania

W tej części znajdziecie informacje o stronach, które z różnych przyczyn nie mogły zostać odwiedzone przez roboty wyszukiwarki. Znajdziecie tu podział na kilka rodzajów błędów, jednak z punktu widzenia SEO najistotniejszymi będą te oznaczone jako: Nie znaleziono.

Błędy te oznaczają, iż robot Google odwiedzając daną podstronę w Waszym serwisie otrzymał błąd 404. Powodem tego może być błędny link lub nieistniejąca strona.


Poniżej wykresu znajdziecie dokładny spis wszystkich błędów, będziecie mogli również pobrać je wszystkie na dysk i zapisać w Excelu, żeby dokonać dokładniejszej analizy. Dodatkowo w GWT klikając na dowolny link z listy otrzymacie pop-up, który zawiera szczegółowe informacje na temat każdego odnośnika.

 

Czemu warto poprawić błędy 404 w swojej witrynie?

Bardzo często nieistniejące strony (takie jak np. ogłoszenia, które wygasły) posiadają już linki pozycjonujące mogące mieć wpływ na ranking naszego serwisu. Dobrze więc, jeśli w takich przypadkach dokonamy przekierowania 301 takich stron na inne, powiązane tematycznie strony lub kategorie.

4.    Duplikacja treści

Google nieustannie dąży do zwiększenia jakości wyników wyszukiwania. Dlatego też bardzo istotne jest dzisiaj zadbanie o to, aby w naszym serwisie nie występowała duplikacja treści oraz by nie pojawiały się w nim podstrony niskiej jakości, które nie mają żadnej wartości dla internautów. Indeksacja zduplikowanych podstron oraz tych niskiej jakości może mieć negatywny wpływ na rankingi pozostałych. Wszystko to za sprawą aktualizacji algorytmu wyszukiwania o nazwie Panda.

Jak znaleźć strony ze zduplikowaną treścią?

Najlepszym miejscem aby rozpocząć pracę nad duplikacją treści jest kategoria ?Optymalizacja? ?Udoskonalenia HTML?. Znajdziecie tu informacje o wystąpieniach podwójnych meta tytułów oraz meta opisów. Zapoznajcie się ze szczegółami, żeby wyszukać potencjalne adresy ze zduplikowaną treścią. Oprócz duplikacji meta danych, znajdziecie tu również informacje o zbyt długich opisach i tytułach lub o ich braku.

5.    Wyszukiwane hasła

Kolejnym miejscem, które ze względu na wartość SEO powinno być często przez Was odwiedzane, jest zakładka ?Wyszukiwane hasła? w kategorii ?Ruch?.

Prezentowane są tutaj statystyki słów kluczowych, które przekierowały internautów do Waszego serwisu. Średnia pozycja fraz, ich CTR, liczba wyświetleń oraz kliknięć.

Sortując słowa kluczowe wedle średniej pozycji możecie zobaczyć, które z fraz znajdują się na pierwszej stronie wyników wyszukiwania, a które nie. Niekiedy dla haseł znajdujących się blisko top 10 wystarczą małe zmiany na stronie (on-page optimization) lub kilka linków, aby zdecydowanie poprawić ranking w SERP i przyciągnąć tym samym więcej kliknięć.


Osobiście polecam Wam również zapoznać się ze statystykami po uwzględnieniu zmian (zakładka: Ze zmianami). Jest do niedoceniana przez wielu webmasterów funkcja, która pozwala na odnalezienie naprawdę wartościowych słów kluczowych. Dzięki analizie zmian będziecie w stanie określić, które ze słów kluczowych w przeciągu ostatnich 30 dni cieszyły się największym wzrostem zainteresowania. Poprzez zmianę treści na konkretnych podstronach, jak np. zmiana meta tytułów i opisów aby były one bardziej atrakcyjne dla internautów, możecie znacząco zwiększyć CTR.

6.    Usuń adresy URL

Jest to bardzo przydatna funkcja, która umożliwia ręczne usunięcie konkretnego adresu URL naszego serwisu z wyników wyszukiwania. Często może zajść sytuacja, w której Google zaindeksuje niechcianą przez nas podstronę, wtedy w kilka chwil korzystając właśnie tej opcji możemy ją usunąć. Jeśli nie chcemy, żeby usunięty adres ponownie pojawił się w Google, należy zablokować robotom do niego dostęp poprzez plik robots.txt lub poprzez dodanie odpowiedniego kodu na stronie.

 

7.    Site Speed

Google przywiązuje również sporą wagę do szybkości ładowania się naszych serwisów.  Jest to kwestia, na którą powinien zwrócić uwagę każdy webmaster. Aby uzyskać informacje o szybkości ładowania się serwisu należy w ?Laboratorium? wybrać opcję ?Wydajność witryny?. Analiza uzyskanych informacji pozwoli Wam określić, czy dany serwis potrzebuje optymalizacji, która będzie prowadzić do skrócenia czasu ładowania.

Dla wszystkich zainteresowanych tematem poprawiania szybkości ładowania się witryny, sugeruję zapoznanie się z dodatkiem Page Speed, który podsunie Wam propozycję zmian oraz z modułem Apache (mode_pagespeed), który automatycznie optymalizuje stronę i jej źródła.


8.    Profil linków

Dochodzimy tym samym do jednego z najbardziej popularnych ostatnimi czasy tematów, a mianowicie do linków zewnętrznych. Po wprowadzeniu aktualizacji algorytmu wyszukiwania o nazwie Pingwin, która ma za zadanie karać serwisy, do których prowadzą nienaturalne odnośniki, wielu webmasterów zabrało się za analizę profili linków. Również w tym wypadku Google Webmaster Tools wydaje się bardzo pomocny.

W kategorii ?Ruch?, a dalej ?Linki do Twojej witryny? znajdziecie kilka wartościowych danych. Między innymi: listę anchor tekstów linków zewnętrznych, listę linkujących domen oraz podstrony w Waszych serwisach najczęściej wskazywane przez odnośniki zewnętrzne.

Do krótkiej analizy wykorzystam dane serwisu z ogłoszeniami http://www.morusek.pl.


W celu bardziej szczegółowej analizy pobierzcie listę linkujących domen. W kilka sekund otrzymacie przejrzyste zestawienie w Excelu.


Do dalszej analizy polecam Wam dwa dodatki do Excela, których używam na co dzień w Bluerank, a mianowicie: SEO Tools for Excel oraz SEOmoz Mozscape Add-In For Excel. Są to doskonałe narzędzia, które pozwolą Wam zaoszczędzić wiele godzin pracy.

W poniższym przykładzie wykorzystałem drugi dodatek, który możecie pobrać tutaj. Po szybkiej instalacji wystarczy otworzyć plik z pobraną wcześniej listą linków. Następnie zaznaczyć adresy, które chcemy poddać analizie, kliknąć prawym przyciskiem myszy i wybrać opcję Run Mozscape on Selection.


W przypadku wyboru dużej liczby adresów będziecie musieli troszkę poczekać. Mozscape API ma limit 1 zapytania na 10 sekund. Robiąc szybką kalkulację w przypadku 500 adresów będziecie musieli czekać około 1,5 godziny.

Po rozpoczęciu analizy w pliku utworzy się nowa zakładka o nazwie Mozscape, w której będzie dostępne całościowe zestawienie.

W moim przypadku dalszej analizie poddałem Domain Authority linkujących domen. Porównując jakość źródeł odnośników prowadzących do serwisu morusek.pl z  serwisem linkowanym z SWL?i.

Z przeprowadzonej analizy można wywnioskować, iż jakość źródeł linków prowadzących do serwisu morusek.pl jest zdecydowanie lepsza niż przykładowego serwisu linkowanego z SWL?i. Profil naszego serwisu ma mniejszą ilość odnośników prowadzących ze stron o niskiej jakości (Domain Authority 0-30) oraz większą ilość odnośników ze stron o wyższej jakości (Domain Authority >30). Jeśli w przypadku Waszych serwisów zdecydowana większość odnośników pochodzi ze stron z Domain Authority 0-30 oznacza to, iż musicie popracować nad pozyskaniem linków z lepszych źródeł.

Jak widać Narzędzia Google dla webmasterów to naprawdę świetne rozwiązanie. Posiadają wiele funkcji, które mogą pomóc Wam w analizowaniu serwisów oraz w poprawie ich jakości. Mam nadzieję, że chociaż trochę przekonałem tych, którzy nie używają GWT, aby zmienili swoje podejście do tego narzędzia.

Przeczytaj również

SEO lokalne – o czym musisz wiedzieć

SEO lokalne – o czym musisz wiedzieć

Lokalne pozycjonowanie ma kluczowe znaczenie dla mniejszych firm, które działają na poziomie regionalnym, a nie krajowym.

11 March 2021