1. Problemy z indeksacją serwisu

Zdarza się, że serwisy internetowego posiadają zablokowaną możliwość indeksacji. Problem ten pojawia się szczególnie często podczas tworzenia nowej strony internetowej lub wrzucania jej nowej wersji z serwera testowego.

Bardzo często zdarza się wtedy, że webmaster zapomina o zdjęciu blokady indeksacji w sekcji <head> lub pliku robots.txt. To prowadzi do wyindeksowania starej strony i niezaindeksowania nowej.

Co z tym zrobić?

Sprawdź czy twój serwis znajduje się w indeksie Google poprzez wpisanie w wyszukiwarkę komendy:

site:domena.pl

Następnie przejrzyj kod serwisu i sprawdź, czy nie ma w nim tagu noindex, który blokuje indeksację. Ma on formę:

<meta name=”robots” content=”noindex”>

Jeśli znajduje się tam tego typu tag, zmień go na taki:

<meta name=”robots” content=”index”>

Zweryfikuj swoją domenę w Search Console i sprawdź, czy nie blokujesz indeksacji serwisu w pliku robots.txt.

Po wszystkim zgłoś niezaindeksowany adres URL do GSC (Google Search Console).

 

2. Puste lub zduplikowane znaczniki <meta>

Wyróżnić można tutaj 2 główne znaczniki <meta>, które mogą mieć wpływ na pozycjonowanie stron www oraz ilość kliknięć w serwis w wynikach wyszukiwania.

Bardzo często zdarza się, że elementy te są puste, zduplikowane lub kompletnie niezoptymalizowane.

Znacznik <title>

Znacznik <title> wpływa bezpośrednio na pozycjonowanie stron internetowych. Powinien on być unikalny oraz uzupełniony dla każdej z podstron serwisu.

Ważne jest, aby opisywał on zawartość każdej podstrony oraz zawierał pozycjonowane słowa kluczowe. Obecność słów kluczowych w <title>, wpływa pozytywnie na widoczność tych podstron.

Znacznik <meta description>.

Znacznik <meta description> pozwala na dodatkowe opisanie serwisu w wynikach wyszukiwania. Nie ma on bezpośredniego wpływu na pozycje serwisu, ale jeśli jest dobrze i poprawnie uzupełniony, będzie znacząco zwiększał ilość kliknięć w wynik twojej strony w wyszukiwarce.

Warto dbać o oba te elementy, ponieważ opisy znacząco wpływają na CTR (stosunek kliknięć do wyświetleń) i zachęcają użytkownika do wejścia właśnie na naszą stronę.

 

3. Brak nagłówka <h1> - <h6>

Nagłówek <h1> jest kluczowy podczas pozycjonowania stron. Powinien występować tylko raz na danej podstronie oraz podobnie jak <title> zawierać główne słowo kluczowe.

Kolejne nagłówki <hx> mogą być używane wielokrotnie oraz zawierać kolejne, łatwiejsze i bardziej rozbudowane słowa kluczowe.

Bardzo często zdarza się, że strony nie posiadają nagłówków <h1> lub posiadają w nich losowe czy nieodpowiednie słowa kluczowe.

Odpowiednie zastosowanie nagłówków <hx> oraz zamieszczenie w nich właściwych słów kluczowych, pozwoli na lepsze zrozumienie danej podstrony przez roboty wyszukiwarek. A to wpłynie bezpośrednio na widoczność strony.

 

4. Brak treści na podstronach i kopie treści

Google w swoich algorytmach w dużej mierze opiera się na tekstach. Dlatego należy dbać o to, aby wszystkie podstrony w serwisie zawierały je o odpowiedniej jakości i długości. Każdy tekst musi być koniecznie unikalny.

Bardzo często zdarza się, że kluczowe dla pozycjonowania podstrony nie posiadają treści. A jeszcze częściej zamieszczone na nich teksty są skopiowane i zduplikowane w obrębie tego samego serwisu czy innych stron internetowych.

To wszystko wpływa negatywnie na widoczność i pozycjonowanie strony internetowej.

Dlatego należy dbać o to, aby każda podstrona serwisu posiadała wartościowe dla użytkownika oraz unikalne teksty. Treści te powinny kompleksowo i konkretnie dostarczyć mu poszukiwanych informacji.

Warto dbać tutaj również o to, aby w ramach serwisu publikowane były dodatkowe treści, które będą atrakcyjne dla odwiedzających, zatrzymają ich w serwisie na dłużej oraz przede wszystkim zwiększą widoczność strony na nowe słowa kluczowe.

 

5. Brak optymalizacji technicznej serwisu

Optymalizacja techniczna serwisu staje się coraz ważniejszym aspektem pozycjonowania stron internetowych. Ma ona wpływ na wiele mniejszych aspektów pozycjonowania, które finalnie uwzględniane są podczas obliczania rankingu serwisu przez algorytm Google.

Dbając o optymalizację techniczną strony internetowej, należy pamiętać o tym, aby działała ona szybko i poprawnie na urządzeniach desktopowych oraz mobilnych.

Warto dodatkowo skupić się na problemach, które powodować mogą niepożądane duplikowanie się treści w obrębie serwisu internetowego.

Koniecznie należy zadbać o poprawną formę adresów URL, przekierowania 301, obecność plików sitemap i linkowanie wewnętrzne oraz wiele innych.

Odpowiednia optymalizacja techniczna serwisu pozwoli na jego lepsze pozycjonowanie oraz znacznie zwiększy wygodę użytkowników mobilnych.

Autor: Optima Media

Wróć

Zbuduj marketing swojej firmy.
Zamów bezpłatną konsultację

Adrian Tureniec
Wyrażam zgodę na przetwarzanie moich danych przez firmę Xelibri s.c. w celu przeprowadzenia konsultacji.
W ciągu 30 minut konsultacji omówimy Twoją sytuację oraz przedstawimy strategię pozyskiwania leadów wysokiej jakości.

Kategorie na naszym blogu

Zbuduj marketing swojej firmy.
Zamów bezpłatną konsultację

Wyrażam zgodę na przetwarzanie moich danych przez firmę Xelibri s.c. w celu przeprowadzenia konsultacji.
W ciągu 30 minut konsultacji omówimy Twoją sytuację oraz przedstawimy strategię pozyskiwania leadów wysokiej jakości.
Google Partner

Agencja Optima Media jest partnerem Google, Certyfikat Google Partners potwierdza najwyższą jakość świadczonych usług z zakresu marketingu internetowego.