Na początek wyjaśnijmy, czym są czynniki onsite. Jak sama nazwa wskazuje, są to wszystkie zależności między algorytmem wyszukiwania a stroną, które dotyczą stricte optymalizacji witryny. Pomijamy linki zewnętrzne, pomijamy zabawę profilem anchorów czy brandem – skupiamy się tylko na tych czynnikach, nad którymi mamy pełną kontrolę, czyli właśnie na czynnikach onsite.
Tu niestety nie mamy dobrej wiadomości. Google prócz Pandy, która w dość drastyczny sposób ukarała wiele stron za brak dopracowanych treści, wypuściło także aktualizację Phantom 2.0, która również bardzo skrupulatnie sprawdza, czy aby na pewno strona jest dobrze zoptymalizowana i przy okazji przyjazna dla użytkownika.
Jako, że specjalizujemy się w wycenie oraz przeprowadzaniu optymalizacji stron naszych Klientów, postanowiliśmy zebrać i przedstawić Wam najczęściej spotykane błędy związane z czynnikami onsite:
- Duplikacja treści – to najgorszy problem. I nie chodzi tylko o kopiowanie artykułów z innych stron, ale także niepilnowanie własnej treści. Wielu Klientów zgłaszających się do nas po usługę optymalizacji, dopiero od nas dowiaduje się, że tekst na stronie głównej lub podstronach został skopiowany przez kogoś innego lub pobrany przez złośliwego robota lub źle skonstruowany katalog, który indeksuje podgląd witryny.
- Słabej jakości teksty – gdy content jest już unikalny, zdarzają się przypadki, gdy bardziej przypomina precel, niż rzeczowy tekst dla klientów. Brak urozmaiceń typu punktory, brak nagłówków i przydatnej treści – to podchodzi pod thin conent, co również wychwytuje Google. Pod ten punkt możemy także przypiąć przesycenie słowami kluczowymi, czyli keywordstuffing.
- Słaby UX – chodzi o problem z funkcjonalnością serwisu dla użytkowników. Brak menu kontekstowego, poukrywane linki, źle dobrana kolorystycznie szata graficzna i wiele więcej. Nie dość, że strona zraża do siebie userów, to jeszcze może za to otrzymać karę do Google.
- Zbyt wiele reklam – Phantom 2.0 ostro się za to wziął, karząc strony, które zamiast treści, miały same bannery reklamowe.
- Braki związane z kodem strony – zbyt wiele błędów w CSS, powolne ładowanie strony, powielane IP, brak RWD – te czynniki zaczynają mieć coraz większy wpływ, obniżając pozycje niedopracowanych stron.
- Niezoptymalizowane obrazy – brak altów to już standard. Powielone alty w każdej grafice również. Nawet, jeżeli nie chcemy bazować na ruchu z grafiki Google, warto zadbać o poprawne opisanie obrazków na stronie.
UX nie ma nic wspólnego z karami google.
Z tymi karami za kolory to ciekawe, przecież google by musiał sprawdzać pliki css żeby „widzieć” kolory na stronie.
Z tymi obrazami to także bywa różnie, bo … no właśnie, Jeśli stawiamy stroną firmową np. taką Beltor, to jakość grafiki powinna być jak najwyższa, aby dobrze to wyglądało, same zdjęcia jednak i slider (rozdzielczość zdjęć), wprowadzają dość spore opóźnienie w ładowaniu strony mimo optymalizacji tej grafiki w najwyższej z możliwych jakości, nie wspomnę już o css i JS, który także zajmuje sporo zasobów przy tego typu stronach .
Jednak, aby taka strona była funkcjonalna, i to nie tylko w Polsce ale i za granicą stosuje się między innymi CDN, cachowanie za pomoca Expisres, oraz kompresje GZip. Czy za to Google może karać? Co do altów, to coraz częściej są one jednak uzupełniane, jako że coraz więcej CMS na jakich ludzie stawiają strony, to umożliwia. Często też taki alt wypełniany jest automatycznie (przez skrypt CMS) nazwą zdjęcia jakiego się tyczy, o ile nie powielamy w nieskończoność takich samych zdjęć na stronie, to problemem to nie jest. Nie jest to może idealne ale alt jest unikalny 🙂
Co do błędów CSS, to sprawa także nie jest do końca jasna, bo … co uważamy za takie błędy? Czy faktyczne błędy składniowe, czy też to, co nam wypluwa W3C Validator po analizie strony? Czy błędem jest używanie znaczników zoom lub opacity itp?
Co do błędów CSS (tych prawdziwych) oraz błędów html, to spadek pozycji może być spowodowany niemożnością poprawnego przeczytania strony przez boty Google, a nie jakiegoś ściśle określonego algorytmu.
Myślę, że dobrym pomysłem było by poinformować internautów także o tym, że równie szkodliwe co brak optymalizacji strony może być jej przeoptymalizowanie.
Z niektórymi sprawami ciężko się zgodzić, np te kolory. Może kary za nie dotyczą raczej umieszczania tekstu o zbliżonym kolorze jak tło? Nie wyobrażam sobie żeby strony niebieskie radziły sobie lepiej od czerwonych… 😉 Trend jednak jest wyraźny, google przetwarza i uwzględnia js oraz css w analizie serwisu. Są to analizy automatyczne więc działają jak działają ale kierunek został wyznaczony.
Co do wersji RWD to na razie obserwuje ciekawą rzecz, niektóre strony które nie mają w żaden sposób obsługi responsywności idą do góry. Myślę że w chwili obecnej cały mechanizm google-a z optymalizacją wyników dla mobilków polega na wygenerowaniu miniatur przy różnej wielkości ekranu i sprawdzeniu czy obszar strony nie wychodzi poza ekran w poziomie i czy rozmiar czcionki nie jest zbyt mały co mogłoby utrudnić czytelność. Czyli dokładnie to co każdy może sprawdzić na: https://www.google.com/webmasters/tools/mobile-friendly/?hl=pl