Google coraz częściej zmienia algorytmy rankingowe stron internetowych. Niema w zasadzie już żadnych technik pozycjonowania witryn, które nie niosłyby ze sobą ryzyka nałożenia kary od Google. Można stwierdzić, że prowadzenie słusznych działań content marketingowych powinno przynosić efekty w postaci wirusowego roznoszenia się po sieci naszych treści. W tym wypadku nie mamy kontroli nad tym gdzie i w jakiej formie są udostępniane (również linkowane) nasze strony internetowe. Zanim rozpocznie się pozycjonowanie strony warto sprawdzić, czy strona internetowa naszej firmy lub organizacji jest właściwie zoptymlizowana. Poniżej przedstawiam swoistą checklistę do sprawdzenia witryn www.
Struktura strony
Długość nagłówka oraz opisu strony.
Długość tagu "title" w nagłówku strony internetowej powinien mieścić się pomiędzy 10 a 70 znakami.
Długość tagu "meta description" nie powinna być mniejsza niż 70 i nie większa niż 160 znaków.
Tak skonstruowane nagłówki sprawią, że w Google Twoja strona będzie prezentowana dokładnie w taki sposób jak sobie tego życzysz. Niezachowanie tej zasady powoduje, że roboty Google same decydują na podstawie treści jakie informacje wyświetlić w przeglądarce.
Wdrożenie tagów "Og Meta Properties"
Nie jest to skrajnie wymagany parametr. Należy pamiętać o tym, że to one decydują o tym, jaki opis oraz zdjęcia pokazywane są podczas udostępniania naszej strony w portalach społecznościowych m.in. na Facebooku czy Twitterze.
Wykorzystanie nagłówków H1, H2, H3 ...
Stosowanie nagłówków w tekstach internetowyc procentuje. Pracują one na korzyść stron internetowych w dwojaki sposób. Przede wszystkim sprawiaj,ą iż strona jest o wiele bardziej czytelna. Użytkownicy mogą "przeskanować" szybko jej zawartość i zdecydować czy są na niej treści warte uwagi. Także Google nie pozostaje bierne w ich interpretacji. Umieszczenie fraz kluczowych w nagłówkach (ale bez spamowania) sprawia, że strona internetowa jest indeksowana właśnie wg tych fraz. Nie jest to czynnik kluczowy, ale daje sporo mocy. Warto pamiętać, aby używać nagłówków na stronie w poprawny sposób. Najważniejszy jest nagłówek H1 - powinien to być tytuł strony, podstrony lub wpisu na blogu, etc. Następne w hierarchii są nagłówki H2, czyli tak zwane śródtytuły. Mniej ważne są H3 i następne. Warto używać ich do segmentowania treści. Dzięki temu jest ona użyteczniejsza i bardziej czytelna.
Pliki graficzne - zdjęcia na stronie www
Niezmiernie ważnym a często zapominanym elementem jest odpowiednie przygotowanie obrazków przed umieszczeniem ich na stronach www. Należy pamiętać aby zawsze stosować meta opisy, czyli tagi "alt" w zdjęciach, ikonach i innych plikach graficznych. Warto także przed umieszczeniem pliku na serwerze zmienić jego nazwę ze standardowej "IMG_0002.jpg" jaka jest tworzona przez np. aparat fotograficzny, na taką, która opisuje zawartość pliku, np. "poprawna-optymalizacja-stron-www.jpg".
Utrzymanie stosunku kodu HTML do treści
Tworząc swoją stronę www pamiętaj, że dla użytkowników najważniejsza jest treść, a dopiero później efekty wizualne. Zadbaj o to, aby stosunek treści do użytego kodu HTML nie był mniejszy niż 15%. Google traktuje takie strony jako mniej wartościowe i obniża ich pozycje w wyszukiwarce.
Linkowanie
Przyjazne adresy URL
Postaraj się aby Twoja strona wykorzystywała tzw. przyjazne url'e. Zamiast np. http://www.adres.pl/?pid=22&cat=123&tem=top&prod=2134 używaj czytelniejszych http://www.adres.pl/nazwa-kategorii/tytul-podstrony. Ma to wpływ nie tylko na sposób zapamiętywania adresów, ale także na indeksację strony internetowej w Google.
Użyj myśliników zamiast podkreśleń w adresach URL
Myślniki są traktowane przez roboty wyszukiwarek internetowych jako łączniki między wyrazami, zastępują one spację. Natomiast podkreślnik jest takim samym znakiem jak każdy inny. Roboty indeksując Twoją stronę muszą wiedzieć, że dotyczy ona Produkcji Niestandardowych Rollupów a nie Produkcji_Niestandardowych_Rollupów. Widzisz różnicę?
Linkowanie wewnętrzne i zewnętrzne
Podstrony twojej witryny powinny linkować między sobą w treści. Kiedy opisujesz jakieś zagadnienie i wykorzystujesz pojęcia, które omawiałeś w innych wpisach podlinkuj je w treści. Dzięki temu ułatwisz użytkownikom dotarcie do interesujących treści. Zaufaj mi, Google również nie pozostanie obijętne. Nie obawiaj się linkowania do stron zewnętrznych. Czasami jest wskazane, aby witryny zawierały odnośniki do innych serwisów internetowych, np. do Wikipedii. Pokazujesz tym, że dbasz o użytkownika i chcesz dostarczyć mu treść najlepszej możliwej jakości - czy nie na tym zależy także Google?
Słowa kluczowe
Zapewne zależy Ci na tym, aby Twoja strona była odnajdywana w wyszukiwarkach na odpowiednie frazy. Poniżej znajduje się kilka porad dot. optymalizacji stron na konkretne słowa kluczowe.
Meta opisy - Title i Description
Wykorzystaj potencjał meta opisów title oraz description. Wg nich w dużej mierze Google indeksuje Twoją stronę www. Uważaj aby nie przesadzić. Stosuj zasadę na każde 1200 znaków tekstu, używaj dwóch wystąpeń frazy kluczowej. Zadbasz w ten sposób o odpowiednie nasycenie strony internetowej wybraną frazą. Strona będzie tematyczna w oczach Google. Zwróć szczególną uwagę na to, aby te elementy nie powtarzały się na innych podstronach. Będzie to powodowało błędy w indeksowaniu i znacząco obniży pozycję Twojej strony www. Sprawdź wszystkie możliwe podstrony, włączając w to kategorie wpisów, tagi, etc.
Wstaw frazy kluczowe w nagłówki
Stosuj nagłówki tak, jakbyś tworzył je do gazety. Mają one za zadanie ułatwić odnalezienie czytelnikowi interesujących go treści. Trzymaj się tej zasady, zamiast spamować frazy kluczowe. Wpłynie to bardzo pozytywnie na odbiór witryny w oczach czytelników i wyszukiwarki Google.
Taguj zdjęcia i grafiki
Umieszczaj opisy zdjęć w znacznikach alt oraz title - w przypadku linku do większej wersji zdjęcia. W ten sposób poinformujesz internautów co przedstawia dane zdjęcie. Taką informacją posługują się także roboty wyszukiwarek. Opisy takie umieszczaj także w samych nazwach plików - opisałem tę metodę kilka linijek wyżej.
Użyteczność i czytelność
Ostatnie aktualizacje algorytmów Google zmieniły sposób w jaki postrzegane są strony internetowe przez roboty indeksujące. Obecnie bardzo duży wpływ na to jaką pozycję osiąga strona ma jej użyteczność i czytelność. Poniżej postaram się przedstawić najważniejsze czynniki.
Szybkość ładowania strony
Jest to jeden z kluczowych elementów nie tylko dla wyszukiwarki jak i dla użytkownika. Teraz kiedy praktycznie każdy ma dostęp do szybkiego łącza internetowego oczekujemy, że witryny będą wczytywały się w mgnieniu oka. Standardem jest, że jeżeli nie zobaczymy strony w 2 - 3 sekundy to każda następna sekunda drastycznie zwiększa prawdopodobieństwo porzucenia strony. Dokładnie tak samo patrzy na to algorytm pozycjonujący. Aby usprawnić szybkość ładowania warto sprawdzić czy:
Wczytywane skrypty JS muszą ładować się razem ze stroną, być może ładowanie ich w sposób asynchroniczny nie sprawi problemu w działaniu witryny. Taka metoda znacząco zmniejsza czas ładowania.
Zdjęcia umieszczane na stronie są w formie miniatur, które są znacznie mniejsze niż ich wersje w pełnym rozmiarze.
Pliki użyte do stworzenia grafiki strony są odpowiednio skompresowane, klasyczne jpg'i po zapisaniu z 65% jakością często są mniejsze nawet o 60%. Jeżeli używasz programu Adobe Photoshop, koniecznie sprawdź funkcję "Zapisz dla Internetu". To bardzo potężne narzędzie w walce z dużymi plikami graficznymi.
Nie ukrywaj treści
Stare sztuczki takie jak tekst w kolorze tła, wysunięcie części tekstu poza widoczny obszar przeglądarki już dawno przestały działać. Google bez problemu wykryje tzw. cloaking treści i może nałożyć filtr na stronę, która wykorzystuje takie tricki.
Nie upychaj tekstu aby zmieścić go w widocznej części ekranu
Często spotykanym błędem jest próba upchnięcia maksymalnej ilości treści w górnej części strony. Użytkownicy doskonale wiedzą jak używać scrollowania - nie bój się prezentować treści w przejrzysty sposób. Zamiast wciskać tekst na siłę wykorzystaj potencjał nagłówków, aby wskazać poszczególne sekcje artykułów.
Stwórz prostą i intuicyjną nawigację na stronie
"Nie każ mi myśleć", tak głosi podstawowa zasada wg jakiej powinno się tworzyć aplikacje, urządzenia i również strony internetowe. Proste menu z jasnymi opisami sprawi, że użytkownicy szybko i sprawnie przejdą do interesujących ich sekcji na Twojej stronie.
Wskazówki ekspertów:
WordPress jest naprawdę przyjazny SEO. Sam w sobie wspiera dobrze zrobione ładne linki, które warto włączyć już na samym początku w zakładce Ustawienia -> Bezpośrednie odnośniki. Do tego posiada przydatny mechanizm zgadywania poprawnych linków. Jeśli w adresie linku lub podczas wchodzenia na stronę zrobimy literówkę, WordPress przekieruje nas automatycznie do poprawnego do adresu.
Te podstawowe funkcje można rozszerzyć wtyczką. Osobiście używam WordPress SEO by Yoast, który jest kombajnem jeśli chodzi o możliwości. Wtyczka automatycznie generuje sitemapę gotową do załadowania w Narzędziach dla webmasterów i udostępnia szereg narzędzi dostępnych podczas tworzenia treści. Głównym jest możliwość ustalenia słowa kluczowego, na którym będziemy się skupiać podczas pisania artykułu. Yoast powiadomi nas o tym ile razy dane słowo zostało użyte itp.
Dużo zależy również od samego motywu, którego używamy. Warto rozglądać się za takimi, które są opisane „SEO friendly”. Często zaimplementowane są w nich dane strukturalne (mikrodata), które Google lubi i rozumie.
Jakub Mikita – Miłośnik WordPressa z 4 letnim stażem. Prowadzi bloga wpart.pl oraz firmę underDEV. Z pasji zrobił sobie pracę na 2 etaty. Współorganizator WordUPów i BlogUPów w Toruniu.
Jakub Mikitawpart.pl - blog poświęcony pracy na systemie Wordpress
Jak wszyscy wiemy prędkość wczytywania strony internetowej ma wpływ na komfort użytkownika i pozwala na osiągnięcie lepszego miejsca w SERP’ach.
Jeśli czas dostępu do treści nie przekracza 100ms, użytkownik odbiera stronę jako płynnie działającą i chętnie ją przegląda. W przedziale 200ms-1s już dostrzega opóźnienie. Po upływie 1s traci poczucie płynności. Użytkownik zaczyna obserwować pasek postępu i traci komfort przeglądania. Po 3 sekundach najczęściej opuszcza stronę. Obserwacje Nielsena Norman’a, autora „Usability Enginering”.
Nazywam się Ireneusz Mazur. Od kilkunastu lat zajmuję się tworzeniem stron internetowych. Od kilku lat pozycjonowaniem i audytowaniem. Od dwóch dzielę się swoimi spostrzeżeniami, darmowymi sztuczkami SEO, nie tylko z zakresu optymalizacji wydajnościowej secureglass.net.
Zobacz cały artykuł Poprawiamy prędkość strony autorstwa Ireneusza Mazura.
Optymalizację powszechnie rozumiemy jako stworzenie korelacji treści w witrynie z wybranymi frazami kluczowymi. Tworzymy unikalne tytuły, nagłówki, opisy dla grafik, z mozołem piszemy artykuły poradnikowe zgodnie z zasadami „nowej gwiazdy SEO” – content marketingu. I to wszystko jest oczywiście dobre, często wypełniając w 80-90% potencjał optymalizacji strony.
Rzecz w tym, że SERP-y układane są nie z witryn dobrych, ale najlepszych (zdaniem algorytmu ;).
W zawodowym sporcie – możesz być bardzo szybki, ale na zawodach wygrywa się niekiedy o przysłowiową „długość buta”. Podobnie między pozycją 1 a 2 dla konkurencyjnej frazy mamy już ponad 2x różnicę w liczbie wizyt! A im niżej tym gorzej – z poz. 10 można wygenerować zwykle poniżej 10% ruchu generowanego z top1, a często przecież już samą obecność w top10 przyjmujemy już za sukces…
Ciągle natykam się na bardzo dobre witryny, gdzie brakuje nadzoru nad mnożącymi się błędami 404 (z linkami zewnętrznymi!), masowo indeksują się wewnętrzne wyniki wyszukiwania, czy automatycznie generowane podstrony tagów, a wybrane podstrony bez uzasadnienia blokowane są w robots.txt (zamiast eleganckiego „noindex”).
Optymalizacja SEO nie może być jednorazowym badaniem, ale stałym procesem wspieranym przez dedykowane narzędzia. Duża, żywa witryna (szczególnie tworzona nie przez jedną osobę, ale zespół) powinna raz w miesiącu przejść badanie na okoliczność błędów i niedoróbek.
Search Console dostarczy dużo świeżych danych nt. błędów technicznych, ale są też świetne dedykowane (choć płatne) narzędzia, np. Raven SEO Tools (działa pasywnie), czy fantastyczny desktopowy robot Screaming Frog SEO Spider.
Okresowo kontrolując kondycję witryny, usuwając powstające błędy i pilnując optymalizacyjnych nowinek, witryna może uzyskiwać bardzo dobre wyniki, niekoniecznie opierając się na modnej strategii masowego tworzenia „contentkingowych” artykułów.
TIP: „nowinki” każdy powie, że zna, no bo canonical, prev/next, itd., ale czy słyszeliście o znaczniku SRCSET?
Sławomir Borowy – seowiec w agencji 4people i konsultant e-marketingowy w Asante. Specjalizuje się w promocji dużych serwisów, prowadzi też szkolenia z zakresu marketingu internetowego. Prelegent na SilesiaSEM, prowadzący na Festiwalu SEO, wykładowca Internetowych Rewolucji Google. Jeśli „AFK” to testuje jedzenie, roweruje i ściga się na imprezach biegowych (niestety bez efektów w top10 ;).
Dla mnie najistotniejszą sprawą związaną z pozycjonowaniem jest przygotowanie serwisu pod kątem czynników On-Site. Największy nacisk zawsze kładę na treść – bez tego nie da się dobrać słów kluczowych w procesie pozycjonowania oraz opracować strategii SEO pod kątem konkretnych podstron w serwisie. Drugim czynnikiem jest optymalizacja tych treści – odpowiedni nacisk należy wtedy położyć na nagłówki H1, H2, H3 oraz wytłuszczenia. Całość należy zgrać z nagłówkiem i adresem URL.
Trzeci czynnik to linkowanie wewnętrzne. Czasem łapię się na tym, że staram się wykonać je wszędzie tam, gdzie już praktycznie nie jest to możliwe. Przede wszystkim takie linkowanie wykonuję z kart produktowych do producentów – bardzo istotna kwestia. I dość użyteczna dla użytkownika.
Na sam koniec (co tak naprawdę powinno być też priorytetem) – trzeba przejrzeć strukturę od strony technicznej. Zaglądam do Google Search Console a jeśli tam nie ma błędów uruchamiam programy do zbierania informacji. Techniczna strona pozwala mi zweryfikować błędy związane z indeksacją, przekierowaniami 301 (czasem zdarzają się zapętlenia), błąd 40x i 50x istotne z punktu widzenia serwera i skryptu). Uwzględniam też poprawki związane z czasem ładowania strony.
Powyższe czynniki są moim zdaniem najistotniejsze. Całość optymalizacji On-Site to żmudna praca ale przynosząca niejednokrotnie doskonałe efekty. Dopiero potem można zabrać się za linkbuilding :)
Pasjonat ogólnopojętego marketingu internetowego. Od wielu lat zajmuje się SEO ale przez strach przed efektem Dunninga-Krugera nie ma śmiałości nazywania się ekspertem.
Aby zapewnić jak najlepsze wrażenia, korzystamy z technologii, takich jak pliki cookie, do przechowywania i/lub uzyskiwania dostępu do informacji o urządzeniu. Zgoda na te technologie pozwoli nam przetwarzać dane, takie jak zachowanie podczas przeglądania lub unikalne identyfikatory na tej stronie. Brak wyrażenia zgody lub wycofanie zgody może niekorzystnie wpłynąć na niektóre cechy i funkcje.
Funkcjonalne
Zawsze aktywne
Przechowywanie lub dostęp do danych technicznych jest ściśle konieczny do uzasadnionego celu umożliwienia korzystania z konkretnej usługi wyraźnie żądanej przez subskrybenta lub użytkownika, lub wyłącznie w celu przeprowadzenia transmisji komunikatu przez sieć łączności elektronicznej.
Preferencje
Przechowywanie lub dostęp techniczny jest niezbędny do uzasadnionego celu przechowywania preferencji, o które nie prosi subskrybent lub użytkownik.
Statystyka
Przechowywanie techniczne lub dostęp, który jest używany wyłącznie do celów statystycznych.Przechowywanie techniczne lub dostęp, który jest używany wyłącznie do anonimowych celów statystycznych. Bez wezwania do sądu, dobrowolnego podporządkowania się dostawcy usług internetowych lub dodatkowych zapisów od strony trzeciej, informacje przechowywane lub pobierane wyłącznie w tym celu zwykle nie mogą być wykorzystywane do identyfikacji użytkownika.
Marketing
Przechowywanie lub dostęp techniczny jest wymagany do tworzenia profili użytkowników w celu wysyłania reklam lub śledzenia użytkownika na stronie internetowej lub na kilku stronach internetowych w podobnych celach marketingowych.