DAMIAN SAŁKOWSKI – CZYNNIKI ALGORYTMICZNE DECYDUJĄCE O SUKCESIE TREŚCI
Tegoroczny festiwal SEO w Katowicach otwierała prelekcja Damiana Słakowskiego, który podzielił się ze słuchaczami wnioskami na temat algorytmicznych czynników, które odpowiadają za sukces treści na stronach www. Autor prezentacji obliczył za pomocą współczynnika korelacji Pearsona, jak duże znaczenie ma długość treści na stronie, miejsce występowania kluczowych fraz, tzw. TA (Topical Authority), wiek domeny oraz backlinki prowadzące do witryny. Zaznaczyć jednak należy, że korelacja między tymi czynnikami a pozycją w Google nie jest związkiem przyczynowym.
Najważniejsze wskazówki:
- długość treści nie jest kluczowym czynnikiem rankingowym
- istotne jest miejsce występowania fraz: słowo kluczowe powinno znaleźć się w tytule strony, nagłówku H1 i H2 (w każdym przypadku współczynnik korelacji wynosi ponad 0,90)
- 40% przebadanych adresów URL miało również frazę w treści, jednak trudno określić, czy jest to efekt nawyku copywriterów i czy ma to faktyczny wpływ na osiągnięcie lepszych pozycji
- im wyższe TA, tym wyższa pozycja (współczynnik korelacji na poziomie 0,69)
- po około roku od powstania domeny jej wiek nie ma większego wpływu na osiągane wyniki w wyszukiwarce Google
- istnieje korelacja między liczbą linków prowadzących do domeny a pozycją w Google
Podsumowując: na sukces treści w wyszukiwarce Google składa się wiele czynników. Treść ma być przede wszystkim dobrej jakości: musi być więc napisana pod użytkownika, ale też być zgodna z zasadami SEO. Zdobycie wartościowego zaplecza pod postacią linków zewnętrznych może dodatkowo pozytywnie przełożyć się na pozycje w wynikach wyszukiwania.
GABRIELA RÓG – SKUTECZNA ANALIZA KONKURENCJI W MNIEJ NIŻ 60 MINUT
Prelekcja Gabrieli Róg udowodniła, że analiza konkurencji wcale nie musi być żmudnym i długim procesem. W rzeczywistości można go podzielić na kilka etapów.
1. Identyfikacja konkurencji
Pierwszym etapem jest wskazanie konkurencji i najpewniejszym źródłem informacji jest przede wszystkim klient. Oczywiście na tym etapie warto się również wspomóc dostępnymi narzędziami analitycznymi (np. Senuto) oraz wynikami w wyszukiwarce na dane zapytanie.
2. Analiza strony w odwołaniu do konkurencji
Kolejnym krokiem jest weryfikacja podstawowych parametrów strony klienta, takich jak wiek domeny czy certyfikat SSL. Analizie należy również poddać elementy wpływające na UX (User Experience).
3. Dokładna analiza wybranych konkurentów
Mając już wiedzę na temat konkurencyjnych domen, należy wytypować najmocniejszych przeciwników i porównać ich statystyki w narzędziu Ahrefs w sekcji Batch Analysis, która pozwala porównać i wyeksportować wyniki aż 200 adresów URL. Na tym etapie warto również skorzystać z Senuto, który pozwoli sprawdzić historię widoczności wybranych domen.
4. Link building
Poprzedni krok analizy pozwala wskazać najmocniejszą, konkurencyjną domenę. Na tym etapie warto więc zająć się analizą backlinków konkurenta. Za pomocą takich narzędzi jak Ahrefs czy Linkhouse można nie tylko wskazać miejsca, gdzie warto umieścić link do strony klienta, ale też oszacować koszt takiej inwestycji.
5. Treść na stronie
Ostatnim elementem analizy jest weryfikacja treści na stronie w porównaniu do konkurencji. Na tym etapie warto skorzystać z narzędzia SurferSEO, które wskazuje wytyczne optymalizacyjne na podstawie analizy konkurentów w Top10 wyników wyszukiwania.
Podsumowanie: analiza konkurencji pozwala już na początkowym etapie współpracy z klientem oszacować koszt inwestycji. Kluczowe jest również regularne odwoływanie się do działań konkurencji, zarówno pod kątem treści znajdujących się na stronach, jak i liczby (i jakości) backlinków.
MIŁOSZ KRASIŃSKI – CZEGO SIĘ NAUCZYŁEM „OUTRICZUJĄC” DO MILIONA STRON WWW
Działania outreach na których skupił się autor, to jedna z wielu metod budowania wartościowego profilu linków. Miłosz Krasiński podkreślił, że w kampaniach outriczowych bardzo ważna jest weryfikacja czy wiadomości, które wysyłamy za pomocą narzędzi do automatycznego kontaktu mailowego, są skuteczne. Prelekcja była wypełniona wskazówkami i poradami pozwalającymi na sprawne przeprowadzenie kampanii.
Najważniejsze wskazówki:
- wiadomości nie powinny być pisane skomplikowanym językiem- „treść maila powinna być tak prosta, by zrozumiała go Twoja mama”,
- najlepiej poczekać aż spłynie do nas więcej ofert i odpowiadać tylko na te najbardziej interesujące,
- ruch organiczny strony, z której chcemy pozyskać linka to nie wszystko, bardzo często bloger/właściciel strony nie ma pojęcia o SEO i optymalizacji treści, ale może podzielić się z nami swoimi kontaktami, co pozwoli poszerzyć zasięg działań,
- warto negocjować z wydawcami ceny i co bardzo istotne, okres publikacji linka – najlepiej, jeśli będzie on dożywotni, co często wiąże się z niewielką dopłatą,
- w przypadku długiego czasu bez odpowiedzi – mail mógł trafić do spamu, wskazany jest kontakt telefoniczny z wydawcą
Prelegent opowiedział także o anglojęzycznej platformie HARO, pomagającej łączyć redaktorów i seowców poprzez wystawianie dziennych pytań/zleceń na dany temat. Dzięki temu narzędziu nasza wypowiedź może zostać umieszczona na popularnych witrynach zagranicznych. Pozwoli to na dotarcie ze swoją treścią do większej grupy odbiorców.
Podsumowując, outreach to nie tylko pozyskiwanie linków, ale także kontaktów i nawiązywanie relacji biznesowych, które niejednokrotnie mogą przydać się w przyszłości.
SEBASTIAN HEYMANN – …I NIE BĘDĘ DWA RAZY POWTARZAŁ! CZY RODZICE MIELI RACJĘ?
Autor prezentacji o intrygującym tytule pochylił się nad tematem duplikacji treści i na początku przedstawił podejście branży do tego zagadnienia, które jest jednoznacznie negatywne. Zestawił ten ogólny pogląd panujący wśród SEOców z tym, co mówi Google i pokazał, że wyszukiwarka wykazuje się tu sporą dozą tolerancji, uznając różne fragmenty tekstów pod różnymi adresami URL za rzecz naturalną.
JAKO PRZYKŁADY NATURALNEJ DUPLIKACJI ZOSTAŁY WYMIENIONE:
- opisy produktów w aptekach
- przepisy i akty prawne
- teksty piosenek i wierszy
- wyniki badań
- newsy
Następnie prelegent na prostych przykładach zweryfikował kilka założeń dotyczących duplikacji, które okazały się błędne:
- Duplikacja nie jest indeksowana,
- Google obniża ranking zduplikowanym treściom,
- wyszukiwarka ustala autorstwo treści
Autor radził jak bezpiecznie kopiować treści. Można to robić za pomocą intencji użytkownika, z których najprościej mówiąc każda jest reprezentowana przez odrębny adres URL i posiada zestaw unikalnych anchorów do niego prowadzących. Jednocześnie zaznaczył, że należy unikać tej samej treści na zduplikowanych adresach. Spowoduje to, że podstrony zamiast walczyć o pozycje z konkurencją, będą to robić między sobą w obrębie jednego serwisu, co jest zjawiskiem bardzo niepożądanym.
EWELINA PODREZ-SIAMA – SEO QUICK WINS. ELEMENTY, KTÓRE WZMOCNIĄ EFEKTY TWOJEJ STRATEGII SEO
W trakcie swojej prezentacji Ewelina Podrez-Siama podzieliła się z uczestnikami dobrymi praktykami, dzięki którym w początkowych miesiącach współpracy możliwe jest osiągnięcie pierwszych efektów.
Prelegentka m.in. doradziła, aby:
- zoptymalizować proces SEO poprzez dobór szybkich słów kluczowych;
- działać adekwatnie do trendów oraz sezonowości – tu założycielka agencji zwróciła uwagę na to, aby pozycjonować sezonowe frazy z odpowiednim wyprzedzeniem;
- minimalizować problemy poprzez bieżącą, szybką analizę;
- linkować nie tylko dla SEO;
- pracować z CTR (emoji, sprzedażowe title i description).
DAMIAN KIEŁBASA – STRATEGIA CONTENT MARKETINGOWA TWORZONA PRZEZ ALGORYTM GENETYCZNY
Kolejny prelegent zaczął swoją prezentację od poruszenia kwestii obecnego podejścia do contentu. Zwrócił m.in. uwagę na to, że ręczna analiza klastrów słów kluczowych jest niezwykle czasochłonna, a uzyskane efekty nie zawsze są satysfakcjonujące. Damian Kiełbasa, który na co dzień pracuje jako CTO w platformie content intelligence CONTADU, zaproponował uczestnikom festiwalu rozwiązanie usprawniające proces tworzenia treści, które polega na wykorzystaniu algorytmu genetycznego.
Prelegent na konkretnym przykładzie pokazał, jak algorytm genetyczny potrafi łączyć ze sobą elementy, które zdały egzamin w poprzednich próbach. Następnie przedstawił sposób, w jaki można wykorzystać algorytm genetyczny w SEO – dzięki temu rozwiązaniu można m.in. zautomatyzować proces tworzenia skutecznych content planów oraz oszacować, czy dany budżet pozwala nam w pełni zagospodarować tematykę. Na koniec autor prezentacji poruszył temat semantyki, wyjaśniając pokrótce, dlaczego należy jej używać w SEO.
DANIEL DURIŠ – UDANE MIGRACJE DUŻYCH WITRYN: PROCES
Ostatnią prelekcję drugiej sesji przygotował Daniel Duriš. Tematem był proces migracji dużych witryn. Na wstępie Prelegent przedstawił powszechne problemy dużych serwisów oraz tych posiadających dłuższa historię. Wymienione zostały takie kwestie, jak występowanie dużej ilości nieistniejących adresów URL, nieelastyczne stare systemy CMS wykorzystywane do zarządzania starymi witrynami oraz skomplikowane mapy strony z dużą ilością podstron wpływające negatywnie na crawl budget serwisu. Następnie omówiona została kwestia współpracy agencji wykonującej migrację z właścicielami dużych witryn, a zatem przeważnie z korporacjami i dużymi firmami. Prelegent zwrócił uwagę na fakt występowania w dużych korporacjach działów odpowiedzialnych za realizację poszczególnych zadań. Podczas migracji witryny ( i nie tylko) interesy różnych działów mogą wzajemnie się wykluczać. Należy zatem pogodzić cele działu SEO, działu marketingu czy sprzedaży i umieć współpracować z poszczególnymi jednostkami, aby dobrze skoordynować działania. Warto wypracować dobre porozumienie z webdeveloperami dla skutecznej realizacji celów związanych z pozycjonowaniem.
Podczas prezentacji Autor wypunktował popularne problemy występujące po migracji witryny, takie jak między innymi:
- utrata ruchu po wykonaniu przeniesienia,
- wystąpienie pętli przekierowań,
- występowanie błędów 404 w obrębie serwisu,
- problem z działaniem kodów śledzenia Google Tag Manager, Analytics itp.,
- problemy wynikające ze zmiany contentu na stronie.
Następnie słuchacze mieli okazję zapoznać się z przykładami udanych migracji wykonanych przez prelegenta. Prelegent krótko omówił migracje wykonane dla Unica, DPD i sklepu dla biegaczy Bežecké Potreby. Wspomniał o napotkanych problemach, celach do osiągnięcia oraz ostatecznym efekcie migracji w kontekście widoczności i ruchu organicznego.
Głównym elementem prezentacji było omówienie skutecznego procesu migracji. Autor zwrócił tu uwagę na konieczność wykonania takich kroków, jak między innymi przygotowanie backupu contentu i istniejących adresów URL, listy utraconych adresów URL po migracji, konieczność zgłoszenia zmian w narzędziu Google Search Console, wykonania weryfikacji prędkości działania strony i występowania ewentualnych elementów spowalniających. W ramach podsumowania prezentacji słuchacze otrzymali możliwość dostępu do checklisty przygotowanej przez Basta Digital dostępnej w formie arkusza Google Docs. Prelekcja była wyczerpującym omówieniem podstawowych kroków do wykonania podczas migracji dużej witryny. Autor przekazał wiedzę w pigułce, mogącą stanowić dużą wartość przede wszystkim dla początkujących specjalistów SEO, webdeveloperów oraz osób poszukujących przejrzystego podsumowania kroków do wykonania przy migracjach. Wszyscy lubimy konkretne zestawienia, dlatego prelekcje bez wątpienia można uznać za udaną.
MICHAŁ BORZYSZKOWSKI – DIABEŁ TKWI W SZCZEGÓŁACH – RĘCZNY AUDYT TECHNICZNY SEO
Druga prelekcja trzeciej sesji Festiwalu dotyczyła ręcznego audytu technicznego SEO. Wystąpienie przygotował Michał Borzyszkowski, ekspert SEO, programista wyspecjalizowany w technicznych aspektach pozycjonowania. Na samym wstępie słuchacze dowiedzieli się, że przez audyt należy rozumieć więcej niż weryfikację strony z użyciem jednego narzędzia. Jest on kompleksową, dogłębną, wielogodzinną analizą całego serwisu. Autor prezentacji omówił plan działania podczas wykonania audytu i poszczególne kroki – począwszy od uruchomienia crawlera, przez ręczną analizę serwisu, sprawdzenie działania wersji mobilnej, weryfikację wyników wyszukiwania poprzez zastosowanie operatora site:, weryfikację z użyciem Google Search Console ze szczególnym uwzględnieniem zakładki skuteczności oraz na samym końcu analizę wykonów z crawlera. Prelegent zwrócił uwagę na ważność zweryfikowania stanu prawidłowo indeksowanych podstron i adresów wykluczonych przy pomocy Search Console oraz weryfikację zakładki skuteczności w kontekście poszukiwania duplikatów czy bezwartościowego contentu indeksowanego przez Google. Autor podsunął słuchaczom szereg praktycznych prostych wskazówek przygotowanych z własnego doświadczenia. Były to subiektywne porady mogące dobrze wpłynąć na cały proces wykonania audytu. Słuchacze dowiedzieli się między innymi, że:
- nie warto sprawdzać wyników crawlera na początku, a dopiero na końcu audytu;
- audyt nie powinien być poprzedzony spotkaniem z klientem, powinien być za to pierwszym etapem oraz punktem wyjściowym współpracy;
- warto zapisywać adresy wszystkich stron, na których znaleźliśmy błędy, by mieć do nich szybki dostęp w razie potrzeby;
- należy dokładnie weryfikować stronę ręcznie, przeklikując wiele podstron;
- warto skupiać się nie tylko na samym błędzie i jego opisie, ale przede wszystkim na jego przyczynie,
- ważne by informować klienta na bieżąco o krytycznych błędach znajdowanych podczas audytowania strony.
Prelekcja była streszczeniem najważniejszych kroków w pigułce, ale także ciekawym omówieniem całego procesu z praktycznego punktu widzenia. Autor nie wahał się zwrócić uwagi na z pozoru trywialne kwestie, które jednak w praktyce dostarczają wielu problemów, utrudniają pracę i zdarza się, że decydują o zaniżonej jakości całego audytu.
Podsumowanie przygotowane przez: Angelikę Heba, Annę Błotnicką, Sylwię Głowacką oraz Grzegorza Marucha.