Vorbim despre modul în care motorul de căutare Google determină calitatea site-urilor. Pentru că încă nu este atât de dezvoltată inteligența artificială, Google folosește în continuare câțiva algoritmi matematici pentru a oferi o notă site-ului. Diferența dintre azi și acum 5 ani este că algoritmii sunt mult, mult mai complicați în prezent.
Probabil ați auzit de Panda, Penguin, Hummingbird sau Pigeon. Nu sunt pokemoni, e vorba de principalii 4 algoritmi ai motorului de căutare în cauză și sunt responsabili de poziția site-ului tău în motoarele de căutare (nu la fel de responsabili ca tine). O să vă explic pe scurt cum stă treaba.
Înainte de toate, vreau să precizez că scopul algoritmilor nu este neaparat să claseze pe poziții înalte site-urile de calitate, ci mai degrabă să le demoleze pe cele de proastă calitate.
Panda
Am spus la începutul articolului că acum 5 ani lucrurile erau diferite. Asta pentru că în Februarie 2011 Google a lansat algoritmul Panda, primul major care a avut un impact serios asupra multor site-uri de la momentul respectiv. El se ocupă în special de calitatea conținutului site-ului:
- din cauza lui ne ferim de conținutul duplicat,
- din cauza lui actualizăm constant conținutul site-ului și aducem conținut nou prin blog și alte metode,
- din cauza lui căutăm să adăugăm conținut cu valoare ridicată și o experiență plăcută utilizatorilor,
- din cauza lui facem on-site SEO și vrem să avem un site de CALITATE.
Penguin
La mai bine de un an după Panda, la data de 24 Aprilie 2012, Google a lansat algoritmul Penguin. Într-un moment în care web-ul era supraîncărcat de backlinks, acele linkuri spre site care îl ridicau în poziții pe pagina de căutare, Google a venit cu algoritmul care verifica acele linkuri și a tăiat în carne și oase ce nu era natural.
- din cauza lui nu se mai fabrică backlinks pe bandă rulantă,
- din cauza lui ne interesează ce site-uri au link spre site-ul nostru și calitatea lor,
- din cauza lui s-a folosit mult backlinks disavow, pentru a filtra lista de backlinks,
- din cauza lui black hat SEO are o nouă unealtă pentru a distruge site-ul competiției
! Cel mai probabil la începutul lui 2016 va apărea noua versiune a algoritmului Penguin care are ca îmbunătățire sesizabilă faptul că va analiza în real-time calitatea linkurilor ce fac referință spre site. Adică imediat ce apare un link nou, el va fi luat în calcul și modificările de poziție vor fi mai dese și vor fluctua mai mult. Eu unul sunt tare curios care vor fi consecințele.
Hummingbird
În August 2013 a apărut Hummingbird, care este puțin mai special decât cele menționate mai sus. Din acest moment, Google nu a mai pus valoare pe cuvintele cheie în sine, ci pe înțelesul lor. Așadar, nu mai contează câte linkuri ai pe un cuvânt cheie sau de câte ori apare pe o pagina pentru că motorul de căutare caută să înțeleagă mai bine nevoia utilizatorului și să returneze site-ul, care ca un întreg oferă cel mai bun răspuns la întrebare. Bineînțeles, acest algoritm este cel mai puțin dezvoltat, din cauza complexității sale. Se bazează mult pe sinonime, iar cuvintele cheie nu mai reprezintă lucruri în sine ci o reprezentare scrisă și interpretabilă a lucrurilor.
- din cauza lui se folosesc din ce în ce mai mult long-tail keywords,
- din cauza lui suntem mult mai atenți la conținutul site-ului, atât ca semantică cât și gramatical,
- din cauza lui punem mai mult accent pe knowledge graph,
- din cauza lui ne concentrăm resursele pe crearea unei experiențe placută utilizatorului pe site
Pigeon
Pigeon a apărut pe 24 iulie 2014 și se concentrează foarte mult pe rezultatele locale, bazate în principal pe locație și distanță. Deocamdată algoritmul nu a afectat decât rezultatele în limba engleză și nu se știe când trebuie să ne așteptăm la un update.
Lista completă a algoritmilor și actualizărilor acestora o găsiți pe moz.com.
La poziții tot mai ridicate, că tot vine Crăciunul!
2 Comments
Mulțumim pentru descrierea „bestiei”, ne luptam cu ea și vom tine cont de cele menționate în acest articol. Thanks!
Pentru nimic. Succes si spor.