Si vous avez déjà pris le temps de lire nos articles précédents, vous aurez sans doute croisé à de nombreuses reprises cette expression : « l’algorithme de Google ». Ce terme mystérieux appartient en fait au domaine des mathématiques !
En matière de référencement naturel, tout part de l’algorithme de Google et de ses modes de calcul. Or les méthodes de calcul de l’algorithme évoluent d’année en année. Toutes ces évolutions sont donc scrupuleusement suivies par les experts en charge du référencement naturel de votre site.
Dans cet article, nous décortiquons tous les rouages de l’algorithme de Google. Suivez le guide !
Sommaire
Pas « un » mais « des » algorithmes
On a tendance à parler de l’algorithme de Google, mais il s’agit en fait d’une multitude d’algorithmes. Certains algorithmes ont ainsi été créés dans le but de favoriser le positionnement d’un site, tandis que d’autres ont été développés pour pénaliser les sites qui ne respectent pas les recommandations de Google.
Chaque méthode de calcul mise en place par Google est strictement tenue secrète, même les ingénieurs qui ont conçu l’algorithme n’en connaissent chacun qu’une partie ! Pour saisir une fraction du fonctionnement de l’algorithme de Google, les experts SEO consultent régulièrement les recommandations émises par le moteur de recherche et par ses porte-parole.
L’algorithme évolue constamment, et ces mises à jour ont parfois un impact très fort sur le classement des sites en SERPs : Google Panda, RankBrain, Google Penguin comptent parmi les mises à jour ayant fait le plus de bruit dans l’univers du référencement naturel.
En somme, il est essentiel pour une agence SEO de se tenir à jour de l’ensemble de ces évolutions afin que votre site continue à progresser.
Les trois étapes clés de l’algorithme
Pour savoir quelle page il doit mettre en valeur, Google fonctionne en trois étapes.
Le crawl : Google lance alors ses fameux robots (les spiders ou les crawlers) pour que ces derniers passent de page en page et de site en site. Pour ce faire, il utilise notamment les liens HTML. Imaginez que Google parcourt internet comme une toile, en passant de fils en fils : si l’une de vos pages n’est pas suffisamment mise en valeur ou « linkée », il fera l’impasse !
L’indexation : après avoir passé en revue ces pages, Google va extraire des éléments comme le texte, les images, les balises pour les enregistrer dans son index. Cet index est en fait une immense base de données qui décrit le contenu et l’emplacement (URL) d’un page. Pour faciliter l’indexation, il est donc conseillé de réaliser un sitemap qui aidera les robots à mieux s’orienter sur votre site.
Le classement : quand un internaute effectue une recherche sur Google, les robots vont chercher des réponses directement dans l’index. Après avoir soumis les résultats à l’algorithme, ces derniers sont classés sur les SERPs.
Sur quels critères de positionnement se base l’algorithme de Google ?
Vous l’avez donc compris, l’algorithme de Google est en fait un ensemble de calculs analytiques qui visent à déterminer quel site arrivera en premier sur un mot-clé précis (Page Rank).
L’algorithme de Google effectue le travail à la place de l’internaute en recherchant sur l’ensemble de la toile, les pages Web qui contiennent les mots clés utilisés dans la barre de recherche. L’algorithme attribue ensuite un rang à chaque page en se basant sur un certain nombre de critères comme le nombre de fois où le mot clé apparaît sur une page. Les experts SEO recommandent souvent de placer le mot clé le plus important directement dans le titre de la page : Google se fie en effet aussi au placement des mots clés pour classer les sites.
Le comportement de l’utilisateur est également pris en compte par l’algorithme de Google pour calculer le Page Rank. Il analyse ainsi le taux de clic, le temps passé sur une page ou encore le taux de rebond.
Dans son calcul, Google prête aussi attention au netlinking et donc à la qualité des liens. Par exemple, un site aura plus de chance d’être bien classé si les liens viennent de sites au classement élevé.
Les réseaux sociaux ont désormais une place importante dans les calculs de l’algorithme de Google. Les robots analyseront la popularité d’un site en se basant par exemple, sur les commentaires et les partages Facebook.
Pour qu’un site soit bien classé sur les SERPs, il doit également comporter des URL claires, des balises et des métas descriptions. L’expérience utilisateur doit elle aussi, être simplifiée avec un temps de chargement rapide.
Enfin, Google ne néglige pas le contenu des sites et privilégie des textes de qualités, originaux et diversifiés.
Quelles sont les évolutions majeures de l’algorithme de Google ?
Au fil de son existence, l’algorithme de Google n’a eu de cesse d’évoluer et de rebattre les cartes du référencement naturel. À chaque nouvelle grande mise à jour, les experts SEO doivent ainsi revoir une partie de leur stratégie.
Voici les mises à jour les plus importantes de l’algorithme :
- Google Panda
Il s’agit d’un filtre algorithmique mis en place en 2011 dans le but de pénaliser les sites publiant du contenu de mauvaise qualité. Il peut s’agir de duplicate content, de pages à faible contenu ou encore le bourrage de mots clés.
- Pingouin
Pingouin est lui aussi un filtre algorithmique. Il a été déployé un an après Google Panda afin de minimiser la quantité de liens non naturels, de faible qualité ou suroptimisés. Il s’agissait de sanctionner les pratiques abusives effectuées dans le seul but d’obtenir un meilleur positionnement, et ce au détriment de l’expérience utilisateur.
Grâce à son système de filtres, Pingouin sanctionne les achats de liens, les ancres de liens trop optimisées, les réseaux de sites, la trop grande quantité de backlins et les domaines spammy n’ayant pas de liens avec la page de destination.
- Colibri
Colibri est une mise à jour fondamentale de l’algorithme de Google puisqu’elle revoit l’interprétation des requêtes tapées dans le moteur de recherche. Colibri cherche en fait à s’adapter aux requêtes longues et conversationnelles en répondant à des questions précises et plus seulement à une suite de mots clés individuels. Le but de Colibri est de proposer aux internautes une réponse beaucoup plus pertinente à leur question.
- Rank Brain
Cet algorithme a été lancé en 2015 pour apporter là encore, des réponses pertinentes aux internautes effectuant des recherches de plus en plus complexes. Rank Brain se base sur un système de machine learning qui aide Google à mieux saisir le sens des requêtes. Il s’agit par exemple de comprendre et de répondre à des questionnements implicites via l’intelligence artificielle.
- Fred
Fred a été mis en place en 2017 afin de pénaliser les propriétaires de sites contenant un très grand nombre de publicités. Ces sites sont généralement créés uniquement pour que les propriétaires profitent des revenus générés par les pubs. Fred vise donc à limiter l’usage du spam.
- BERT
Cette mise à jour de l’algorithme Google a été lancée en 2019, il s’agissait là encore de perfectionner la compréhension du moteur de recherche face aux requêtes des internautes. BERT propose une hiérarchisation des termes et expressions employés par les internautes, l’intelligence artificielle permet ensuite à Google de faire le lien entre les mots au sein de l’ensemble de la requête. BERT prouve de nouveau la volonté de Google d’accroître la pertinence des résultats apparaissant dans les SERPs.