Comprendre l'algorithme de Google
Véritable enjeu pour quiconque souhaite voir son site positionné au top du moteur de recherche, appréhender l’algorithme de Google est capital pour ajuster sa stratégie SEO.
Zoom sur l’algorithme de Google
Nous avons tendance à parler de l’algorithme de Google, mais ils sont en vérité plusieurs, une petite trentaine. Si certains ont fait l’effet d’une bombe lors de leur apparition, les mises à jour, update, sont généralement moins fracassantes.
Quel est leur rôle ?
Les algorithmes sont destinés à trier les sites internet et faire apparaître les plus pertinents en haut des résultats. Google compte pas moins de 200 critères. Critères dont certains sont même inconnus des ingénieurs de Google.
Mais qu’est-ce qu’un algorithme ?
C’est un ensemble de règles mathématiques, d’instructions claires permettant de résoudre un problème ou d’obtenir un résultat.
Dans le cas présent, l’objectif est de calculer une ou plusieurs notes d’après un certain nombre de critères. Et ce, dans l’unique but de les hiérarchiser dans le moteur de recherche.
Cerner l’algorithme de Google
Pour comprendre les algorithmes, il faut bien comprendre que Google ne souhaite pas vraiment que l'on comprenne. Oui. Le modèle économique de Google repose en partie sur la pub. Si tous les secrets d’un bon positionnement nous étaient révélés, nul besoin de recourir à la pub payante pour booster son référencement. Ce serait le crash du géant. Google crée donc un besoin pour mieux y répondre.
Toutefois, les algorithmes, leurs critères et les mises à jour ne nous sont pas totalement étrangers.
Les 3 missions des algorithmes de Google
Accompagnés de ses algorithmes, les robots de Google vont parcourir le web. L’objectif final pour le moteur de recherche étant de proposer un résultat pertinent à l’ensemble des recherches des internautes.
Mais pour cela, il va devoir :
Mission N°1 | Lire et comprendre une page
La page doit répondre à une question clairement identifiée par Google et elle doit être la meilleure réponse.
Pour favoriser la lecture et compréhension d’une page, il faudra être vigilant aux éléments suivants :
- La structure du texte
- La sémantique
- Les mots-clés
- Les balises
- La mise en gras
- Les métas
Mission N°2 | Classer les pages
Une fois les pages comprises, Google va devoir les classer. Pour les classer, il va se baser sur une notion de popularité.
Plus l’article est cité, linké un nombre fois, plus l’article source va avoir une notoriété, une certaine autorité.
Google cherche à identifier et définir qui est la source la plus fiable pour répondre à une question. De nombreux signaux vont l’aider à définir cette source la plus fiable :
- Analyse des liens entrants
- Nom de marque recherché dans la SERP etc.
Mission N°3 | Pénaliser les mauvaises pratiques
En comprenant ce que Google attendait pour lire et comprendre une page, de nombreuses pratiques sont nées pour tromper le moteur de recherche et optimiser à outrance des sites afin qu’ils soient bien référencés.
En finalité, de nombreux sites, pauvres en termes de qualité, se retrouvaient dans les premières positions. Tout comme la stratégie de netlinking comportait aussi ses dérives, avec un nombre incroyable de sites créés pour faire des liens sortant et pointer vers les sites que l’on voulait référencer.
C’est pour lutter contre ces démarches frauduleuses que l’on appelle Black Hat, que Google à développé des algorithmes “punitifs”, pour lutter contre ces pratiques.
Top 10 des algorithmes de Google
Trop nombreux pour tous les présenter, certains n’en demeurent pas moins de véritables starlettes...
L’algorithme Page Rank : Il est l’un des premiers algorithmes de Google ! Page Rank va calculer un indice de popularité et attribuer un score à toutes les pages qu’il va parcourir. Pour cela, il va mesurer la qualité et la quantité des liens reçus par une page.
L’algorithme Panda : Il sanctionne les contenus à faible valeur, trop courts, pas assez qualitatifs. Il porte une attention particulière à ce que le contenu soit pertinent par rapport à un mot clé recherché, critère important pour évaluer la qualité d’un site.
Est-ce que ce site internet fournit une réponse pertinente à la recherche d’un internaute ?
Pensé à l'origine comme un filtre, l’algorithme Panda est désormais un critère de qualité intégré en temps réel au moteur de recherche.
L’algorithme Penguin : Il est l’ennemi du spamdexing ! La sur-optimisation est sa cible :
- densité trop élevée de mots-clés
- mise en gras excessive
- ancres de liens exactes
- netlinking non pertinent
- nom de domaine au PageRank élevé pour créer des backlinks
- contenu dupliqué
L’algorithme Colibri (Hummingbird): Avec Colibri, c’est une nouvelle génération d'algorithmes que Google déploie. Utilisant pour la première fois la technologie de l'intelligence artificielle, Colibri, c’est la volonté de répondre aux requêtes des internautes. À l’aide de la recherche sémantique et en se basant sur l'historique de navigation, l’algorithme Colibri va fournir des résultats de recherche en corrélation avec ce que cherche réellement l’internaute.
L’algorithme Pigeon : Destiné à favoriser le référencement local, Pigeon se base sur l’adresse IP et l’historique de navigation pour faire ressortir les sites liés à cette zone de chalandise.
L’algorithme Phantom : Pénalisant la faible qualité des sites internet comme Panda et Penguin, la publicité invasive est visée avec l'algorithme Phantom.
Mobile First : Déjà entamé avec la mise à jour Mobile Update qui favorise les sites mobiles-friendly, Mobile First peut être considérée comme son aboutissement. Désormais, c’est la version mobile et non desktop qui est la version de référence pour l’exploration de votre site.
Les algorithmes RankBrain, BERT & Smith : S’inscrivant dans la continuité de Colibri, avec lequel ces trois algorithmes partagent le recours à l'Intelligence Artificielle, l’intention de recherche de l’internaute devient LA préoccupation principale.
Tandis que Colibri combine l’historique de recherche et le champ sémantique pour extrapoler l’intention, RankBrain, BERT et Smith la comprennent désormais sans équivoque. Le traitement naturel du langage (Natural Language Processing) devient crucial à l’heure des recherches vocales.
Vous l'aurez compris, bien appréhender les algorithmes de Google et les principales mises à jour est important pour mener à bien sa stratégie SEO et obtenir un bon référencement de son site internet.
Viens alors la question fatidique...
Quelle stratégie SEO adopter avec les algorithmes ?
Si il y avait une recette magique, ça se saurait…
Toutefois, les trois points suivants semblent être une bonne piste :
Content is king !
Produire du contenu à valeur ajoutée est intemporel ! Cela suppose aussi la notion de régularité. Google ne fera pas d'efforts pour mettre en valeur un site internet qui n’est pas dynamique. Publiez, parlez de vous, faites vivre votre site et apportez une véritable valeur ajoutée aux internautes.
L’aspect technique
L’optimisation technique d’un site est très importante, c’est même la base. Sans une structure qui respecte les critères de Google, cela pourrait compromettre l’exploration et l’indexation du site. Ensuite, l’expérience utilisateur (UX) doit toujours être au centre de votre attention, dans la forme comme dans le fond. S’éloigner de l’internaute, c’est s’éloigner de Google !
La notoriété
Enfin, la notoriété d’un site passe par la qualité des liens qu’il reçoit. Mais on peut aller encore plus loin et parler de la notoriété de la marque, notoriété du nom. Communiquez sur vos réseaux sociaux ! Avoir une fiche Google My Business bien optimisée et vivante, avec des posts, des avis de vos clients avec des réponses etc. est très important.
Bien loin d’être des détails, tous ces éléments sont de bons indicateurs pour Google, alors insistez dessus !
Toute l’équipe d’Horizon, votre agence de communication digitale, est à votre écoute. N’hésitez pas à prendre contact avec nos conseillers et experts en SEO pour bénéficier d’un accompagnement personnalisé.