Que penser de Pingouin 4, la dernière mise à jour majeure de Google ?

nouvelle version du filtre Penguin sortie fin septembre 2016 est pleine de promesses. Faisons le point.  

Qu’est ce qu’une mise à jour majeure chez Google ?

Afin de fournir aux internautes le meilleur classement possible et lutter contre les pratiques abusives de certains référenceurs, Google met constamment à jour son algorithme de recherche.

Plus qu’une mise à jour…

Parfois, il ne s’agit que d’évolutions mineures telles que la meilleure prise en compte de la vitesse d’un site, le fait qu’il soit en https ou encore qu’il soit compatible mobile. Les référenceurs considèrent qu’il y a environ deux cent critères de classement pris en compte par Google, dont l’importance est constamment réajustée. Ces modifications sont généralement marginales et elles n’entraînent pas de “choc” dans le classement des sites. Si un site n’est pas très bon sur un critère, le fait qu’il soit correct sur d’autres critères limite généralement les dégâts. De plus, les évolutions sont graduelles : un critère peu important ne devient pas du jour au lendemain le critère phare qu’il faut absolument optimiser. Et inversement.

… c’est une autre façon de concevoir le référencement !

D’autres mises à jour des critères de classement, plus rares, sont considérées comme des évolutions majeures car elles modifient significativement le fonctionnement du moteur de recherche et peuvent avoir un impact important sur le classement de certains sites. Imaginez que du jour au lendemain votre trafic issu de Google soit divisé par 3 (voire plus) et vous aurez une bonne idée de l’impact que peut avoir une mise à jour Google sur le e-business.  

Les mises à jour majeures sont plus ou moins visibles.

Il y a celles qui sont majeures sur le papier mais dont on ne voit pas les effets immédiatement.

C’est le cas par exemple des mises à jour Hummingbird (Colibri, lancé en 2013) et plus récemment de Rankbrain (2016) dont l’objectif est de mieux comprendre l’intention de la recherche de l’internaute et lui proposer le meilleur résultat possible. Ce type de mises à jour se base sur des techniques d’analyse du langage naturel, de la sémantique, du machine learning (etc.). C’est un beau travail scientifique qui permet à Google d’améliorer constamment la finesse de ses résultats, on peut même y voir des prémices d’intelligence artificielle, mais rien qui n’empêche un référenceur de dormir !  Cette optimisation algorithmique se fait au fil de l’eau, sans heurts, et les référenceurs ont le temps de s’approprier les nouvelles opportunités / contraintes de classement qu’elle entraîne.

Il y a les filtres de qualité dont on voit les effets rapidement (si on est pénalisé).

Google ne cherche pas uniquement à améliorer la pertinence des résultats qu’il propose, il met aussi en place des filtres et des pénalités contre les sites qui tentent de l’abuser par un travail de référencement excessif. Et quand Google frappe, ça peut être assez conséquent ! Il est maître en son domaine et n’hésitera pas à envoyez un site web en 10 ème page des résultats. En complément de vérifications effectuées par les membres de son équipe qualité, Google lutte contre les sites ayant un contenu trop pauvre et les mauvaises pratiques SEO à l’aide d’outils automatisés. On parle de filtres algorithmiques. Deux de ces filtres sont particulièrement connus des spécialistes SEO : les pénalités Panda et Pingouin. Panda : filtre pénalisant les sites dont le contenu est jugé de mauvaise qualité. Pingouin : filtre pénalisant les sites ayant des liens entrants de mauvaise qualité. Un site web bien géré, accompagné par un expert en référencement digne de ce nom ne devrait jamais subir ce type de filtre. Mais l’expérience montre que les bonnes pratiques ne sont pas toujours suivies par certains “professionnels”.  

Plus rapide, plus intelligent : le filtre Pingouin 4 est plein de promesses !

Un filtre en temps réel

Avant cette version de Penguin,  les mises à jour du filtre se faisaient ponctuellement. Google faisait tourner ses serveurs, calculait quels étaient les bons et les mauvais liens pointant vers les sites web et en sortait une liste de sites devant subir une pénalité ou méritant d’en sortir. Du jour au lendemain, les sites pénalisés voyaient leur trafic SEO s’effondrer et cette mise à jour était faite, au mieux, quelques fois dans l’année. Le problème de ces mises à jour par à-coups était double :
  1. si on n’était pas expert en référencement naturel, il y avait des risques que l’on croit faire du bon travail (on fait des liens et le classement du site s’améliore) alors que ce n’était pas le cas. La désillusion n’en était que plus grande quand venait la mise à jour du filtre…
  2. un site subissant une pénalité algorithmique devait attendre la prochaine mise à jour du filtre pour en sortir.  Quelques jours / semaines pour enlever les liens problématiques et des mois à attendre la mise à jour…
Avec la mise en place du temps réel, le calcul de la qualité des backlinks est quotidien et la réactivité d’entrée et sortie de pénalité s’améliore énormément.

Des pénalités par page et la fin du Negativ SEO ?

Autre nouveauté intéressante, le déclassement ne devrait plus toucher l’ensemble du site, mais seulement les pages fautives, sur lesquelles pointent les mauvais liens. Cette plus grande finesse d’analyse est une excellente nouvelle. Les premières explications données par Gary ILLYES (Google) fin septembre semblaient indiquer que les liens de mauvaises qualités ne seraient simplement plus pris en compte. Est-ce la fin du Negativ SEO ? Le NSEO (ou référencement négatif) consiste à envoyer des mauvais liens vers un site concurrent afin de le décrédibiliser aux yeux de Google et lui faire subir une pénalité. Si la cible ne vérifie pas régulièrement ses liens entrants et ne les dénonce pas, il y a des risques qu’elle subisse un déclassement. Il est toutefois encore un peu tôt pour enterrer le NSEO et ne plus faire le ménage dans ses liens entrants. Que le moteur de Google ne tienne plus compte des liens de faible qualité dans le classement des résultats de recherche est une chose, mais il y a de grandes chances qu’un indicateur tel que la qualité moyenne des liens soit mis en place… avec une pénalité à la clé si vous avez un profil de liens anormal !

En conclusion, que penser de cette évolution ?

Bref, cette évolution de l’algorithme semble aller dans le bon sens mais il reste encore à vérifier que les annonces de Google se vérifient dans les faits. Tous les experts SEO et les agences web le savent : il ne faut jamais prendre une information Google pour argent comptant ! Il faut tester et vérifier. En espérant que les promesses faites soient tenues, Google aura enfin donné à ce filtre les fonctionnalités qui étaient prévues à l’origine, il y a 4 ans… A suivre, un article de recommandations netlinking pour 2017 est en cours de rédaction.   Si vous souhaitez être formé aux dernières techniques de référencement naturel et apprendre à gérer l’optimisation de votre SEO, contactez nos experts !]]>

Découvre les avantages d’utiliser ton CPF pour une formation NoCode avec Bubble

Dans un monde professionnel où la digitalisation s’accélère, se former aux compétences les plus demandées devient une nécessité. Le NoCode, avec des plateformes comme Bubble, ouvre des perspectives inédites. Voici pourquoi utiliser votre CPF pour une formation NoCode, spécifiquement sur Bubble, est un investissement judicieux pour votre avenir.