buy cheap backlinks | Drip feed links

Google : vers un algorithme sans backlinks ?

Linking

Depuis tout petit (le jour de sa naissance), Google prend en compte les liens faits vers les sites comme critère de classement (c’est le principe du Pagerank). C’est probablement l’une des couches les plus basses de son algorithme et donc une des plus difficiles à modifier.

Mais ce levier étant assez facile à manipuler, le moteur n’a cessé de mettre en place des filtres et de mener des actions humaines pour protéger son index. Alors pourrait-il un jour se passer totalement des backlinks ?

Classer des pages sans tenir compte des liens, c’est possible

C’est le moteur de recherche Russe Yandex qui a ouvert le feu en 2014. La suppression de la prise en compte des liens n’a pas été appliquée sur tout son index, mais avant tout sur les thématiques qu’il jugeait les plus manipulées ou spammy : immobilier, voyages, vêtements et accessoires, équipement de la maison, santé et beauté, services de loi, … et SEO 🙂
Il a ensuite élargi en intégrant la finance, l’assurance, l’auto, etc.

En gros, ce sont avant tout les requêtes commerciales qui ont été touchées. Le but, renforcer la qualité des résultats en éradiquant les techniques de manipulation des liens. Il est sûr que nos amis russes ne sont pas les derniers dans le sport du linking de sauvage. Pour Yandex, supprimer le facteur des liens entrants n’a donc pas révélé de baisse de qualité de l’index, au contraire.

Sur quoi Yandex se base-t-il aujourd’hui ?

Le contenu unique, les signaux sociaux, la géolocalisation, le nombre de pages sur un sujet, les liens internes, les mises à jour fréquentes, la fréquence des mots-clés dans le contenu (trop c’est mal), le temps passé sur le site par l’utilisateur, les pages de mauvaise qualité, etc.  À vrai dire toutes ces pistes cumulées sont viables.

Comment ferait Google ?

Il est évident que tous ces leviers que je viens de citer pour Yandex sont probablement déjà en action dans l’algo de Google. Ils sont sans doute pondérés en fonction du type de requête.

Une piste est d’ailleurs déjà largement développée pour Google qui dans bon nombre de cas se passe déjà des liens entrants. Avec le knowledge Graph, Google affiche directement la réponse à l’utilisateur en prenant en compte des sources fiables factuellement, par exemple pour afficher la taille de Lolo Ferrari.

Un article paru dans la revue Newscientist a jeté un pavé dans la mare SEO en stipulant que Google souhaiterait classer les sites en fonction de la confiance qu’il peut accorder aux faits qui y sont exposés. La fiabilité de ces faits serait fondée sur une base (Knowledge Vault).

Selon ce procédé, en disant ici que la bataille de Marignan a eu lieu en 1516, je grille cet article, car ce fait est inexact. Je décrédibilise mon contenu aux yeux de Google avec cette information erronée.
Mais en disant que le premier anniversaire de la bataille de Marignan a eu lieu en 1516, je peux sans doute rattraper le coup, si la notion d’anniversaire est incluse dans l’algo. Bref, pas simple on le voit avec ce petit exemple basique. Et puis allez vérifier la véracité des faits sur une fiche produit de site e-commerce… Il est donc clair que ce filtre supplémentaire ne peut pas être utilisé pour tout.

En résumé, selon le principe, lorsqu’une page voit les faits décrits avérés, elle gagne des points, quand ces faits sont faux, elle en perd.

Un algo spécial mobile ?

L’autre bombe lâchée par Gary Illes récemment au SMX de San José, est qu’une équipe Google travaillerait actuellement sur un index distinct de celui actuellement en place, et ceci spécifiquement pour servir les résultats de recherche sur mobile !

Là, au delà de favoriser les sites compatibles (comme Google l’a annoncé pour le 21 avril 2015), il se pourrait bien que les BL soient moins (ou pas ?) pris en compte car pour le moment, les applis ont peu de BL en regard des sites. Elles seraient donc injustement défavorisées.

Je disais précédemment qu’il n’y avait pas urgence à passer au mobile pour tout le monde, mais pour ceux qui ont un business BtoC, un site mobile devient indispensable.

Quels changements pour le SEO tel que nous le connaissons ?

Si vous lisez ce blog depuis un moment, vous comprendrez que je ne vois pas là un virage à 180 degrés. Google se bat contre le spamindexing depuis des lustres.

Contre le linking hardcore : Pingouin est le plus fidèle allié de Google sur cet aspect.

Contre les contenus de mauvaise qualité : Le filtre Panda en est le meilleur exemple, et je pense que cette nouvelle couche validant la véracité des faits viendra surtout compléter cette analyse du contenu.

Pour conclure

Je ne sais pas si Google est prêt à se passer des BL. Il y a 1 an, Matt Cutts nous disait que l’expérience avait été tentée en interne, mais que les résultats étaient pires qu’en prenant le linking en compte.

Il est donc probable que la prise en compte de la véracité des faits soit une couche de plus, et à force d’empiler les couches et les paramètres pris en compte, on finit forcément par donner moins de poids à ceux qui existaient précédemment. En ce sens, les liens auront donc effectivement moins d’impact sur le classement dans certains cas.

Un nouvel index spécifique pour le mobile pourrait changer la donne, à suivre…

Et n’oublions pas non plus que Google a des dizaines de moyens de pister les comportements des utilisateurs. Ce sujet fait moins de bruit et je doute voir Google communiquer clairement dessus dans la mesure ou son côté Big Brother inquiète déjà suffisamment. En revanche, cela reste un moyen idéal d’avoir une véritable armée pour valider la qualité d’une page.

Conclusion : Évitez d’écrire des conneries, l’utilisateur n’aime pas de toute façon ! Et puis tant que l’on y est n’oublions pas que les liens c’est aussi… fait pour les internautes. Et enfin, si votre cible est composée de particuliers (voir de certains pros) pensez mobile !

Google : vers un algorithme sans backlinks ?

4.9 (97.65%) 17 votes

Leave a Reply

You must be logged in to post a comment.