Un mois plus tard : 3 leçons à retenir de la mise à jour Panda de Google

Il y a un peu plus d’un mois, Google effectuait sa désormais célèbre mise à jour intitulée « Panda », nommée selon l’un des ingénieurs responsable du dossier.  La mise à jour avait pour objectif principal de réduire la valeur algorithmique des sites appelés « fermes de contenu », dont les pages à faible valeur perçue obstruaient de plus en plus les résultats de recherches, tout en faisant mal paraître Google.

Les ravages de cette mise à jour ont été fortement médiatisés : on juge que près de 12% des recherches organiques ont été impactées suite à ce changement d’algorithme, et CNN déclare que cette mise à jour entraîne des répercussions de près d’un milliard en dépenses publicitaires, alors que plusieurs sites majeurs ayant été pénalisés ont dû revoir leurs profits à la baisse.

À mon avis, il s’agit d’une des mises à jour les plus importantes depuis le Brand Update de 2009, et il est important que les webmestres comprennent la nature des changements,  surtout afin d’éviter de tomber du côté des perdants et sites affectés par la mise à jour.

Le modèle d’affaire d’une ferme de contenu

Le fonctionnement d’une ferme de contenu est de produire des articles à la chaîne répondant aux requêtes des utilisateurs effectués sous les moteurs de recherche. L’objectif est de produire du contenu « tout juste assez bon » afin d’attirer les utilisateurs des moteurs sur le site, et ensuite générer des revenus avec les impressions de bannières.

Google, dont l’algorithme avant le panda favorisait les sites au contenu volumineux et récent, permet donc à ces sites de classer leurs nouvelles pages rapidement, ce qui entraîne une rentabilité instantanée au niveau de chaque nouvel article publié.

Si ce modèle d’affaires semble honnête à première vue, le problème est que les fermes de contenu emploient généralement des armées de rédacteurs en sous-traitance, souvent payés entre 3$ et 5$ par article.  De plus, la majorité de ces rédacteurs écrivent sur des sujets dont ils ne sont même pas experts, ce qui entraîne une qualité textuelle douteuse dans la plupart des cas.

Alors que le modèle d’affaires consiste à vendre des impressions publicitaires, les fermes de contenu se foutent un peu de savoir si le visiteur apprécie le contenu ou non, puisque la rentabilité est basée sur le nombre de pages vues, que la qualité soit bonne ou pas.

Considérons cet exemple de Huffingtonpost.com. Lors de la journée du Super Bowl 2011, un nombre important d’utilisateurs effectuent une requête sous Google pour savoir l’heure officielle du botté d’envoi. La direction du site décide donc de rentabiliser cette requête anodine, et publie un article très léger sans valeur intrinsèque, ciblant directement ce mot-clé.

Un modèle d’affaires très profitable

En considérant que les marges sont très bonnes en payant un staff à 5$ par article qu’on peut ensuite monétiser à coup de centaines de milliers de visiteurs, des centaines de sites ont voulu exploiter ce modèle d’affaires, et plusieurs ont réussi à générer des profits faramineux.

eHow.com, un site qui accepte les soumissions d’articles et redonne des dividendes à ses rédacteurs, serait d’ailleurs évalué à 1,8 milliard de dollars. ArticleBase.com, quant à lui, aurait des revenus mensuels estimés à 500,000$ (!), avec des marges de profit de plus de 80%.

Évidemment, lorsqu’un modèle d’affaires devient profitable en ligne, et de surcroît à travers l’exploitation d’une faiblesse de Google, on peut s’attendre à ce que le moteur de recherche finisse par réagir.

La lenteur de Google à réagir

Ce qui est surprenant, c’est la lenteur avec laquelle Google est intervenu dans le dossier des fermes de contenu. Si dans le passé nous avons été habitués à la rapidité du moteur recherche lorsque que sa crédibilité est mise en doute, Google a joué la sourde oreille pendant quelques années avant de déchaîner le panda.

Alors que de plus en plus de sites influents tels que Wired.com, eConsultancy.com et sans oublier l’illustre SEOBook.com ont rapporté ce problème grandissant, stimulant ainsi les discussions en ligne et jetant un peu de lumière sur un secret qui était jusque-là très bien gardé.

Même un moteur de recherche concurrent, soit Blekko, dont une partie de son plan PR consiste à dénigrer Google,  se vantant même dès sa mise en ligne de ne pas prendre en compte le contenu de basse qualité dans son algorithme.

Ajoutons au fait que Bing améliore continuellement la qualité de son algorithme et gagne des parts de marché aux États-Unis dans les recherches en ligne, et Google a décidé de faire face à la musique et d’agir.

La mise à jour Panda fut donc lancée le 23 février 2011, ce qui devient une marque indélébile non seulement dans l’histoire du SEO, mais également dans celle d’Internet au grand complet.

Les grands perdants de cette mise à jour

Avec la prolifération des fermes de contenu au courant des dernières années, on pouvait s’attendre à ce que la mise à jour créer de nombreuses victimes.

Le site Sistrix.com a d’ailleurs publié une analyse des sites ayant subi les plus grandes pertes en terme de trafic, classements organiques et pourcentages de clics :

Évidemment, les réactions n’ont pas tardé à affluer en provenance des propriétaires de sites de contenu dont certains auraient perdu près de 35% de leur trafic en l’espace de deux journées. Le CEO de Ezinearticles.com, un site d’articles employant près de 70 employés, n’a pas hésité à partager ses frustrations :

« This past Thursday, Google announced an algorithm change to 11.8% of their U.S. search query results. Their target was aimed at content farms that are typically low-quality sites, sites with only copied content and sites with low value content.

While we adamantly disagree with anyone who places the “Content Farm” label on EzineArticles.com, we were not immune to this algorithm change. Traffic was down 11.5% on Thursday and over 35% on Friday. In our life-to-date, this is the single most significant reduction in market trust we’ve experienced from Google.

Google has a lot of smart PhD types working on this problem that I believe is not over by a long-shot. Reason: If you do a query for popular terms that we formerly ranked very high with, instead of an EzineArticles result, you may find low-quality sites that deliver even lower value to the user than our own members’ content! This is frustrating for sure. »

Le plus surprenant est qu’eHow.com, la ferme de contenu qui générerait supposément le plus de profits, aurait été « miraculeusement » épargné par le Panda.  De plus, avec la mise à jour supprimant un grand nombre de leurs concurrents, eHow.com a pu récupérer tout le trafic des autres sites. Les estimations de trafic n’ont pas encore été mises à jour pour février et mars sous Quantcast.com ou Compete.com, cependant j’ai hâte de voir si la tendance de trafic se poursuivra suite au Panda.

Certains avancent que eHow.com aurait été épargné puisque leur contenu est généralement mieux formaté et plus facile à lire, par contre n’oublions pas que eHow.com est un participant majeur dans le programme AdSense de Google. Ce dernier a-t’il été clément envers l’un de ses meilleurs générateurs de revenus de publicitaires?

Les leçons à retenir

Chaque mise à jour majeure de Google entraîne un certain mouvement de panique dans l’industrie, alors que les webmestres doivent rapidement analyser les changements à l’algorithme et ainsi modifier leurs stratégies et/ou optimiser leurs sites en conséquence.

Cette rétrospection est d’autant plus importante, puisque la mise à jour du Panda devrait être continuellement raffinée et améliorée, donc les éléments de la mise à jour sont à prendre en compte dans une optique à long terme.

À la lueur des sites ayant été punis par la mise jour, nous sommes en mesure de formuler trois items à prendre en compte vis-à-vis votre stratégie de positionnement :

Leçon 1 : Éviter une faible corrélation entre le nombre de pages et de liens entrants :

Puisque la mise jour ciblait prioritairement les fermes de contenu, un premier critère à prendre en compte au sein de votre stratégie est le nombre de pages indexées de votre site, et si ces pages sont jugées crédibles par la communauté.

Puisque la crédibilité d’un site se mesure en grande partie par la qualité et quantité de ses liens entrants, il faut donc assurer que vos pages secondaires reçoivent leurs justes parts de mentions et de liens en provenance des sites externes.

Si la majorité de vos liens pointent vers votre page d’accueil, et que vos pages secondaires ne sont pas mentionnées en ligne, ceci peut agir à titre de signal pour Google comme quoi votre stratégie de contenu apporte peu de valeur aux utilisateurs.

Il faut donc penser plus que jamais à bâtir des liens pointant vers le contenu secondaire de votre site, de façon à signaler que vos sous-pages sont également émérites et appréciées des utilisateurs.

Leçon 2 : Assurer la qualité et valeur intrinsèque de vos pages

De prime abord, nous réalisons tous l’importance d’avoir un contenu unique à travers chaque page de notre site. Nous devons maintenant réfléchir à la valeur perçue de notre contenu, et si celui-ci répond vraiment aux attentes de nos lecteurs.

Sachant que plusieurs des sites punis par la mise à jour du Panda l’ont été suite à des évaluations manuelles d’ingénieurs employés par Google, il faut non seulement que votre contenu répondre aux critères des moteurs de recherche, mais puisse également réussir une évaluation manuelle.

Ceci veut dire d’y aller doucement avec la publicité sur la page, faciliter la navigation et le partage d’information, en évitant de sur optimiser vos pages sous les mots-clés ciblés.

Leçon 3 : Améliorer votre taux de rebond

Je ne veux nullement repartir le débat à savoir si Google évalue oui ou non le taux de rebond des sites afin de juger de leur valeur. Cependant, alors que plusieurs des sites touchés avaient probablement des forts taux de rebond suite à la mauvaise qualité de leur contenu,  qui peut affirmer que Google n’étudiera pas davantage cette statistique dorénavant?

N’oublions pas, Google possède des données en quantité inimaginable vis-à-vis chaque clic effectué en ligne sur les résultats de recherche. Il serait donc recommandé d’évaluer de près quelles sont les pages possédant les plus hauts taux de rebond, et analyser s’il est possible de les améliorer.

Bonus – Leçon 4 : Devenez indispensable

Alors que la plupart des stratégies de trafic des webmestres reposent sur Google, il serait approprié d’investir autant d’efforts dans les autres sources de trafic, par exemple les communautés, sites référents et même les autres moteurs de recherche.

En poursuivant le développement du brand de votre entreprise en ligne, l’intention est de devenir indispensable aux yeux de Google, de sorte que vous devenez difficile à supprimer de l’index, surtout si de nombreuses discussions ont lieues au sujet de votre entreprise à travers les communautés.

Si on analyse la plupart des sites touchés par la mise à jour, la plupart d’entre eux sont relativement unidimensionnels, ayant tous misé sur l’obtention de trafic à travers les recherches organiques et les longues traînes.

En conclusion

Ce qui est quand même ironique, c’est que la plupart des recommandations mentionnées dans le point précédent s’appliquaient bien avant la mise à jour du Panda, du moins étaient suivies par les webmestres sérieux dans leur quête du succès en ligne.

Si nous continuons à garder en tête les intérêts de nos utilisateurs, et appliquons nos efforts à créer du contenu de qualité retrouvé nulle part ailleurs sur le Web, non seulement nous évitons le couperet de Google, nous développons également le brand de notre entreprise sur le web, et devenons une ressource indispensable en ligne.

Évitez de tricher et de faire mal paraître Google, et aucun Panda ne devrait s’attaquer à vous ;)