Google Penguin : la dernière mise à jour anti Webspam

Objectif de Google

Lutter contre les techniques SEO Black Hat notamment au niveau du Webspam (via le netlinking) et de favoriser les sites de contenu qualitatifs.

 

Effets majeurs

  • Selon les premières études cette mise à jour a affecté entre 3 et 5% des pages de résultats de Google (vs. Panda qui avait affecté environ 12% des résultats).
  • Parmi les sites touchés, on dénombre notamment plusieurs agrégateurs de communiqués de presse ainsi que des plateformes d’échange ou d’achat de liens et certains annuaires.

 


 

Les éléments visés essentiellement :

1) Les schémas de liens abusifs et le netlinking sur-optimisé en prenant en compte 2 critères principaux :

a. Les liens qui sont sur des sites qui ne sont pas en affinité avec le site ciblé

b. Les ancres de liens trop ciblées et strictement identiques sur différents sites.

 

Comment travailler un netlinking efficace et propre pour Google ?

  • En recherchant des partenaires affinitaires avec lesquels vous aurez un intérêt commun : par exemple mettre en place un programme de test produit avec des bloggeurs influents
  • En variant les ancres de lien et en veillant toujours à avoir un profil de backlinks équilibré entre liens naturels et liens ciblés/liens partenaires
  • En diffusant une information pertinente et à forte valeur ajoutée pour acquérir des liens naturels (link baiting)

 

**A ne pas faire **

  • Toujours utiliser la même ancre de lien
  • Liens automatiques et en masse
  • Liens en footer ou sidebar sur des sites sans aucun rapport avec votre activité
  • Liens sur des sites dans une langue différente
  • Attention aux programmes d’affiliation mal trackés qui peuvent générer des liens considérés comme du spam

Une des nouveautés est que les moyens d’actions de Google sont bien sûr le déclassement dans les résultats de recherche d’un site, mais aussi la non prise en compte d’un certain nombre de liens entrants considérés comme non naturels.

 

2) Le keyword stuffing : la sur-optimisation SEO

Comment Google peut différencier optimisation et sur-optimisation ?

Voici quelques critères :

  • Des pages sur-optimisées qui ne s’inscrivent pas dans la navigation normale du site
  • Des pages sur-optimisées sur des mots-clés très concurrentiels sur Adwords
  • Un maillage de liens internes disproportionné sur certains mots-clés : nuage de tags, footer, liste de liens)
  • Mise en ligne en grand nombre et de manière simultanée de pages sur-optimisées
  • Absence de signaux sociaux (avis, votes, likes, commentaires, +1…)

D’une manière générale, si Google Panda avait pour principal objectif la lutte contre les sites de mauvaise qualité et qui n’apportent pas d’information pertinente à l’internaute, Google Penguin s’attaque aux sites qui tentent de manipuler les critères de classement de Google.

Une nouveauté depuis quelques mois réside dans le fait que Google communique de plus en plus sur ces updates (objectif et contenu) et interagit ainsi de plus en plus avec les sites directement, notamment via des messages d’avertissement sur la console Google Webmaster Tools.

En complément, une vidéo intéressante sur Penguin par SEOmoz

Wikipédia : des éléments techniques sur les pages appréciés par Google

Un contenu exhaustif régulièrement mis à jour

Résultat : non seulement l’encyclopédie en ligne au nombre d’entrées pléthorique peut apparaître sur un très grand nombre de mots clés, mais le fait que son contenu soit régulièrement actualisé envoie aussi un signal apprécié par Google.

SEO, balises, structure : Wikipédia a imposé son standard

Ce n’est pas le seul élément « On Page » qui force l’admiration des référenceurs. « Le site utilise les balises de façon presque parfaite : les titres, les Hn mais aussi le gras sont utilisés à bon escient. Tout le contenu est correctement structuré. Et il y a même les sources citées en annexes, avec un lien pointant vers elles en note de bas de page », poursuit Aymeric Bouillat.

Bons points pour le SEO : Flash et JavaScript sont absents de Wikipédia

« Sur ces points techniques visibles sur les pages elles-mêmes, Wikipédia a presque imposé un standard », a pu noter de son côté l’expert SEO José da Silva, de l’agence Résonéo, qui range aussi parmi les bonnes pratiques les illustrations ou graphiques qui rendent la fiche réellement complète, un temps de chargement assez rapide des pages ou encore le sommaire présent sur les fiches bien remplies qui aide l’internaute à accéder rapidement à l’information qu’il cherche. Mais aussi l’absence de fautes d’orthographe sur des article en plus souvent longs, ce qui aide à faire du contenu de Wikipédia une référence

Autre élément technique apprécié des moteurs selon les experts SEO : le Flash et le JavaScript, deux technologies qui compliquent le référencement des pages mais brillent par leur absence dans l’encyclopédie en ligne.

 

Dossier réalisé par Virgile Juhan, Journal du Net – Publié le 27 juin 2012