Vous venez de sélectionner une requête bien juteuse toute en haut de la traine et sentez déjà l'odeur des dollars si le dieu Google vous fait l'honneur de monter sur la plus haute marche du podium ?

Vous cochez frénétiquement votre check list de critères d'optimisations (aujourd'hui bien connus par tous) avec une jubilation à peine dissimulée ?


Target Keyword présent dans l'url

www.example.com/target-keyword.html : Bien entendu, l'url est rewritée sinon on ne peut pas être bien positionné (Remarquez en plus l'extension .html sur une page dynamique c'est toujours cela de pris)

Target Keyword dans le title

<title>Target Keyword</title> : Absence d'autre mot et Target Keyword placé dès le début de la balise !

Target Keyword en strong

<strong>Target Keyword en strong</strong>

Target Keyword dans tous les H

<h1>Target Keyword </h1> : J'ai repris mon title dans du h1 et même dans toutes les autres balises h parce que c'est bon pour le ref nat la sémantique et que Google aime bien le h (pardon...)

Target Keyword à 8,7% de densité

Mon indice de densité est optimal, Google m'accorde le bonus maximal

Target Keyword en image

<img src="target-keyword.gif" alt="Target Keyword" /> J'ai placé une jolie image dont le nom et l'attribut alt correspondent exactement à mon Target Keyword comme cela Google et toutes les personnes ne pouvant pas voir les images pourront comprendre de quoi ma page parle (mouhahahaha)

Target Keyword dans mes backlinks

<a href="" title="Target Keyword"> Target Keyword </a> C'est bien connu, les backlinks sont au coeur de l'algorithme de Google. Tous mes backlinks sont optimisés et ont pour ancre mon Target Keyword sans pollution avec d'autres mots inutiles. Je renseigne l'attribut title avec Target Keyword au cas où Google le lit, on ne sait jamais et pour aider un peu les lecteurs vocaux en passant (L'accessibilité c'est excellent pour le ref, il parait).


Pourquoi une page en apparence sous optimisée ne quitte pas la première position face à une page suroptimisée ?

On pourrait continuer comme cela longuement, la connaissance des principaux critères de l'algorithme de Google n'a rien d'original aujourd'hui et ceci depuis plusieurs années...(moi qui croyais que l'évolution était constante) mais il ne suffit pas d'avoir tous les ingrédients pour réussir un plat et devenir un grand chef non ?

Alors laissez moi vous livrer un secret de référenceur, celui-là même que l'on ne se livre normalement que dans les alcôves les plus obscures entre initiés et adorateurs du dieu Google (je plaisante détendez vous) !

Voici ce que l'on peut souvent lire sur les forums seo :

"Comment se fait-il que cette page est première ? Regardez elle n'est pas optimisée, l'url n'est même pas rewritée ! Il n'y a pas de meta description. Il fait n'importe quoi Google ! Ma page est mieux optimisée non ? La vie est trop injuste..."

Comme je l'ai parfois rappelé à travers différents articles de ce blog, il faut toujours se garder d'avoir une conception trop triviale de l'algorithme de Google.

De manière simpliste on peut pourtant poser 2 hypothèses pour expliquer ce paradoxe entre notre perception de l'algorithme de Google et les résultats parfois étranges observés dans les SERP :

  • La manière d'optimisation qui peut presque être automatisée décrite dans cet article repose sur certains critères erronées ou plus simplement mal pondérés (comme l'ancienneté d'une page ou d'un domaine).
  • Google dispose de filtres anti-suroptimisation puissants. Un système de scoring permet d'évaluer l'optimisation d'une page donnée. Si une valeur seuil est dépassée alors des pénalités peuvent être infligées ou cela déclenche de nouveaux algorithmes spécifiques d'évaluation à moins que cela fasse arriver directement un quality rater ?

Bien entendu, on pourrait imaginer (et certains l'on déjà fait) lancer une analyse à grande échelle sur des milliers de SERP analysant à la fois les pages de classement et en même temps l'optimisation des pages classées...

Personnellement j'avoue trouver rarement en première position une page respectant tous les critères identifiés, et vous ?

Ne serait-ce pas là où l'expérience et le talent d'un référenceur se différencie par rapport à un autre listant sa myriade de critères par coeur ? Je dois vous avouer qu'il m'arrive de "désoptimiser" volontairement les pages sur lesquelles je travaille afin que Google ne perçoive pas trop facilement le "target keyword"... On devient vite parano avec Google non ?

Bon référencement et excellente année 2008 !

Un article du blog Outil Référencement

Quelques remarques sur cet article sont bien entendu à prendre au second degré

Rss du blog outil Référencement


Article suivant : Wikia Search : Lancement du moteur de recherche collaboratif
Article précédent : Suroptimisation et Référencement



Commentaires

04 janvier 2008 par Serval2a

Chut Aurélien, il faut laisser croire aux gens que la recette est LA recette, sinon c'est la mort du petit commerce. ;)

04 janvier 2008 par Brad

Hello,

j'avoue que ton article m'interpelle. Je me retrouve dans l'exemple de sur-optimisation que tu donnes.

En effet, j'accorde un grande importance à la validité (sémantique), l'accessibilité (le minimum vital) et la densité des mots clés. Et au final il y a des sites plus jeune, moins bien optimisé, qui se place systématiquement devant moi dans les SERP.

J'avais déjà entendu parlé (sur WRI il me semble) de la pénalité pour les sites trop optimisé dès leur lancement. Mais il était dit aussi qu'après un certain temps (sandbox ?), cette pénalité se transformait en avantage ... juste le temps que le site vieillisse un peu pour que google lui fasse confiance.

Le mien a 6 mois et a reçu 2500 visiteurs de Google hier ...

Donc que faire ? Encore attendre et espérer que Google me donne une meilleur place, ou désoptimiser mon site ?

Gloire à Google, grand dieu de la fertilité de nos sites :D

04 janvier 2008 par DoChange

Bonjour
Très bon article.
Moi qui me suis mis depuis peu au référencement nat, j'ai essayé toutes ces techniques et je peux dire que ça marche dès fois, mais pas pour longtemps !! Car après avoir optimisé plusieurs sites web, chacune des pages réagissait très bien aux strategic-keywords ... mais l'on s'apperçoit qu'au bout d'un moment on perd touttes ses positions malgré un suivi presque quotitien et des mises à jour regulieres!
A part le travail que je faisait pour ces sites d'une certaine ancienneté, j'avais créé d'autres sites et blogs pour tester sur chacun quelques methodes avec des thèmes semblables aux sites anciens, et je me suis apperçu qu'au bout de quelques mois j'étais largement mieux sur les nouveaux que les anciens !
En plus, si on travaille pour google, on perd des positions sur les autres moteurs, et visversa (souvent).
A mon avis, La meilleure façon d'optimiser son site est d'essayer d'être plus naturel dans ses textes et compagnie!
Ciao

04 janvier 2008 par MoiEtGoogle

Et si Google arrive à expiration ????

07 janvier 2008 par Loki

Salut Aurélien,

je tapes "suroptimisation" dans Google et je trouve ton billet en 2ème position. Preuve que tu ne l'as pas suroptimisé.

07 janvier 2008 par Aurélien Bardon

@Brad : Effectivement, Google est plus permissif devant un cas de suroptimisation avec les domaines connus depuis longtemps contrairement à un nouveau domaine. La confiance semble jouer un rôle important dans les algos de Google.

Dans ton cas, si le trafic que tu as aujourd'hui est satisfaisant, autant ne rien toucher. Sinon, plutôt que de continuer à suroptimiser ton site, tu peux travailler ton contenu et mettre en place tes autres optimisations plus tard.

@DoChange : Pour ne pas être trop dépend du positionnement sur ces expressions clés, prendre en compte la longue traine dans sa démarche d'optimisation / stratégie globale de prospection est certainement une approche moins risquée.

@MoiEtGoogle : Il faudrait regarder sur l'emballage mais je crois que le Google Blackout est prévu dans pas mal de temps...

@Loki : On dirait bien.

07 janvier 2008 par Fabien BRANCHUT

Il y a une autre réponse à la quesiotb : Pourquoi je suis 2ème alors que le 1er à une page même pas optimisée ? Tout simplement par ce que son contenu est beaucoup plus interessant pour les internautes. Les internautes ayant appréciés l'information contenu dans la page ont créé des liens vers cette page sur leurs blogs, forums... La page gagne alors en popularité. La quantité et la qualité (surtout) de liens externes favorisent le pageRank (je parle du vrai PR, celui de l'algo Google).

08 janvier 2008 par luxe-campagne

Hummm...

je pense qu'effectivement, il ne faut pas trop suroptimiser, mais optimiser un peu c'est plutôt bien.
J'étais premier sur "campagne" pendant presque un an, maintenant je suis 2è ou 3è (entre juillet et octobre je n'ai pas touché à mon site) : avoir un site en perpétuelle évolution est un critère qui compte je crois...

Ce qui compte énormément maintenant, c'est d'avoir des "signatures de liens" (externes) bien ficelées non ?

17 janvier 2008 par Aurélien

@luxe-campagne : Je prépare justement 2 billets sur les liens et le netlinking. Mais oui, cela compte beaucoup.

Ajouter un commentaire :

Les commentaires pour ce billet sont fermés.