De nombreux facteurs certainement pris en considération par Google dans l'élaboration de son classement sont difficilement démontrables. C'est justement le cas pour le taux de clic dans les SERP et l'utilisation de certaines données telles que le taux de rebond ou plus globalement de l'utilisation des informations fournies par Google Analytics.

Voici une traduction d'un article paru sur 1stsearchenginerankings.com qui s'intéresse justement à ces problématiques. Vous trouverez quelques remarques sur les hypothèses avancées juste après la traduction.

Bonne lecture.


Cela fait quelque temps que je promets d'écrire cet article mais j'attendais d'avoir assez de données pour le faire. J'ai fait beaucoup de recherches et j'ai désormais le sentiment d'avoir assez approfondi le sujet pour être en mesure de vous offrir au minimum une explication basique de cette nouvelle technologie, de ses effets sur nos sites web, de comment contrer les problèmes qu'elle peut causer, et de quels avantages peuvent en être tirés.

Les données que je vais exposer sont basées sur mes propres recherches, et sur celles effectuées par d'autres participants sur SeoChat, ainsi que par 100 participants anonymes qui ont eu la gentillesse d'y consacrer leur temps.

J'espère que cet article vous aidera à mieux comprendre quels sont les effets du l'analyse comportemental de Google sur votre site.

Tout d'abord allons jeter un oeil du côté de SeoChat et d'une expérience qui y a été lancée par le distingué membre Gazzakh. Le but de son expérience était de déterminer si oui ou non le nombre de clics vers un site répertorié par les résultats de recherche Google pouvait avoir un effet positif ou négatif sur le classement de ce site sur Google. Voici le thread officiel de l'expérience menée :

Experience #1 : Les clics influent-ils sur le classement de Google ?

Afin de vérifier cette théorie, nous avons demandé aux utilisateurs de participer, et avons reçu une réponse positive de la part de 65 intéressés. Nous avons ensuite choisi une page qui n'était pas utilisée et dont nous étions surs qu'elle ne recevrait malheureusement pas de backlinks.

Puis nous avons trouvé une phrase de recherche qui classait notre site-test en bas de la page 1(#10,11). Nous avons demandé aux utilisateurs d'effectuer cette recherche précise et de cliquer sur le résultat pour ce site spécifique. Le site utilisé pour l'expérience n'avait pas Google Analytics et ne pouvait donc pas déterminer ce que faisaient les utilisateurs lorsqu'ils cliquaient pour aller sur le site, SAUF si ceux-ci retournaient ensuite sur Google, ce que nous avions interdit à tous les participants de faire.

Il fallut attendre deux semaines pour constater un changement notable, mais tous les participants n'avaient pas commencé l'expérience au même moment, ce qui à mon avis a aussi permis une simulation plus réaliste.

Au début, nous avons constaté un changement d'une ou deux positions seulement, donc le site restait dans les positions #10, 11, 9 et 8. Mais après environ deux semaines, le classement du site a commencé à s'améliorer bien plus nettement, grimpant jusqu'à la position #4 et même, selon certains, #2.

Il faut garder deux choses très importantes à l'esprit en ce qui concerne cette expérience. Tout d'abord, il s'agissait d'une expérience à très petite échelle, réalisée à partir d'une phrase qui n'était pas compétitive du tout.

En deuxième lieu, à part celles des participants, aucune autre recherche n'était effectuée pour cette phrase particulière, ce qui signifiait donc aux yeux de Google que 99.9% ou même 100% des recherches pour ce résultat avaient mené à ce site-là et pas à un autre. Ceci a sans doute indiqué à Google que les autres résultats n'étaient pas ce que souhaitaient trouver les utilisateurs, donc le moteur de recherche a commencé à remonter le site-test dans son classement.

J'ai tenté de reproduire cette expérience à une bien plus grande échelle en utilisant un mot clef d'un niveau de compétitivité moyen et avec une centaine de participants, mais je n'ai constaté absolument aucun changement dans le classement.

Ma conclusion est donc que ce facteur précis, c'est-à-dire le taux de clic dans les pages de résultats, à une très faible valeur et qu'il ne produira vraisemblablement de résultats que si la majorité des internautes cliquent sur ce site précis ou si la majorité des clics vers d'autres sites terminent en rebond.

Donc pour ceux d'entre vous qui songiez à payer des indiens pour qu'ils cliquent sur vos positionnements de sites dans les résultats de recherche Google, vous pouvez immédiatement renoncer à cette idée, à moins d'embaucher 5 à 10 mille indiens sans quoi il n'y aurait aucun changement visible.

Donc les résultats de l'expérience sont les suivants :

  • Pour une recherche avec comme mot clef le nom d'une entreprise vous verrez sans doute votre positionnement s'améliorer dû au fait que la plupart des utilisateurs vont cliquer sur votre résultat puisque c'est ce qu'ils recherchent.
  • Un mot clef de compétitivité moyenne avec 100 participants de partout dans le monde en train de cliquer sur un même résultat, n'a conduit à aucune amélioration visible du classement, certainement parce qu'il y avait beaucoup plus d'autres utilisateurs qui cliquaient sur les autres résultats de la recherche.
  • Il est probable qu'une majorité de clics dirigés vers un site en particulier aiderait Google à définir que ce site mérite un meilleur classement.
  • Ça ne vous servira pas à grand chose d'embaucher des indiens pour cliquer sur votre site dans la liste de résultats de recherche.

Experience #2 : Le Google Bounce Factor existe-t'il ?

Cette deuxième expérience était légèrement différente. En plus de demander aux participants de cliquer sur un classement précis, nous leur avons demandé de passer du temps sur le site en question, de cliquer sur des liens, de faire semblant de lire des passages etc. En gros de faire comme s'ils appréciaient et utilisaient le site naturellement.

Ce site, contrairement à celui utilisé pour la première expérience, était équipé de Google Analytics sur toutes ses pages. Comme dans l'expérience 1, le site n'était pas fréquenté et aucun lien n'avaient été gagné pendant une période d'un an avant le test, ainsi que pendant ou même après l'expérience.

Aucun des sites utilisés pour ces expériences n'a été ajouté en lien. Nous nous sommes servis de trois sites pour cette expérience ainsi que des données obtenues sur trois sites possédant des comptes Google Analytics qui nous ont été généreusement soumis par trois webmasters sur SeoChat.

Comme la précédente, cette expérience a été rendue possible par 100 participants. J'avais espéré recevoir la participation de 500 personnes environ et ne m'attendais pas par conséquent à observer de changement positif ou négatif notable dans le classement basé sur une centaine de participants seulement.

Nous voulions prouver par cette expérience que les données obtenues grâce à Google Analytics sont utilisées pour modifier le positionnement des sites dans Google.

Nous voulions démontrer que le Google Bounce Factor existe réellement et que le temps passé par un visiteur sur un site joue un rôle dans l'évolution de son positionnement. Que nous ont donc dévoilé ces données ? Lisez la suite...

J'ai demandé aux participants de suivre mes instructions sur une durée d'une semaine, de la même manière que pour la première expérience. Ils devaient cliquer sur le classement, passer en moyenne 7 à 10 minutes sur la page, après quoi ils devaient cliquer sur des liens au sein du site lui-même (pas de liens sortants), et finalement, ils devaient passer au moins une fois de 30 minutes à une heure sur le site.

Ils devaient ensuite quitter une page contrôlée par Google Analytics pour se rendre sur une page (faisant toujours partie du même site) mais qui n'était pas taguée. Ceci était donc pour Google le dernier signe de présence de l'utilisateur sur le site.

Pendant la première semaine nous n'avons constaté aucun changement, et commencions à nous demander si la phrase de recherche n'était pas trop compétitive et s'il ne nous faudrait pas plus de participants. Mais au bout d'une semaine nous avons commencé à remarquer des changements.

Après une semaine et demi, le site a sauté 47 positions, passant de la 80ème place à la 33ème. Nous sommes d'avis que si nous avions poursuivi l'expérience plus longtemps, nous aurions pu conduire le site à la première page du classement.

Pendant que cette expérience était en cours, le taux de rebond avait chute à 13% et la durée moyenne des visites était passée d'une minute et demi à 12 minutes.

Après la fin de l'expérience, lorsque les utilisateurs avaient cessé de cliquer sur le site, nous avons constaté que le taux de rebond augmentait à nouveau jusqu'à 75% et que le temps de visite moyen était redescendu à 3 minutes. Après environ 9 jours à compter de la fin de l'expérience, nous avons vu le site regagner son taux de rebond initial, c'est-à-dire 78%.

Je précise à nouveau que le site ne connaissait aucune activité en dehors de l'expérience que nous avons menée, c'était un site web quasi mort.

Ainsi, à l'aide de mes recherches personnelles et de ce que j'ai pu constater sur mes propres sites, les conclusions que j'en tire sont les suivantes :

  • Le Google Bounce Factor existe vraiment. Par conséquent, trop de recherches qui mènent à un clic sur votre site suivi d'un rebond pourraient endommager le classement de votre site.
  • Diminuer ce taux en donnant aux usagers ce qu'ils recherchent plus vite, a semblerait-il un effet très positif sur votre site.
  • La durée de temps passé par les visiteurs sur votre site n'a vraisemblablement que peu d'effet sur votre classement, cependant toutes les expériences ne nous ont pas permis de vérifier ce fait de manière certaine.
  • Les données de Google Analytics sont en fait utilisées par Google afin de manipuler les résultats de son moteur de recherche. En utilisant Google Analytics, les informations récoltées pourraient avoir soit un effet positif, soit une effet négatif sur votre site.
  • Le taux général de rebond pour un site, ainsi que chaque pourcentage isolé de rebond correspondant à chacun de vos mots-clefs, jouent tous un rôle.

Vous serez sans doute nombreux à vous dire qu'il vaudrait mieux retirer le code Google Analytics de votre site et d'arrêter d'utiliser ses services. Il y a des arguments pour et contre. Cela dépend vraiment des données de votre site, est-ce vraiment une raison pour le supprimer ?

Si votre taux de rebond dépasse les 65% et tourne autour des 75% et que votre temps moyen de visite est très faible, je vous conseillerais de retirer le code pour l'instant. Utilisez peut-être Clicky Web Analytics 2.0 à la place, jusqu'à ce que vous soyez parvenu à faire baisser votre taux de rebond. Si vous avez un taux de rebond très élevé, essayez d'en déterminer les raisons, pour régler le problème à sa source, puis recommencez à utiliser Google Analytics.

Je pense aussi, même si je n'en suis pas absolument sûr et qu'il me manque les informations pour le prouver, que les données de votre compte Google Analytics peuvent être utilisées pour le positionnement sur Google Adwords. Je ne fais pas assez de positionnement payant pour pouvoir le vérifier malheureusement.

Si quelqu'un connaît bien Google Adwords et aimerait bien tester cette théorie, tenez moi au courant des résultats !

Beaucoup de webmasters ont exprimé leur inquiétude à propos de ce type de facteur de classement, pensant qu'il encouragerait les webmaster à embaucher des gens pour cliquer dans les SERP dans le but d'améliorer leur classements.

Nous avons déjà déterminé qu'il n'y avait que de très faibles chances d'améliorer votre classement en faisant cela, même en utilisant des mots clefs très peu compétitifs, même si, rappelons-le, le fait que la majorité des utilisateurs vont rebondir ou non lorsqu'ils tombent sur votre site et le temps qu'ils y passent peut jouer sur votre classement.

Cependant, les donnés indiquaient aussi que ceci n'était pas un phénomène isolé. Les données globales, et celles acquises sur la longue durée, peuvent continuer à avoir un effet sur votre site, donc vous risquez de perdre votre classement si le taux de rebond se met à croître de nouveau.

Cette recherche est basée sur l'expérience SeoChat, mes propres sites, et à peu près cinq autres sites qui ont été généreusement mis à notre disposition pour effectuer ces tests. Je tiens à remercier personnellement toutes les personnes qui ont donné de leur temps pour participer et qui ont partagé leurs sites et leur informations analytiques. Sans elles, cette expérience n'aurait pas été possible.


Vous êtes encore en train de lire ? :) Voici quelques remarques sur ces expériences.

En ce qui concerne le taux de clic dans les SERP, il s'agit d'un élément indubitablement pris en compte par Google et ceci depuis plusieurs années. Vous pouvez d'ailleurs constater par vous même, l'évènement javascript "onmousedown" placé sur les liens. D'ailleurs si mes souvenirs sont bons, pendant longtemps seuls les clics sous Internet Explorer étaient trackés. Quelqu'un confirme ?

En ce qui concerne la pondération de ce facteur, elle reste difficile à évaluer. L'expérience décrite dans cet article ne permet de tirer aucune conclusion définitive. En revanche, étant donné qu'il s'agit d'un critère difficilement falsifiable par un webmaster, il y a de fortes chances pour que Google lui accorde une certaine confiance.

J'avoue avoir essayé d'utiliser ce critère lors du dernier concours de référencement auquel j'ai participé en incitant mes contacts à cliquer sur ma page de concours une fois par jour. Il serait aberrant qu'un moteur n'utilise pas ce critère.

Google est parfaitement capable de détecter (sans Google Analytics) si, après avoir cliqué sur un résultat, vous êtes revenu sur la page de recherche. Vous vous souvenez peut être de cet article : Evaluer la pertinence des publicités Google Adwords, Google invitait un internaute ayant cliqué sur un lien sponsorisé à évaluer le site visité. A mon avis, la complexité à influencer ce facteur est tout simplement proportionnelle aux nombres de saisies quotidiennes de l'expression clef ciblée.

Bien entendu, Google n'aura pas manqué de mettre en place des contrôles notamment via l'adresse IP et les autres fonctionnalités anti-fraude utilisées pour Google Adwords ou Google Adsense.

Concernant l'utilisation des données de Google Analytics, j'ai envie de dire qu'il est certainement difficile pour Google de ne pas utiliser ce type de données. De la même manière que Google n'annoncera jamais qu'il existe un lien entre le Référencement Naturel (sens large) et les liens sponsorisés, il est peu probable que Google communique un jour sur cela.

Il faut toujours avoir en tête que Google recherche la pertinence. Un site qui possède un fort taux de rebond est-il un site qui ne répond pas à la recherche de l'utilisateur ? Dans la majorité des cas, je serais tenté de répondre "oui". En tant qu'administrateur d'un annuaire de liens en dur, cela est dur à avaler. Je dois vous avouer que le taux de rebond est tout simplement monstrueux et dépasse les 70%...

Par ailleurs, le fait de revenir sur la page de recherche Google est certainement encore plus néfaste qu'un simple rebond vers un autre site.

Au delà de l'utilisation du taux de rebond, Google Analytics fourmillent de données potentiellement intéressantes dans le cadre de l'élaboration de son classement mais aussi tout simplement pour indexer plus rapidement et même en temps réel...

En guise de conclusion, je tiens à rappeler encore une fois qu'il n'est pas possible de tirer de conclusions définitives sur les éléments soulevés dans ce billet. Les algorithmes des moteurs de recherche gardent certains de leurs secrets et c'est ce qui fait du référencement naturel un métier passionnant. Ce billet doit donc être lu et interprété en ayant cette remarque à l'esprit.

Merci à ceux qui auront lu cet article en entier ainsi qu'à ceux qui laisseront leurs remarques en commentaire et je souhaite plus que jamais un bon référencement à tous ceux qui répondront à l'appel du linkbaiting :)

Un article du blog Outil Référencement - Traduction Shannon Delorme

Rss du blog outil Référencement


Article suivant : Clustering Google et notation des sites dans les SERP
Article précédent : Google Bounce Factor : Le secret le mieux gardé de Google !



Commentaires

03 septembre 2007 par bruno bichet (aka br1o)

Excellente idée d'avoir traduit ce texte ! Non seulement ces données ne m'étonnent pas du tout, mais je suis étonné que peu de personne fasse d'expérience de ce genre en France. Pour ma part j'avais évoqué la notion de clickrank dans ce billet : www.css4design.com/blog/i...

03 septembre 2007 par Éric NIAKISSA

Bonjour Aurélien,

Bravo pour cet article, je vois que tu y a passé du temps.

Je voudrais apporter quelques précisions sur l'analyse comportementale des internautes, et plus précisément sur le taux de rebond. Il peut varier énormément d'un site à l'autre :
- très faible pour un site en favoris
- faible pour un site qui utilise l'emailing
- modéré pour un site de téléchargement
- élevé pour un site de contenu référencé sur des articles précis
- très élevé pour des sites de services
- aléatoire lorsqu'il s'agit d'un lien cliqué suite à de la curiosité : surf, signature en bas d'un mail ou d'un message, lien du style "cliquez-ici" (ou "ne cliquez-pas ici")

En ce qui concerne Adwords, dis-moi ce que je peux faire pour toi ;)

Au fait, super la photo !

03 septembre 2007 par Lyononline

Excellent article. Je me suis toujours demande comment Google Analytics tenait compte des stats pour faire evoluer un site dans son index.

En tout cas bravo pour l'effort de vulgarisation et les explications detaillees...meme si ce genre de tests seraient plus pertinant a 1.000 ou encore 10.000 utilisateurs :-)

03 septembre 2007 par MagicYoyo

Bonjour;

Merci d'avoir traduit cette étude article. Une chose m'étonne : Il ne semble pas considérer la toolbar comme fournisseur de données comportementales.
Or, l'affichage du PR nécessite l'envoi d'une requête à Google : "quel est le PR de cette page ?". Cela me parait un excellent moyen de suivre le comportement des utilisateurs. Sinon, pourquoi Google maintiendrait l'affichage du PR, décrié comme favorisant le link spam ?

03 septembre 2007 par Utilisable

Salut Aurélien

excellent article ! Enfin du neuf sur l'activité de Google.
Je me suis permis de reprendre ton article sur le forum d'utilisable, en conservant tous les liens vers ton blog bien sûr !
forum.utilisable.com/inde...

++

Patrick

03 septembre 2007 par GuiZMe

Excellent article ! merci pour la traduction Aurélien ! Comme le dit plus haut Patrick, enfin du neuf sur l'activité de Google. Je serai tenter d'ajouter, enfin une étude digne de ce nom.

+

Guillaume

03 septembre 2007 par LebossTom

Très intéressant merci Aurélien ;)

Par contre je réfute l'idée que le taux de rebond et le temps passé soit un critère valable pour évaluer la "pertinence" d'une page.

Le chapitre sur le retrait de GG analytics est plus que discutable ;).

le fait que l'internaute retourne sur Google et reformule sa requête est à mon sens bien plus révélateur.

Enfin j'adhère complètement à la supposition de MagicYoyo la toolbar est utilisée. Je vois mal Google se passer de l'outil statistique le plus fiable et performant au monde :p.

03 septembre 2007 par Moteurs News

Ce genre d'affirmation :

Citation:
Les données de Google Analytics sont en fait utilisées par Google afin de manipuler les résultats de son moteur de recherche. En utilisant Google Analytics, les informations récoltées pourraient avoir soit un effet positif, soit une effet négatif sur votre site.


me semble un peu définitif:

Question méthodologie scientifique, il y aurait pas mal a redire :

- un test unique, sur 3 sites (morts selon lui, pas de nouveau liens depuis plus d'un an) avec 100 personnes pendant 2 semaines,

et il constate des variations de positionnement, donc ces variations sont dues au test en cours.

J'espère que l'auteur n'a pas l'intention de faire carrière comme chercheur parce qu'il arrivera à nous prouver ce qu'il veut avec ce genre de protocoles et de raisonnements...

Des variations de positionnement (du même ordre de grandeur) sur mes sites, j'en constate en permanence sans avoir demandé à des internautes de venir visiter le site pour en diminuer le taux de rebond.

Après, que Google se servent d'Analytics pour récolter des données statistiques "dé-personnalisée", c'est à peu près évident, n'importe qui pouvant mettre la main dessus en ferait autant, mais qu'ils les utilisent pour le positionnement d'un site, c'est autre chose.

03 septembre 2007 par Pierre DELAVAQUERIE

Je me suis fait la même réflexion que MagicYoyo concernant une utilisation de la barre Google qui me semblerait bien plus adaptée pour ce type d'algorithme car cela préserverait "l'indépendance" vis a vis des webmasters (voir ici : www.pic-interactive.com/g... )

Excellent article en tout cas !

03 septembre 2007 par TOMHTML

La photo m'a donné envie de lire l'article :)
C'est du bon boulot, bien joué Aurélien.

03 septembre 2007 par Aurélien Bardon

@br1o
Bien trouvé le nom "ClickRank"

@Éric et TOMHTML
Je dois avouer que Florian m'a donné un bon coup de main pour l'image illustrant l'article.

@MagicYoyo et LebossTom
Concernant la toolbar il est certain que Google l'utilise. J'ai souvent eu des cas d'indexation non désirée à cause d'elle... certes l'auteur n'en parle pas mais il est difficile de tout aborder dans un seul et même article.

@Patrick
Aucun souci et merci. Les conditions d'utilisation sont d'ailleurs ici.

@Moteurs News et Lyononline
Concernant les conclusions à tirer par rapport aux expériences menées, on ne peut bien entendu rien conclure de définitif comme je le souligne en fin d'article.

@Pierre DELAVAQUERIE
Il est parfaitement possible d'utiliser à la fois les données de la toolbar, de google analytics et du taux de clic dans les SERP. L'un n'empêche pas l'autre et le croisement de données peut être encore plus intéressant.

04 septembre 2007 par Romain

Et alors dans les manipulations borderline qui seraient applicables pour améliorer tout çà, peut-on imaginer de bloquer le bouton "retour en arrière" du navigateur pour empècher les visiteurs de revenir aussitôt sur la SERP de Google ?

04 septembre 2007 par alchi

Merci pour cette étude.
Je vient juste d'installer gg Analytics, comment puis je faire pour connaitre le taux de rebond de mes sites ?
Merci de ta réponse.

04 septembre 2007 par Aurélien guiton

Très instructif ces tests sur l'utilisation des données comportementales par Google!
Ca me fait penser à un article d' Arnaud Briand sur l'évolution du métier de référenceur:
www.my.epokhe.com/2007/06...

04 septembre 2007 par Jeremy

Merci à toi pour la traduction de ce trés bon article. Sans toutefois en tirer de conclusion trop hatives, je me dis que le secteur du referencement en inde, avec un minimum de méthodologie a de beau jour devant lui...

05 septembre 2007 par Frederic

Merci pour cet article, et en particulier pour ce test avec/sans Google Analytics.

09 septembre 2007 par Hibou57

J'ai un doute sur l'utilisation faite par Google du taux de rebond.

Chez Google, les ingénieurs et ingénieuses ne sont pas des débutant(e)s, et ils/elles ont quand-même une bonne expérience du web, et plusieurs schémas à l'esprit : on ne navigue pas sur tous les sites de la même manière.

Un forum où les gens parlent de la pluie et du beaux temps aura un faible taux de rebonds (car les gens y viennent pas causer longuement et passer le temps), et n'aura pourtant que peu de contenu pertinant. A l'inverse, une page de référence trés pertinante, sur laquel on vient récupérer une information bréve et précise, aura un trés fort taux de rebond, alors que la page est pourtant pertinente. Et j'ajouterais même que dans le cas de cet exemple, même le retour à la page de recherche n'est pas nécéssairement un facteur négatif : s'agissant de références, il est tout à fait naturel et sain de multiplier les sources et de les comparer.

Le Web n'est pas homogène, il varie autant que les paysages qui passent de la montagne à la plage.

Je ne pense pas Google naïf au point d'ignorer cela. Cela n'exclus pas bien sûr que le taux de rebond puisse être un facteur de classement en théorie... mais en pratique, cela nécéssiterait de la mettre en correspondance avec le type de site, le type d'utilisation, le type d'information contenu. Et cela est tellement complexe que Google n'en est certainement pas capable (quand on sait que l'analyse sémantique est déjà elle-même une rareté dans le monde des moteurs de recherche... et quand-bien même, une analyse sémantique ne serait encore même pas suffisante à cette tache, car il faudrait encore tenir de l'organisation des l'information contenue).

Le taux de rebond est un paramètre qui n'a aucun sens si on ne l'associe pas à d'autre paramètre. Ce serait comme donner une température, demander si c'est une température normale, et de devoir en juger sans savoir où cette mesure de température à été faite, ni à quelle lattitude elle correspond. Ors il se trouve qu'un 20° est une température normal en europe, normal ou pas selon l'heure dans le Sahara Marocain, et totalement anormal à tout moment dans l'Antartic.

Je ne pense pas Google assez naïf pour utiliser un paramètre de cette manière, tout en sachant que l'évidence lui interdit d'interpréter ce paramètre seul sans l'associer à aucuns autres. Et comme esquisé en début de ce commentaire, il y a de bonnes raisons même également d'avoir des doutes sur la pertinence du taux de retour à la page de recherche.

Google n'utilise pas des jouets ou des gadgets, mais des éléments solidement fondés... et en tous les cas, confirmés par le temps (principalement des analyses statistiques).

Si Google utilise le taux de rebond, alors on ne sait absolument pas quel usage il en fait... en tous les cas, probablement pas celui-ci.

Hibou57

11 septembre 2007 par Serge Cheminade

Bonjour Aurélien

Excellent article. Je partage ton opinion. Cela fait longtemps que je suis convaincu que Google analyse l'audience des sites avec tous les moyens dont il dispose pour pouvoir le faire.

Je l'ai écrit sur mon portail. J'avais lancé à ce sujet une discussion sur WRI mais j'y ai rencontré beaucoup de scepticisme. Sur mon site j'ai plus de trente six mille pages aux contenus similaires. Si je lis certaines argumentations de référenceurs mon site devrait être déclassé. Pourtant c'est le contraire qui se produit. Avec l'augmentation de l'audience de mon portail, il m'arrivait de plus en plus de messages d'internautes (souvent webmasters jaloux) qui jugeaient que je spammais Google pour être dans les premières positions.

Cela m'a conduit à expliquer pourquoi mon portail montait dans les résultats de Google. Je le fais à partir de www.orvinfait.fr/pages_co...

Je pense que mon site devrait fortement t'intéresser car il permet de mettre des textes et des liens. Le nombre de liens qui peuvent être mis ne sont pas limités. Grâce aux logiciels mis en place ces textes et ces liens sont insérés sur des pages ayant pour extension html. Les internautes placent eux-même leurs textes et éventuellement des liens. Ce placement se fait immédiatement, donc sans validation. Ils peuvent ensuite les supprimer.

Le fait qu'il n'y ait pas de validation ne signifie pas pour autant que j'accepte n'importe quoi. Pour moi la qualité prime sur la quantité. J'ai fixé des règles. Elles doivent être respectées. Pour cela je n'accepte pour l'inscription que des adresses de messageries fournies par des fournisseurs d'accès Internet.

01 octobre 2007 par Alex

Bonjour Aurélien,

Merci de cette traduction. J'aime ce genre d'article où la conclusion est que rien n'est certain :D

PS : Tu peux pas faire moins complexe comme captcha ?

01 octobre 2007 par Aurélien Bardon

@Alex : En fait tu as posté 3 commentaires donc je suppose que c'est plutôt le message de confirmation qui est dur à voir plutôt que le captcha à renseigner. Mais tu as raison, il faut que je fasse quelque chose.

23 octobre 2007 par Alex

Bonjour Aurélien,

Oui, c'est peut être aussi une histoire de message de confirmation (je suis aussi peut-être un stressé du clic) :D

Sinon, c'est pas pratique que tu supprimes les liens des commentateurs, j'aimerais bien contacter Hibou57, pour lui demander si je pouvais récupérer des extraits de son commentaire justement :D

D'ailleurs, c'est quoi cette angoisse :
- de spam ? Tu as déjà un captcha.
- de fuite de PR ? Une blague, pour un billet, comme celui-ci, qui ne sera jamais énormément liés (en comparaison à la somme des BL vers les différentes pages du site et principalement l'accueil)

23 octobre 2007 par Aurélien Bardon

Alex, si tu le permet, je souhaite te répondre prochainement dans un billet dédié, cela te convient ?

En ce qui concerne Hibou57, il te suffit de taper son pseudo dans Google pour trouver le moyen de le contacter ;)

25 octobre 2007 par Nicolas F.

Expérience intéressante, même si ces effets pouvaient être ressentis de manière empirique.

Par contre, et c'est là que je souhaite mettre un bémol, je n'ai pas entendu parlé de l'obligation, lors de ces tests, de désactiver la Google Toolbar (la plupart des SEO l'ont).

Je suis persuadé qu'une partie des améliorations constatées sont le fruit des informations récoltées par la Google toolbar.

A vérifier.

Ajouter un commentaire :

Les commentaires pour ce billet sont fermés.