Le 3 juin fut publié un article de Saul Hansell dans le célèbre News York Times traitant du fonctionnement de l'algorithme de Google permettant de classer les sites. Il est également abordé le process des mises à jour de l'algorithme ainsi que leurs méthodes de travail pour préserver et améliorer la qualité des résultats.

Cet article me semble intéressant pour 5 principales raisons :

  • Il confirme de nombreuses hypothèses émises depuis longtemps
  • Il s'agit d'un article traitant de l'algorithme de classement
  • Les informations proviennent de Google
  • De nouveau éléments de réflexion sont proposés
  • Il permet de mieux comprendre comment fonctionne l'algorithme

Voici donc une traduction intégrale (non officielle) réalisée par la talentueuse Shannon Delorme en exclusivité pour votre blog préféré.


Ces jours-ci, Google semble tout faire, partout. Il photographie votre maison depuis l'espace, copie des livres rares en Sanskrit en Inde, s'octroie à force de charme une place sur Madison Avenue, cherche des noises à Hollywood et tente de contrecarrer le monopole exercé par Microsoft sur le software.

Mais Google demeure avant tout un moteur de recherche. Ses pages de recherche, ses liens hypertextes bleus (NDLT : et jaunes désormais) qui se détachent sur un fond neutre en on fait le plus utilisé, le plus rentable et l'on pourrait même soutenir, l'entreprise la plus puissante sur le Net. Google constitue désormais le fidèle aide aux devoirs à la maison, navigateur et annuaire de pages jaunes de près d'un demi milliard d'utilisateurs, et est capable de retrouver les plus inattendues des aiguilles dans la plus grosse botte de données du monde, et ce en seulement une fraction de seconde.

Toutefois, s'il est facile de s'enthousiasmer au sujet du miracle de la modernité qu'incarne Google, le site représente aussi l'une des plus grandes frustrations du monde. Des millions de fois par jour, des utilisateurs quittent la page de Google déçus de ne pas avoir trouvé l'hôtel, la recette de cuisine ou bien la biographie de ce mec branché qu'ils cherchaient. Google trouve souvent ce que recherchent ses utilisateurs, mais pas toujours.

C'est pour cette raison qu'Amit Singhal et des centaines d'autres ingénieurs de Google apportent en permanence des petites modifications au moteur de recherche de l'entreprise, dans une difficile tentative de refermer cet écart entre souvent et toujours.

M. Singhal est le maître de ce que Google nomme son "ranking algorithm", ou "algorithme de classement", autrement dit les formules qui décident quelles pages web répondront mieux à telle ou telle question de chaque utilisateur. C'est une composante essentielle du sanctuaire intérieur de Google, un département nommé "Search Quality" dont l'entreprise traite comme d'un secret d'état. Google n'autorise que rarement à des gens de l'extérieur à visiter cette section et s'est montré méfiant lorsqu'il s'est agi de permettre à M. Singhal de parler avec les médias à propos de cette potion magique et mathématique qui frémit à l'intérieur des millions de boîtes noires qui font tourner son moteur de recherche.

Google attache tant d'importance à M. Singhal et à son équipe pour la plus simple des raisons de compétitivité. L'entreprise est persuadée que sa capacité à réduire le nombre de fois où les utilisateurs sont déçus par une recherche constitue une arme cruciale pour repousser des attaques de plus en plus féroces de la part de concurrents tels que Yahoo ou Microsoft, tout en s'assurant que la mine d'or publicitaire que représente le Search reste bien ordonnée.

"La valeur fondamentale créée par Google est le "Ranking" affirme John Battelle, le directeur général de Federated Media, un blog et un réseau, ainsi que l'auteur de "The Search", un livre sur Google.

Il fait remarquer que les boutiques en ligne reçoivent un quart voire la moitié de leur visiteurs ainsi que la plupart de leurs clients grâce aux moteurs de recherche. Et les sites de médias constatent que de plus en plus de gens ignorent désormais leur pages d'accueil (où les taux de fréquentation sont d'ordinaire les plus élevés) et se servent de Google pour accéder directement aux pages spécifiques qui les intéressent.

"Google est devenu l'élément moteur du Net", dit M. Battelle. "Il faut en faire partie".

Les utilisateurs, bien sûr, ne voient pas la science et l'ingéniosité qui fait tourner les boîtes noires de Google, mais l'équipe en charge de la qualité des pages de résultats apporte une demi-douzaine de changements majeurs ou mineurs par semaine au vaste nid de formules mathématiques qui sous-tendent le fonctionnement du moteur de recherche.

Ces formules sont devenues de plus en plus à mêmes de lire les pensées des utilisateurs afin d'interpréter même de très brèves requêtes. Les utilisateurs sont-ils en train de chercher un emploi, un achat ou bien un fait ? Les formules savent distinguer entre les personnes qui saisissent "apples" au sens du fruit "pomme", et ceux qui tapent "apple" et recherchent des ordinateurs ou des ipods de la marque du même nom. Elles sont même en mesure de compenser les recherches à la formulation très vague ou les erreurs complètes.

Sur ces quelques dernières années le Search est passé du "donnez moi ce que j'ai tapé" à "donnez moi ce que je souhaite trouver", explique M. Singhal, un homme de 39 ans originaire de l'Inde et qui a rejoint le groupe Google en 2000. Il est maintenant un "Fellow" de Google, une distinction que l'entreprise réserve à ses ingénieurs d'élite.

Google a récemment autorisé un reporter du New-York Times à passer une journée en compagnie de M.Singhal et d'autres membres de l'équipe de Qualité du Search, lui permettant d'observer des réunions internes et de parler à plusieurs des ingénieurs les plus qualifiés. Google refusait de répondre à plusieurs questions, mais les ingénieurs ont toutefois expliqué beaucoup plus de choses sur le fonctionnement de leur moteur de recherche que ce qu'ils avaient bien voulu relater aux médias auparavant.



Tandis que Google réajuste en permanence son moteur de recherche, l'un des défis auxquels il se trouve confronté est celui de sa propre échelle. Le site est maintenant l'un des plus populaires du monde, proposant ses services en 112 langues, indexant des dizaines de milliards de pages Web et traitant des centaines de millions de requêtes par jour.

Ce qui est plus intimidant encore, c'est que plusieurs de ces pages sont des impostures crées par des mercantis qui tentent d'attirer les internautes sur leurs sites remplis de publicité ou d'arnaques financières. Parallèlement à cela, les utilisateurs s'attendent désormais à ce que Google soit en mesure de passer toutes ces données au crible et de trouver ce qu'ils recherchent avec pour indice seuls quelques mots.

"Les attentes des clients sont devenues plus exigeantes aujourd'hui", explique Udi Manber, qui supervise tout le groupe responsable de la qualité des pages des résultats. "Aux débuts du des moteurs de recherche, si vous cherchiez quelque chose et obteniez le résultat attendu, c'était miraculeux. Aujourd'hui, si vous ne trouvez pas exactement ce que vous attendez dans les trois premiers résultats, c'est qu'il y a un problème."

L'approche adoptée par Google envers la recherche reflète ses stratégies peu conventionnelles de management. Google emploie des centaines d'ingénieurs, dont des experts de premier plan dans le domaine du Search, venus des milieux universitaires et travaillant sur des sujets qui les intéressent particulièrement, et ceci dans une organisation flexible. Mais pour ce qui concerne le moteur de recherche en tant que tel et qui est constitué d'une imbrication de plusieurs milliers d'équations, Google doit surveiller le travail indépendant des ingénieurs en le confrontant à une rigueur objective et quantitative, afin que les nouvelles formules ne fassent pas plus de mal que de bien.

Comme toujours, modifier les formules et contrôler la qualité de la recherche s'apparente à un numéro d'équilibriste. "Vous changez quelque chose, et cela affecte certaines requêtes positivement, mais dans le même temps cela en touche d'autres négativement." dit M. Manber. "Vous ne pouvez pas lancer des modifications qui seraient 100% positives."

L'épicentre de la quête effrénée de Google est le Batîment 43, au coeur du siège social de la compagnie, connu sous le nom de Googleplex. Dans un clin d'oeil à la fascination pour les voyages dans l'espace de Larry Page, le co-fondateur de Google, une réplique taille réelle de SpaceShip One, le premier vaisseau spatial financé par des fonds privés, trône au centre du lobby du bâtiment. Le vaisseau spatial rappelle aussi de manière on ne peut plus tangible qu'en dépit de ses utilisations prosaïques (trouver l'adresse de la blanchisserie du coin ou se renseigner sur une potentiel petit ami), ce que réalise Google est en quelque sorte comparable à de l'astrophysique.

Au sommet d'un lumineux escalier jaune clair dans le Bâtiment 43, se trouve le bureau que Mr. Singhal partage avec trois autres ingénieurs de haut rang. Il est encombré de sabres lasers en plastique, d'épées en mousse et de pistolets Nerfs. Un grand tableau blanc à côté du bureau de Mr. Singhal est noirci de graphiques, de requêtes et de fragments multicolores d'algorithmes mathématiques. Des plaintes provenant d'utilisateurs dont les recherches ont mal tourné sont également inscrites sur le tableau.

N'importe lequel des 10 000 employés de Google peut se servir de son système baptisé "Buganizer" pour signaler un problème de qualité dans les pages de résultats, et c'est ce qui se produit environ une centaine de fois par jour, désignant de fait Mr. Singhal comme la personne chargée d'y remédier.

"Ca fonctionne comme ceci : quelqu'un apporte une requête ayant échoué à Amit et celui-ci la choie et la chérit jusqu'à ce qu'il comprenne comment rectifier l'algorithme" explique Matt Cutts, l'un des compagnons de bureau de M. Singhal et le directeur à la tête du combat de Google contre le Spam, un terme pour désigner les pages publicitaires qui semblent toujours trouver le moyen de se hisser à la tête des pages de résultats.

Certaines plaintes concernent des défauts simples qui peuvent être corrigés immédiatement. Dernièrement, une recherche pour "La Révolution Française" avait affiché trop de sites sur la récente campagne présidentielle en France, pages dans lesquelles les candidats discutaient des diverses révolutions des mesures mises en place, plutôt que des sites concernant ce qui avait mis fin au règne de Louis XVI. Une simple modification du moteur de recherche consistant à donner plus d'importance à des pages contenant l'expression " Révolution Française " par opposition à des pages qui contenaient les deux termes séparés, a suffi à régler le problème.

Mais parfois les plaintes mettent en évidence des problèmes plus complexes. En 2005, Bill Brougher, un gérant des produits Google, fit remarquer que lorsqu'on tapait la phrase "teak patio Palo Alto" le moteur de recherche ne trouvait aucun magasin nommé le Teak Patio.

M. Singhal mit donc en route l'un des logiciels les plus prisés et plus secrètement gardés de Google, nommé "Debug", qui révèle comment les ordinateurs de Google évaluent chaque requête et chaque page web. Il se rendit compte que Theteakpatio.com n'apparaissait pas au terme de la recherche parce que les formules de Google n'accordaient pas assez d'importance aux liens d'autres sites web sur Palo Alto.

Ceci était également un indice pointant vers un problème plus sérieux encore. Il est important pour les utilisateurs de pouvoir trouver des entreprises locales, mais souvent Google ne possède qu'une poignée de sites à partir desquels repérer quelles entreprises sont les meilleures. Dans les deux mois qui suivirent la plainte de M. Brougher, l'équipe de M. Singhal eut mis au point une nouvelle formule mathématique pour traiter les requêtes sur les commerces de proximité.

Toutefois M. Singhal ne se précipite pas toujours pour résoudre tous les problèmes qu'on lui soumet, car chaque modification peut avoir des répercussions sur le classement de plusieurs autres sites à la fois. " On ne peut pas réagir dès la première plainte", dit il. "Il vaut mieux laisser décanter les choses".

Par conséquent il contrôle les plaintes sur son tableau blanc, en leur donnant priorité si elles sont renouvelées. Durant la majeure partie de la seconde moitié de l'année dernière, l'un des sujets récurrents était celui de la "fraîcheur".

La fraîcheur, qui définit combien de pages web récemment crées ou modifiées apparaissent dans un résultat de recherche, est au centre d'un débat permanent dans le domaine du Search : est-il préférable de fournir des informations nouvelles ou bien vaut-il mieux présenter des pages qui ont fait leurs preuves depuis longtemps et ont par conséquent plus de chances d'être de qualité ? Jusqu'à présent, Google a préféré privilégier des pages plus anciennes qui ont su encourager d'autres pages à créer des liens vers elles.

Mais l'an dernier, lorsque l'entreprise introduisit son nouveau service d'information sur les cotations en bourse, la saisie "Google Finance" ne le faisait pas ressortir dans les pages de résultats. Après avoir suivi d'autres problèmes similaires, M. Singhal rassembla une équipe de trois ingénieurs afin de comprendre comment les traiter.

Plus tôt cette saison, il présenta les conclusions de son équipe à la réunion hebdomadaire des meilleurs ingénieurs de l'équipe "Search Quality" présidée par M. Manber. A la réunion, une douzaine de personnes étaient assises autour d'une grande table, une autre douzaine étaient enfoncée dans des grands canapés rouges, et deux autres personnes les rejoignaient tout sourire depuis New-York par le biais d'une vidéo-conférence projetée sur grand écran. La plupart de ces personnes étaient des hommes, et la majorité d'entre eux prenaient des notes sur leur ordinateur portable. L'un des New-yorkais grignotait une part de gâteau.

M. Sighal présenta le problème de fraîcheur, expliquant que si l'on se contentait de changer les formules afin de produire plus de résultats lors des recherches, un résultat de moins bonne qualité en découlait la plupart du temps. Il dévoila alors la solution proposée par son équipe : un modèle mathématique qui tente de déterminer si les utilisateurs cherchent des informations nouvelles ou non. (Et comme toutes les initiatives de Google, ce modèle portait un nom : le QDF, pour "query deserves freshness", autrement dit : "la saisie requiert de la fraîcheur").

L'équipe de M. Manber mit en question la formule QDF et la manière dont elle pouvait être appliquée. A la fin de la réunion, M. Singhal annonça qu'il comptait commencer à tester la formule sur les utilisateurs de Google sous deux semaines dans l'un des centres de données de l'entreprise. Un ingénieur émit l'opinion que cela était peut-être trop ambitieux.

"Pour qui nous prenez vous, des fainéants ?" répondit M. Signal avec un sourire frondeur.

La solution QDF est fondée sur la question suivante : Ce sujet est-il "chaud" ou non ? Si les sites d'information et les blogs parlent assidûment d'un sujet en particulier, le modèle mathématique en déduit qu'il s'agit d'un sujet à propos duquel les utilisateurs sont plus susceptibles de vouloir des informations actuelles. Le modèle examine également le flux de millions de requêtes sur Google lui-même, qui selon l'avis de M. Singhal sont un indicateur encore plus fiable de l'enthousiasme mondial pour tel ou tel sujet.

Il prend pour exemple ce qui se produit lorsque des grandes villes connaissent une coupure de courant. "Lorsqu'il y a une panne de courant à New York, les premiers articles apparaissent en quinze minutes, mais nous recevons des requêtes en deux secondes", dit il.

Mr Singhal explique qu'il a testé QDF pour une utilisation simple : décider s'il faut ou non inclure des titres de l'actualité parmi les résultats habituels lorsque les utilisateurs saisissent des requêtes sur des sujets dont le score QDF est élevé. Bien que Google possède déjà un autre système qui permet d'inclure les gros titres dans certaines pages de résultats, QDF offre des résultats plus sophistiqués, plaçant les gros titres en haut de la page pour certaines requêtes, au milieu ou en bas pour d'autres saisies.

Le rythme acharné chez Google contraste avec celui plus détendu des universités et des laboratoires de recherche privés d'où sont issus un grand nombre de ses cadres. Google a recruté M. Singhal de chez AT&T Labs. M. Manber, originaire d'Israel, était l'un des analystes de Search de la première heure tout en enseignant l'informatique à l'Université d'Arizona. Très vite il se jeta dans la mêlée des groupes privés, d'abord en tant que scientifique principal de Yahoo, puis à la tête du département du Search pour Amazon.com.

Google attira M. Manber chez lui au détriment d'Amazon l'an dernier. Lorsqu'il est arrivé et qu'il a commencé à regarder dans les boîtes noires de l'entreprise, dit-il, il s'est trouvé surpris de constater que les méthodes de Google étaient à ce point en avance sur celles des chercheurs universitaires et des groupes privées concurrents.

"J'ai passé les trois premiers mois à dire "J'ai une idée", se souvient-il. "Et ils répondaient invariablement, "On y a pensé aussi et c'est déjà là-dedans", ou bien "ça ne marche pas, on a déjà essayé."

Quelque peu réticent, M. Manber (qui ne veut pas donner son âge) ne parle de sa section "Search Quality" qu'en des termes vagues. La section fonctionne en petites équipes d'ingénieurs. Certaines d'entre elles, comme celle de M. Singhal, se concentrent sur les systèmes qui traitent les requêtes après que les utilisateurs les ont saisies. D'autres travaillent sur les fonctions qui permettent d'améliorer l'affichage des résultats, telle que l'extraction des bribes d'articles, cet extrait (NDLT : Snippet) de texte descriptif qui donne aux utilisateurs une idée du contenu d'un site web.

D'autres membres de l'équipe de M. Manber s'attachent à ce qui se déroule avant même que les utilisateurs ne puissent entamer une recherche, c'est-à-dire entretenir un index géant de toutes les pages web du monde. Google possède des centaines de milliers d'ordinateurs adaptés à ce rôle et qui passent le Net au peigne fin. A ses débuts, Google créait un nouvel index toutes les six à huit semaines. Maintenant il re-vérifie plusieurs pages à quelques jours d'intervalle.

Et Google ne se limite pas à construire une gigantesque table des matières numérique du Net. En plus, il effectue une copie de tout l'Internet et de chaque mot présent sur chaque page web, copie qui est enregistrée dans chacune de ses banques de données customisées afin de pouvoir être passée au crible plus vite. Google vient récemment de développer un nouveau système qui peut contenir beaucoup plus de données et les fouiller bien plus vite que l'entreprise ne pouvait le faire auparavant.

Lorsque Google compile son index, il calcule un indice appelé PageRank pour chaque page qu'il trouve. Ceci était l'invention clef pour les fondateurs de Google, Larry Page et Sergey Brin. Le PageRank compte le nombre de fois où d'autres sites pointent des liens vers une page donnée. Les sites qui sont les plus populaires, surtout ceux qui sont populaires sur les sites ayant eux-mêmes un PageRank élevé, sont considérés comme susceptibles d'être de meilleure qualité.

Mr. Singhal a développé une système beaucoup plus sophistiqué pour classer les pages, système qui met en oeuvre plus de 200 types d'informations, ou ce que Google appelle des "signaux". Le PangeRank n'est qu'un signal parmi d'autres. Certains signaux sont sur des pages Web, ce peuvent être des mots, des liens, des images, et ainsi de suite. Certains de ces signaux sont établis à partir de l'histoire de l'évolution des pages avec le temps. D'autres sont des schémas de données découverts suite aux millions de recherches effectuées par Google au fil des années.

"Les données que nous possédons font avancer la science en ce domaine "affirme M. Singhal." Nous voyons tous les liens qui pointent vers une page, et comment le contenu évolue sur la page avec le temps."

Google utilise de plus en plus des signaux qui proviennent de l'histoire de ce que les usagers individuels ont recherché par le passé, afin de pouvoir proposer des résultats qui reflètent les intérêts spécifiques à chaque personne en question. Par exemple, la requête "dauphin" produira des résultats différents selon que l'utilisateur est un fan de football de Miami, ou bien un océanographe. Ceci ne fonctionne que pour les utilisateurs qui s'inscrivent sur l'un des services de Google tels que Gmail.

(Google dit tout mettre en oeuvre pour interdire l'accès à sa banque de données grandissante concernant les schémas et préférences de ses utilisateurs. Mais l'ampleur et le détail de ces données suscite l'envie chez les curieux, et la crainte chez les défenseurs de la vie privée.)

Une fois que Google a rassemblé sa myriade de signaux, il les intègre à des formules qu'il appelle des classificateurs et dont le but est d'inférer des information utiles à propos du type de requête dont il s'agit, afin d'envoyer à l'utilisateur les pages les plus efficaces. Les classificateurs sont capables d'établir une distinction entre une personne qui cherche à acheter un produit, et une personne qui veut de l'information sur un endroit, ou encore entre quelqu'un qui cherche une entreprise et quelqu'un qui veut trouver une personne, etc. Google a récemment mis au point un nouveau classificateur pour identifier les noms de personnes qui ne sont pas célèbres. Un autre classificateur déjà existant sert à identifier le nom de marques.

Ces signaux et classificateurs calculent plusieurs évaluations clefs de la pertinence d'une page, dont l'une d'elles appelée "actualité", une évaluation de la manière dont le thème de la page se rattache à la catégorie plus large de la requête de l'utilisateur. Une page traitant du discours du président Bush sur le Darfour la semaine dernière à la Maison Blanche, aurait un bon score "d'actualité" pour le terme "Darfour", mais moins pour "George Bush" et encore moins pour "Maison Blanche". Google rassemble toutes ces évaluations en un score final de pertinence.

Les sites avec les dix scores les plus élevés remportent les places convoitées sur la première page de résultats de recherche, à moins qu'une dernière vérification ne révèle qu'il n'y a pas assez de " diversité " dans les résultats. "Si vous avez beaucoup de points de vues différents dans votre page de résultats, c'est bien souvent plus utile que si la page est monopolisée par une seule perspective.", dit M. Cutts." Si quelqu'un saisit un produit, par exemple, peut-être que la personne en veut une critique de consommateur sur un blog, ou alors la page du fabricant, ou peut-être un endroit où elle peut acheter ce produit ou bien encore un site comparatif. "

Et comme si cela n'était pas déjà suffisamment ardu, les ingénieurs de Google doivent également compenser pour les utilisateurs qui sont non seulement incohérents, mais aussi vagues dans leur requêtes ; souvent ils saisissent des phrases ambiguës ou des mots mal orthographiés.

Google a compris il y de ça longtemps qu'un utilisateur qui saisit par exemple "Brittany Speers" cherche en réalité "Britney Spears". Pour gérer un problème de ce type, l'entreprise a conçu un système qui reconnaît les variantes de mots. Ce modèle est si élégant et puissant qu'il réussit à trouver les pages adéquates même lorsqu'un simple synonyme ou une abréviation ont été saisies.

M. Singhal explique fièrement que la requête "Brenda Lee bio" conduira à la page officielle du chanteur, même si cette page elle-même n'utilise que le terme "biographie" et non pas "bio".

Mais parfois des termes qui semblent liés ne le sont pourtant pas. "Nous savons que "bio" désigne la même chose que "biographie"" explique M.Singhal. "Ma grand-mère me dit : "mais voyons, ça me paraît évident, non ?" C'est difficile de lui expliquer que bio signifie la même chose que biographie mais que "apples" ne désigne pas la même chose que "Apple"."

Au bout du compte, il est difficile d'évaluer à quel point les techniques de Google sont évoluées parce que la majorité de ce que fait l'entreprise et de ce que font ses concurrentes du secteur du Search est enveloppé de mystère. Lorsque l'on compare les pages de résultats, les différences entre les principaux moteurs de recherche sont subtiles, bien que Danny Sullivan, un vétéran parmi les spécialistes du Search et un blogueur à la tête de Searchengineland.com, affirme que Google conserve une nette longueur d'avance sur ses concurrents.

Yahoo est en train de développer des formules spéciales de recherche pour des domaines de connaissances ciblés, tels que la santé. Microsoft quant à lui a fait le pari d'utiliser une technique mathématique pour classer les pages, connue sous le nom de réseaux névralgiques, qui tente d'imiter la manière dont le cerveau humain acquiert des nouvelles connaissances.

L'utilisation par Google des signaux et des classificateurs, par contraste, est plus ancrée dans la tradition universitaire et son évolution actuelle, en partie parce que ses dirigeants proviennent des milieux universitaires et de laboratoires de recherche. Néanmoins, Google a su raffiner et pousser ces techniques plus loin en utilisant des serveurs et des ressources de calcul qu'aucune université ne serait en mesure de se payer.

"Les gens sont toujours d'avis que Google est l'étalon d'or en matière de recherche en ligne" nous confie M. Battelle. "Leurs ingrédients secrets sont la manière dont ils travaillent en agrégats et ces mille petites modifications qu'ils effectuent sans cesse."


Tout d'abord, toutes mes excuses pour le titre de ce billet un peu racoleur :) Je reviendrai d'ici quelques jours sur les éléments qui me paraissent les plus importants évoqués dans cet article. D'ici là, je vous invite à consulter :

  • La synthèse en français de l'article rédigée par Moteur News (si vous n'avez pas eu le courage du lire ce billet en entier)
  • L'article original de Saul Hansell

Bon Référencement et n'hésitez pas à remercier Shannon dans vos commentaires pour sa traduction.

Un article du blog Outil Référencement

Rss du blog outil Référencement


Article suivant : QDF et autres indices de Google
Article précédent : Google Adsense : Les accidents arrivent



Commentaires

10 juin 2007 par br1o

Au final, c'est un peu comme ça qu'on imaginait le fonctionnement du googleplex et de l'algorithme, non ?

Reste plus qu'à faire une synthèse opérationnelle pour mettre tout ça en pratique sur nos sites ;)

Beau travail de traduction (je n'ai pas lu l'original, mais c'est agréable à lire)
a++

10 juin 2007 par Red Dog Marketing

Excellent article. Cela fait une semaine que le milieu SEO aux Etats-Unis ne parlent que de cet article, il était temps qu'il traverse l'Atlantique :) Merci pour la traduction.

10 juin 2007 par Webmaster Toulouse

Bonjour,
Joli travail de traduction... et un grand merci pour les non-anglophiles..
J'avais lu cet article en anglais : je constate que certains détails m'avaient échappés...
Encore bravo...

11 juin 2007 par australien

Merci de nous faire profiter en français de cet article.

11 juin 2007 par ludow

un grand merci pour cette brillante traduction, reste à mettre en pratique toutes ces nouvelles données (ou confirmations) .

11 juin 2007 par Yannick Morel

Merci beaucoup pour cette traduction !

12 juin 2007 par Thomas SOUDAZ

pour une fois qu'ils ne nous servent pas la soupe du tout mathématique ;)

13 juin 2007 par Mademoiselle

Excellent article...merci pour la traduction.

14 juin 2007 par Gwaradenn

Merci pour la traduction, très intéressant ;-)

15 juin 2007 par Seb

Merci aurélien, c'est intéressant :)

20 juin 2007 par coolman

Merci pour cet excellent article traduit par tes soins, je verrais maintenant google d'une autre façon....Il nous fascinera toujours ce Google..

25 juin 2007 par effisk

Je n'ai pas encore lu tout l'article (qui a l'air très instructif par ailleurs), je me suis arrêté au 5 ou 6e paragraphe pour laisser ce commentaire : il faut arrêter les liens vers l'annuaire dans les articles, c'est une nuisance et ça n'apporte rien.

26 juin 2007 par Aurélien Bardon

C'est noté Effisk. J'ai une solution en tête pour ne perturber personne. Il me suffit juste de prendre un peu de temps pour la mettre en place :-)

@br1o : Oui, beaucoup d'éléments avancés sont des d'hypothèses formulées depuis longtemps.

@tous : Merci pour vos remerciements cela fait toujours plaisir.

29 juin 2007 par effisk

du cloaking spécial Google ? ;p

Bon mais que ça ne vous arrête pas de bosser sur ce blog :-)

16 juillet 2007 par Aurélien

Non, un truc plus white hat :)

Ajouter un commentaire :

Les commentaires pour ce billet sont fermés.