J'évoquais, il y a quelques jours, l'infographie de site SEOBOOK intitulée "How Google Killed the Long Tail". Mon propos était alors lié aux biais de plus en plus fréquents affectant la qualité (la pertinence) des moteurs de recherche. Aujourd'hui, je reviens sur un sujet déjà traité il y a quelques temps, la darwinisation de l'information.
A l'époque, on réagissait à la montée en puissance, dans l'algorithme de Google, de l'impact de la "popularité" des sites. Ainsi, plus une page était "populaire" (popularité fonction du nombre de liens pointant vers elle), plus elle avait des chances de se retrouver en haut des pages de résulats. Ce biais n'est évidemment pas neutre, puisqu'il tend à favoriser les informations et les idées de consensus au détriment des points de vue originaux. Avec pour conséquence une disparition des ces derniers. En d'autres termes, les idées les plus en phase avec l'air du temps, les plus adaptées à l'environnement, ont plus de chances de s'imposer. Alors que les idées originales, peut-être plus correctes, plus pertinentes, plus productives... seront amenées à disparaître (puisque proposées très loin dans les résultats, la probabilité de cliquer dessus est très faible). C'est ce qu'on appelle la darwinisation de l'information.

Pour rappel, la longue traÎne (long tail) nomme un phénomène statistique qui montre qu'un nombre très important d'éléments activés un nombre réduit de fois peut avoir un impact significatif par rapport à celui d'un très petit nombre d'éléments activés de multiples fois (voir le graphique de SEOMoz et le billet de State of Search
http://tinyurl.com/bl9x7n7).
L'idée défendue par SEOBOOK, à savoir que Google tue la longue traîne, non seulement participe de la même réflexion, mais en plus la renforce! Manifestement, Google cherche à mettre en application la loi de Pareto, à savoir que 80% des résultats sont obtenus grâce à 20% des efforts nécessaires. Au rang des fonctions de Google de nature à tuer la longue traîne (en fait prévenir que les internautes soient mis en contact avec des informations à la marge des préoccupations standard), on trouve:
- les propositions de corrections de requêtes, plus basées sur ce que Google considère comme correct ou pertinent, que sur la volonté propre du chercheur (corrections de fautes d'orthographe, propositions de requêtes standard, mutations de requêtes...)
- poids plus important accordé aux contenus dynamiques par rapport aux contenus qui n'évoluent pas
- poids accordé au nombre de liens entrant sur une page
- pénalisation des sites comprenant trop de pages
- non divulgation des "mots-clés" menant aux pages...
On doit certainement être attentif à ce danger de renforcement de la pensée unique et à la plus grande marginalisation des idées empruntant les chemins de traverse. En fait, une des conséquences les plus visibles est l'hypertrophie du web commercial au détriment du partage des idées. En tant que spécialistes de l'information, de la veille et de l'intelligence économique, il est de notre devoir (et cela participe à la qualité de nos services) de ne pas se laisser aveugler par ces stratégies commerciales. Le véritable spécialiste se reconnaît donc à sa capacité à adapter ses stratégies de recherche et d'accès à l'information aux constantes évolutions des algorithmes de référencement des moteurs de recherche. Par exemple:
- expression des requêtes
- profondeur de l'examen des listes de résultats
- choix des moteurs utilisés (éviter la monoculture)
- choix des écosystèmes dans lesquels chercher (Web, réseaux et médias sociaux...)
- ...