ESTHÉTIQUE
SIMPLICITÉ
EFFICACITÉ

Aneartiste sur deviantartAneartiste sur twitter Aneartiste sur scoop-it

Élucidation critique du référencement

l'achêvement du labyrinthe, l'annihilation de la quête

Le SEO est sans conteste le premier levier d’acquisition de trafic web, mais il importe de ne pas tomber dans le piège de tout miser sur cet unique point d'approche. Le SEO fonctionne de pair avec d'autres canaux (mailing, réseaux sociaux) et demeure souvent trop faible quand il est utilisé tout seul. Il peut se résumer en trois grands principes : doter son site d’une architecture claire, publier des contenus élaborés et uniques, et générer des liens de qualité (mots clés, liens entrants, etc.) Étant entendu qu'il s'agit d'être en adéquation avec les exigences des robots d'indexation. Ce dialogue supposé entre l'homme et la machine n'est pas sans poser de nombreuses questions, facilement éludées par les techniciens qui mettent en avant la soumission inéluctable de la pensée aux algorithmes de la machine, cette alternative étant la seule envisagée "pour que ça marche". Un résumé de la stratégie de visite du robot d'indexation est visible sur la page dédiée du site definitions-marketing.com.

casse d'imprimerie,public domain pxherepublic domain pxhere

« Un mot et tout est sauvé, un mot et tout est perdu. »
—André Breton

Principes de base du S.E.O.

En matière de référencement, il n'y a pas de secrets. Même si les agences spécialisées manient avec une délectation visible le jargon Googlelien. Le SEO n'est rien d'autre que l'optimisation d'un contenu web à destination des moteurs de recherche. En général, c'est Google qui est cité, puisque Google monopolise approximativement 93% des parts de marché (97% si l'on se limite aux téléphones mobiles), mais dans la pratique, quelque soit le moteur de recherche utilisé, processus et résultat seront, sur le fond, identique puisque les alternatives ne font que copier le modèle dominant. Le moteur de recherche est conçu pour parcourir les liens d'un site web à la manière d'un visiteur humain afin de déterminer : les sujets traités, les services proposés (s'agissant d'un site de vente en ligne), etc. Le résulat est ensuite noté en fonction de critères pré-déterminé : cohérence sémantique des pages, organisations des liens, niveau du contenu... Là où les choses se complique, c'est lorsque les agences de référencements interviennent pour optimiser ce fameux contenu. Si Google tente de son coté d'approcher le plus possible une psyché humaine pour juger de la pertinence d'un site, les agences SEO de leurs cotés pratiquent la démarche inverse. Elles tentent de comprendre le mieux possibles les algorithmes de la machine afin d'y adapter les contenus. Ce qu'elles énoncent clairement : « C’est une machine qui nous lit. Et comme elle ne parle pas notre langue, nous devons parler la sienne. »

L'objectif initial est de vendre

En parcourant les pages web dispensatrice de conseils éclairés en matière de référencement, on remarquera rapidement que celles-ci abondent en termes issuent de la sphère économique ou financière. On tentera de capter des clients, d'injecter du contenu, de gérer des visites, d'augmenter sa réputation ou ses contacts, de profiter d'opportunités, etc. Il serait vain ici de débattre de l'éventuelle neutralité de la technique. En réalité dans ce domaine les usages sont déterminants. Google n'a qu'un seul but – offrir à terme la meilleure réponse au visiteur de son moteur de recherche afin de le fidéliser, lequel faisant de nouveau appel à ses services, permettra à l'entreprise de générer des bénéfices en déployant produits et services autour de lui – la recherche de profit s'accordant à exploiter les désirs des utilisateurs. Comme l'écrivait Jacques Ellul : « L’homme n’est pas du tout passionné par la liberté, comme il le prétend. La liberté n’est pas un besoin inhérent à la personne. Beaucoup plus constants et profonds sont les besoins de conformité, d’adaptation, d’économie des efforts… et l’homme est prêt à sacrifier sa liberté pour satisfaire ces besoins ». La marchandisation des données se contente de flatter les pulsions les plus basiques de l'individu (suivant en cela la théorie du désir mimétique de René Girard : c'est la convergence des désirs qui définit l'objet du désir), et elle fonctionne tant que l'individu se satisfait de réponses formatées d'autant plus prévisibles qu'elles répondent à des besoins artificiels. La preuve en est que plus de 90% des recherches se limitent à la première page des résultats.

scrabble,public domain Pixabaypublic domain Pixabay

« Les écrivains sont des émigrants en quête de contrées lointaines où ne pas assouvir leurs rêves. »
—Patrick Deville


La fonction essentielle du moteur de recherche est d'éliminer toute recherche

En essayant de deviner les intentions de l'internaute dans le but d'optimiser les résultats, l'ambition de tout moteur de recherche est de parvenir à l'invisibilité totale du processus. La recherche existe toujours, mais automatisée, phantasmatiquement personnalisée, elle se doit d'offrir le résulat le plus définitif possible afin de terminer la quête dès son commencement. Si l'on considère que cet outil fonctionne de façon opaque pour l'utilisateur (google utilise par exemple plus de 200 filtres de critères pour classer les résultats) on peut éventuellement s'interroger sur la méthode, sans pour autant envisager une seule seconde de pouvoir s'en passer. Il n'existe pas de chiffres exact concernant la quantité de sites web existant en langue française. Quelques statistiques emergent; environ 15.000.000 de blogueurs, peut-être 4.000.000 de sites... Même si on estime que 80% d'entre eux sont inactifs, la quantité de pages à analyser est colossale. Admettons qu'une recherche engendre 100.000 résultats possibles, on peut raisonnablement douter que Googlebot, quelque soit sa puissance de calcul, soit à même d'extraire un millième de ces données (on est proche des premiers taux de dilution homéopathique) tout en assurant une exhaustivité pertinente. La mécanique appliquée au systême algorithmique d'un moteur de recherche tend non pas à retourner tels quels les occurences lexicales demandées, mais à convertir la demande effectuée pour la faire correspondre aux résultats disponibles en tête du classement des liens archivés. L'idée directrice étant toujours que ce qui est le plus convoité sera apprécié du plus grand nombre. Or il en est de certaines quêtes, comme de nos désirs les plus hermétiques. Elles n'ont strictement rien de statistiques, non plus que de rationnelles.

La question étant de savoir ce que l'on cherche

Les algorithmes de classement fonctionnent parfaitement pour organiser les éléments ayant des identités communes et facilement identifiables (après tout, on peut considérer que le SEO est une méthode artificielle pour se différencier des autres lorsqu'on leur ressemble). Avec assez d'évidence, si je cherche un presse-agrume à moins de trente euros ou un restaurant ouvert après vingt-et-une heure près de chez moi, la concordance est totale. Pour des demandes un peu plus transcendantes ou abstraites, Googlebot a vraisemblablement des difficultés. Et si ses algorithmes ont déjà la réputation d'être opaques, on constate également qu'ils sont pour le moins obscurs. En formulant une recherche à propos du "flou dans la littérature", j'obtiendrais d'abord deux pages de liens publicitaire vers divers livres dont le titre contient le qualificatif "flou" (n'oublions pas que l'injonction première est de vendre, ou de faire acheter). Il faut atteindre la page 4 des résultats pour qu'apparaissent les premiers liens suceptibles de correspondre à ma demande, perdus entre d'autres concernant le CAP de la mode (vètement flous), La codépendance (nouvel outil clinique ou flou conceptuel), Fusion en traitement d'images (un Google-book), Flou identitaire (un article de l'agence Science-Presse), etc. Alors qu'un article assez passionnant : "Visualité ou métaphore ? La sémantique du flou" se verra relégué sur la 17ème page… Peut-être faut-il voir d'ailleurs, derrière l'incohérence de ces résultats, autant une preuve de la complexité du langage, que les exploits cachés de certaines agences SEO permettant à certains d'apparaitre là où on les attends le moins.

dictionnaire définition,Pixabay Public DomainPixabay Public Domain

De la quête d'informations à l'acquisition de connaissances

La quête d'informations s'appuie toujours sur un savoir préalable. Si les gens vous connaissent, il est possible qu'ils vous cherchent. Dans la cas contraire, la qualité de votre référencement sera indispensable. Dans le cadre d'un moteur de recherche, il importe donc d'apparaitre dans le contexte approprié, et non n'importe où et à tout prix. La quête d'informations s'alimente de connaissances tout autant qu'elle nourrit celle-ci, et c'est l'adéquation entre la quête et le résultat qui garantie la réussite du référencement. En ce domaine, je considère que l'originalité est toujours payante. On ne gagne rien à resservir un discours mainte fois élaboré ailleurs. La similarité ou l'interchangeabilité sont la condition première de l'obsolescence. Puisque les algorithmes ne sont que des interprétations minorées de la richesse des mots, il importe de redonner aux approximations algorithmique la richesse lexicale qu'elles ont perdu en redéployant les diversités éteintes. Ouvrir des portes et créer des passerelles devrait être la priorité essentielle. Le visiteur d'un site n'est pas un rat de laboratoire et la captation abusive se paiera un jour ou l'autre. Le partage et l'échange sont peut-être des antinomies de la rentabilité, mais ce sont les vecteurs indiscutables de la rémanence.

Dans le labyrinthe,Pixabay Public DomainPixabay Public Domain

« Un rat dans un labyrinthe est libre d'aller où il veut, à condition qu'il reste dans le labyrinthe. »
—Margaret Atwood, La Servante écarlate


Google ne sera jamais une bibliothèque

Initialement les bibliothèques étaient déjà des lieux publics d'échange et d'enseignement. Depuis l'enseignement divulgué par les bibliothécaires de l'antiquité égyptienne, en passant par le labeur des moines copistes du moyen-âge, les livres n'ont cessés d'être recopiés, traduits et commentés. Aujourd'hui, l'activité d'une bibliothèque est inséparable des multiples animations gravitant autour du livre : expositions, lectures, conférences et colloques, etc. La connaissance nait des interactions humaines et ne s'enferme pas dans les coffres. Imaginer que le stockage illimité d'informations lui est équivalent constitue certainement l'aberration la plus révélatrice du matérialisme de notre époque. Ce raisonnement lié au traitement des metadatas effectué par les machines, entraine à considérer que la connaissance est issue de la validation de ces données brutes interprétées. En réalité la déduction de l'information sous forme de savoir, est bien différente de la création de connaissance. Le savoir permet d'agir, la connaissance modifie la façon de penser. C'est par l'élaboration du savoir que se construit la connaissance. Celle-ci est singulière, intérieure à la personne et ne pourra jamais être archivée dans un livre. En dévoluant ce travail de réflexion et d’interprétation à la machine, l'homme risque peut-être d'amputer son esprit de l'accès à la connaissance. Car la connaissance n'équivaut pas à un empilement de savoirs, elle nait d'une combinations d'influences, de réflexions, de représentations intimes (Philippe Meirieu, petit dictionnaire de pédagogie). Les technologies ne seront jamais capables d’apporter à l’homme ce qu’il cherche. D'une part parce que lui-même ne connait pas vraiment l'objet de sa quête, et d'autre part parce que la langue, interprétée, ne sera jamais à la hauteur de son désir.

publié le 08/01/2020, à 17h20 par Frédéric Schäfer