DÉVELOPPEUR WEB FREELANCE

Blog / Actu

25 ans d'expérience

Indépendant depuis 2008

Seo : il faut se détendre du slip !Dans Documentation

Les techniques SEO sont nombreuses et plus ou moins efficaces. Il y a des actions qui ont un réel impact sur le positionnement et d'autres qui relèvent de la légende urbaine avec aucune efficacité sur les SERP.

Avec quelques années d'expérience dans le référencement naturel, j'ai, souvent, été en quête des nouvelles techniques SEO, des mises à jour d'algorithmes, de l'impact de l'UX sur le SEO, d'amélioration du temps de chargement des pages, etc... 

Beaucoup de ces améliorations ont un réel impact. Non pas sur le positionnement dans les résultats de recherche, mais dans le retour d'expérience client. Un visiteur satisfait est un visiteur qui devient potentiellement un client et il revient.

SEO, une discipline en constante évolution ?

En dehors de la compatibilité mobile et la qualité du responsive, il est clair que les bases du SEO reposent depuis plus d'une décennie sur trois piliers :

  1. Les techniques employées,
  2. La quantité et qualité des textes,
  3. Le maillage interne et les liens sortant/entrant.

Il y a fort à parier que ces fondamentaux restent en place pour quelques années encore.

Dans les techniques d'optimisation d'un site web, il y a une confusion entre l'optimisation de l'expérience utilisateur, la propreté d'une interface, la construction (...) et le SEO pur et dur qui tend à améliorer le positionnement dans les résultats de recherche.

Alors, oui, le SEO évolue, mais 90% de la base des techniques est la même depuis de nombreuses années.

L'UX a-t-il une influence sur le SEO ?

Comme je le disais plus haut, il réside dans les esprits une confusion entre l'expérience utilisateur et le SEO.
Certains parlent même de SXO qui serait un assemblage de l'UX et du SEO.

Que les choses soient claires :

L'UX satisfait ou non un visiteur avec un bon ou un mauvais retour d'expérience.
Une bonne expérience utilisateur conduira un visiteur à revenir sur le site. Mais cela n'a rien à voir avec son positionnement.

De même qu'un site bien positionné peut donner un mauvais sentiment à ses visiteurs et conduire à peu de transformation.

Il est donc, évident, qu'un site construit pour le visiteur (et non pas pour les robots) aura un indice de satisfaction élevé. Cela aura pour conséquence un trafic plus élevé avec plus de conversion au bout.

Il faut garder à l'esprit que le SEO et l'UX ne sont pas lié vis-à-vis des moteurs de recherche. Par contre, associés entre eux, le SEO et L'UX peuvent faire des miracles :

Le SEO positionne correctement le site dans le SERP et l'UX conquiert le visiteur en client.

Le taux de clics et le comportement du visiteur influe-t-il sur le positionnement ?

Ne tournons pas autour du pot ! Non le comportement des visiteurs n'a strictement aucune incidence sur le classement dans les résultats d'un moteur de recherche.

Le taux de clic dans les SERP, le taux de rebond, la durée moyenne des visites, le nombre de pages visitées, etc, tous n'ont aucun effet sur le positionnement dans les résultats de recherche.  Certains critères seront capturés, notamment pas Google, pour renforcer la qualité de ses algorithmes d'analyses. D'autres, pourront être exploités pour donner des indices de comportement dans Google Analytics.

Il sera très compliqué pour un moteur de recherche d'analyser le comportement des visites et d'en déduire un indice de satisfaction. Indice qui irait, ensuite, influer sur le positionnement d'un site dans les résultats de recherche.
Est-ce qu'un visiteur qui ne reste que quelque secondes sur un site s'en va parce qu'il est mécontent et dans ce cas, pourquoi ?  Ou a-t-il trouvé une réponse immédiatement et pour le coup, repart satisfait de ce qu'il a vu ?   Aucun système n'est pour le moment capable d'analyser l'état émotionnel et le comportement d'un visiteur.

Est-ce que le temps de chargement a une conséquence sur le positionnement ?

Les agences et les référenceurs ont répandu l'idée que le temps de chargement était un critère SEO et avait, de fait, une incidence sur le positionnement dans les SERP.

Jusqu'à présent le temps de chargement était un critère UX.  Si un utilisateur patiente plus de 3 secondes devant une page de chargement, il perdra très vite patience et ira voir ailleurs.  Cela rejoint l'analyse du comportement du visiteur expliquée plus haut.

Cependant, Google va lancer très prochainement un algorithme « Core Web Vitals » qui aura pour objectif d'analyser le temps de chargement des pages et d'en faire un pseudo-critère de pertinence. 

Effet d'annonce ou réalité ? Le futur le dira. Toujours est-il que pour qu'un site web soit efficace, il se doit d'avoir un temps de chargement de page acceptable pour le visiteur (algorithme ou pas). Il faut bien se rendre compte qu'il serait extrêmement compliqué pour un algorithme de prendre en compte le critère de chargement/rapidité des pages tant les capacités de connexion des internautes sont disparates et les leurs attentes variées.

Gardons à l'esprit que le visiteur reste le destinataire principal d'une page web.  Si la page demande trop de temps pour être affichée, le visiteur visitera autre chose !

Le ratio code/texte d'un page est-il un critère SEO ?

Là aussi, voici encore une idée fausse. Non le ratio entre la quantité de texte et la taille du code source d'une page ne joue aucun rôle dans le classement d'une page dans les résultats de recherche.

Fut un temps, le ratio a été un point clé dans le calcul des algorithmes des moteurs de recherche. Mais cet indice est obsolète depuis longtemps.

Pourquoi ?  Simplement parce qu'avec l'évolution technologique, la nécessité de compatibilité multi-plateformes, le code s'est considérablement alourdi ces dernières années. Les moteurs ne pouvaient plus garder ce critère comme un indice d'efficacité d'une page.

On voit pourtant de nombreux outils d'analyses pointant toujours le ratio code/texte comme un point essentiel à corriger.

Bien évidement, il sera nécessaire de garder un minimum de bon sens. Il est totalement improductif de faire charger à un internaute, 100 ko de code pour une simple page textuelle. À noter que le CMS WordPress est un champion dans les codes inutiles...

Les mots clés dans les URL ont-ils une importance ?

En SEO la présence de mots clés dans les URL n'a quasiment pas d'influence sur le positionnement d'une page.

L'idéal est de proposer une URL unique, assez courte si possible, relativement informative et si possible en .html.

Exemple :

  1. https://www.monsite.com/index.php?p=boutique&a=refarticle28965110
  2. https://www.monsite.com/sac-de-croquette-pour-chat-1kg-ref28965110.html

L'URL 2 sera plus claire pour le visiteur comme pour le moteur, mais n'aura aucune incidence sur son positionnement.

Il y a un intérêt pour les algorithmes de Google lors de la première visite d'une page. Si l'URL est suffisamment descriptive, Google aura déjà une « idée » des contenus, de la thématique avant d'avoir fait une analyse sémantique.

L'attribut nofollow d'un lien est-il efficace pour le SEO ?

Eh bien, la réponse est simple : c'est NON !

Avant de savoir si on doit ou non utiliser l'attribut « nofollow », il est nécessaire de comprendre à quoi cela sert :
L'attribut « nofollow » sert à spécifier que le lien en question ne doit pas être pris en compte par un robot analysant la page.

De fait, cet attribut n'a aucune incidence sur la structure du maillage et ne sert à rien dans l'analyse de la structure d'un site que les liens soient internes ou sortants.
Pour faire simple, l'attribut « nofollow » élimine le tracking (l'historique des liens parents/référents) qui ont mené le visiteur sur ce lien.  Cela aura pour conséquence de tromper les statistiques de visites sur les outils analytiques.

Est-ce que les pages dupliquées peuvent être pénalisées par Google et les autres ?

On aura compris la thématique ce billet, la réponse est toujours non.

Si un ou des contenus se trouvent dupliqués, le moteur de recherche va chercher à trouver quelle est la page originale et c'est elle qui aura la visibilité.

Les autres contenus considérés comme dupliqués ne seront soit pas indexés soit très mal positionnés. Seule la page canonique sera exploitée par les moteurs de recherche.

Cela implique qu'il est possible de reprendre du contenu externe (des textes sur un autre site) en indiquant la source (par respect et droits) sans risquer de voir son site déclassé. L'important étant pour les moteurs de recherche que l'internaute s'y retrouve.

Pour une bonne organisation de son site, il conviendra d'éviter de dupliquer des pages ou des contenus.

Une dernière pour rire : l’agrément Google SEO

Voilà une bien belle fumisterie.  Google ne propose aucun agrément en SEO (différent du SEA, attention !).

Je vois, souvent, des référenceurs ou des agences qui indiquent être partenaire Google les habilitant, de fait, à mieux référencer un site que les autres.  C'est un simple argument commercial qui n'a AUCUNE valeur. Voire à la limite de l'escroquerie.

À bon lecteur !





Dans le même esprit :

TOP