Le guide complet du SEO technique

Le guide du SEO technique

SEO On-Page, SEO Off-Page, référencement local…autant de subdivisions du SEO dont les subtilités sont parfois difficiles à intégrer. Qu’est-ce-que le SEO technique ? Quels sont les outils techniques permettant d’améliorer son référencement naturel ? Comment appréhender le SEO technique actuellement ?

Le SEO technique : qu’est-ce-que c’est ?

Le SEO technique se distingue de ce que l’on pourrait appeler le “SEO rédactionnel”. Là où le SEO dit “rédactionnel” se concentre davantage sur les aspects propres au contenu et notamment au texte, le SEO technique se focalise sur les aspects plus pratiques de la mise en ligne d’une page.

Une distinction qui tend à disparaître

Il y a quelques années encore, lorsque le SEO était principalement apparenté à la rédaction web, on estimait qu’il existait effectivement d’une part le SEO “classique” et d’autre part le SEO technique. En effet, à l’époque, la rédaction SEO était plutôt considérée comme une discipline adaptée aux profils dits “littéraires” et elle n’impliquait pas la mise en place des dispositifs techniques favorisant le référencement. Les webmasters ou les développeurs s’en chargeaient. Il faut dire que les implémentations techniques d’alors étaient plutôt dérisoires et que la rédaction SEO se suffisait presque à elle-même (si l’on veut grossir le trait). Les années passant, le référencement naturel s’est perfectionné et dorénavant la rédaction web ne suffit plus à obtenir un positionnement intéressant, ni même à indexer une page web. Le SEO a évolué et s’est technicisé au fil du temps.

SEO technique, SEO on-page et SEO off-page, késako ?

On distingue donc traditionnellement le SEO technique du SEO On-Page et du SEO Off-Page. C’est-à-dire que le SEO technique ne concerne pas :

  • le contenu rédactionnel de la page (c’est-à-dire le SEO On-Page)
  • l’autorité du site (c’est-à-dire le SEO Off-Page).

Le SEO technique concerne ainsi les aspects techniques du site qui vont permettre aux robots de crawler les pages, puis de les indexer et enfin de leur attribuer une position parmi les résultats de la SERP. Aussi, les techniques et méthodes du SEO technique se rapprochent grandement de celles que l’on préconise afin de favoriser l’indexation.

Les différentes méthodes du SEO technique

Les techniques et méthodologies présentées sont complémentaires : il ne suffit pas d’en appliquer une ou certaines pour remplir les pré-requis du SEO technique.

La création d’un sitemap

Tout site web digne de ce nom doit absolument disposer d’un sitemap. Le sitemap est un plan du site qui va permettre aux robots crawlers de se repérer parmi les diverses pages et de naviguer sur le site afin de l’indexer. Le sitemap est d’ailleurs un document plus accessible aux robots qu’aux humains puisqu’il répertorie les URL une à une et non selon une véritable cartographie comme on pourrait s’y attendre. Il est possible de générer le sitemap directement à partir d’outils en ligne afin qu’il soit bien compris des robots de crawl.

La mise à disposition d’un fichier robots.txt

Le fichier robots.txt est entièrement destiné aux spiders (les robots crawlers). Il permet de leur indiquer quelles pages doivent être crawlées et lesquelles ne doivent pas l’être. Cela permet de ne pas mettre en avant des pages qui n’ont pas à l’être et qui de ce fait pourraient nuire à l’indexation du site en général (pages panier pour un e-commerce, pages institutionnelles pour un site informatif, etc.).

La mise en place du fil d’Ariane

L’histoire du fil d’Ariane remonte à la mythologie grecque, et plus précisément à l’épisode de l'Iliade narrant les aventures d’Ariane et de Thésée. Bloqué dans un labyrinthe où est enfermé un minotaure dangereux et cruel, Thésée promet à Ariane de l’épouser si elle me dote de son fil qui lui permettra de retrouver la sortie. Après avoir abattu le minotaure, Thésée abandonne Ariane sur l’île de Naxos. Ce n’est pas très sympa, mais l’essentiel est là : le fil permet à Thésée de ressortir du labyrinthe et donc de retrouver son chemin. C’est également l’utilité qu’on lui attribue en SEO et la raison pour laquelle on l’a d’ailleurs nommé ainsi. Le fil d’Ariane permet aux robots de se repérer sur le site et de comprendre quelles sont les pages parentes entre elles. S’ils ont déjà le fichier robots et le sitemap, il est néanmoins convenu que chaque page doit comprendre le fameux fil d’Ariane. Notons enfin que c’est également bien plus pratique pour l’utilisateur !

Une interface mobile-friendly

L’interface du site web doit être entièrement responsive et s’adapter à tous les mobiles, quelle que soit la page et quel que soit l’appareil. Dorénavant, ce sont environ les ⅔ des utilisateurs qui naviguent sur le web à l’aide d’un mobile, contre seulement ⅓ via Desktop. C’est pourquoi, depuis 2016, Google a mis en place un index Mobile-First qui indexe les sites web en fonction du rendu et du temps de réponse applicables à la version mobile et non plus à la version Desktop. Ainsi, il est absolument impératif de travailler une version responsive et mobile-friendly du site web (et de chacune de ses pages) !

Un temps de chargement raisonnable

3 secondes…c’est la durée de chargement maximale pour un utilisateur et pour les robots d’indexation ! Faites en sorte que votre site (et chacune de ses pages d’ailleurs) propose une vitesse de chargement qui satisfasse l’utilisateur et les robots, soit une vitesse de chargement inférieure à 3 secondes. Notre astuce : tester cette dernière via LightHouse qui utilise des serveurs partout dans le monde et propose une moyenne de ces derniers, là où d’autres solutions plus classiques utilisent un serveur à proximité qui, forcément, réduit le temps de chargement ressenti.

Optimiser le temps de chargement

La moitié des utilisateurs d’un site web abandonnent leur navigation sur ce dernier si le temps de chargement est supérieur ou équivalent à 3 secondes.

La canonicalisation des URL

Un mot barbare pour une technique…tout à fait logique et pertinente ! Indiquer aux robots quelles sont les URL canoniques permet, pour plusieurs pages similaires voire identiques, d’indiquer aux robots qu’il existe une similarité sans toutefois se faire pénaliser pour cause de Duplicate Content. Prenons un exemple concret : je dispose d’un e-commerce qui propose des articles de sport. A des fins de référencement naturel, j’ai créé une rubrique de niveau 1 consacrée aux gants de boxe. Mais, dans un souci de logique, cette page dédiée aux gants de boxe se trouve aussi dans la catégorie de niveau 2 “Boxe”. Un robot qui passe par là pourrait pénaliser mon site à cause de ce doublon. A moins que je lui aie indiqué au préalable que les 2 URLs se ressemblant, l’une prévalait sur l’autre et qu’à ce titre, je ne mérite pas d’être pénalisé puisque j’ai déclaré la duplication aux robots d’indexation en amont. Ainsi, je déclare en tant que canonique l’URL que je souhaite le plus mettre en avant (en l’occurrence l’URL se situant dans la catégorie “Gants de boxe”). A partir de là, les robots constatant une ressemblance frappante ne pourront pas me pénaliser étant donné que j’ai prévenu. Ils n'indexeront que la page correspondant à l’URL canonique, mais pas les autres. 

Le balisage des images

Un robot crawler ne dispose pas des mêmes aptitudes qu’un humain pour apprécier une image. C’est pourquoi il est important de lui mentionner ce que comporte l’image et ce qu’elle représente. D’où l’existence de la balise Alt qui permet de déposer une description nominale pour chaque image. Ces dernières étant forcément en lien direct avec la problématique de la page et donc avec ses mots-clés, cela permet également de renforcer la densité de ces derniers et donc d’optimiser le référencement de la page. En clair : interdisez-vous formellement de déposer une image sans lui attribuer de balise Alt.

Notre conseil : proposez une balise Alt optimisée qui vous permettra de gagner des points en termes de positionnement et pensez aussi que cette dernière peut parfois remplacer l’image en cas d’impossibilité d’affichage.

L’utilisation de la Google Search Console

La Search Console est l’un des outils proposés par Google afin d’évaluer les performances d’un site web. Elle permet notamment de notifier les éventuels problèmes d’exploration pouvant avoir lieu sur le site comme les problèmes de données structurées, les erreurs 404, les pages non responsive (non adaptées aux mobiles) ou encore les Core Web Vitals. Google Search Console est un outil précieux qui alerte le webmaster en cas de problématique et l’informe sur la régularité des crawls. C’est la méthode la plus simple et la plus fiable d’obtenir des données relatives à l’indexation de son site web.

screenshot erreurs google search console

Exemple d'erreur sur la Google Search Console

Une attention particulière à la profondeur des pages

Le saviez-vous ? Plus une page a un niveau de profondeur élevé et moins elle a de propension à être indexée par les robots crawlers. Pourquoi ? Parce que depuis la home, le chemin d’accès est d’autant plus difficile que la page est éloignée. Pour calculer la profondeur d’une page, il suffit d’estimer le nombre de clics depuis la home via le chemin le plus direct. C’est notamment pour cette raison que les professionnels du SEO technique recommandent de concevoir des arborescence à 2 ou 3 niveaux maximum. Autrement, les pages les plus lointaines sont moins accessibles et le plan du site n’est pas correctement compris par les robots.

L’introduction de la balise hreflang pour les sites multilingues

Vous développez une stratégie à l’international ? Vous proposez votre site en .uk et en .com (anglais britannique et anglais américain) ? Votre site est traduit en une ou plusieurs langues différentes ? Alors il vous faut obligatoirement installer la balise hreflang qui permet à Google de comprendre l’intention internationale d’un site web. les extensions de noms de domaines, lorsqu’ils sont multipliés (une même page en .fr, .co, .uk, .de, .es, etc…) avait le don de rendre la tâche difficile aux robots et donc de pénaliser le positionnement du site web. Désormais, la balise hreflang signale à Google la stratégie multilingue du site et évite notamment les problèmes de contenus dupliqués entre plusieurs langues.

Les audits techniques réguliers

Enfin, pour piloter du mieux possible le SEO technique d’un site et se rendre compte d’une erreur, la meilleure méthode consiste à procéder à des audits techniques réguliers afin de contrôler la santé du site web. Certaines solutions permettent même de programmer les audits, afin de ne pas avoir à y penser. En général, un audit mensuel suffit largement, sauf si vous effectuez des modifications multiples et quotidiennes sur le site. Les audits SEO permettent bien souvent de contrôler également différents aspects du SEO on-site et du SEO off-site : c’est donc la meilleure méthode existante à ce jour pour optimiser tous les aspects de son SEO technique (en plus de l’utilisation de la Google Search Console).