Les critères EEAT : qu’est-ce-que c’est ?

Connus des professionnels du référencement depuis 2018, les critères EEAT ont révolutionné l’algorithme Google et par là, le référencement naturel et donc l’indexation des contenus. Qu’est-ce-que les critères EEAT ? Comment s’expriment-ils à travers un site web ? Comment les utiliser à bon escient pour faire performer le référencement naturel de son site web ?

Qu’est-ce-que les critères EEAT ?

Les critères EEAT sont utilisés par Google pour évaluer les contenus présents sur le web, dont certains en particulier. Il s’agit des contenus dits YMYL (acronyme de Your Money Your Life) qui peuvent impacter directement la vie des utilisateurs : gestion d’argent, conseils en santé, et que Google définit comme “​​des sites web qui ont un impact potentiel sur le bonheur futur, la santé, la stabilité financière ou la sécurité des utilisateurs”.

EEAT est (à son tour) un acronyme pour Experience, Expertise, Authoritativeness et Trustworthiness.

Face aux nombreux sites web qui dispensaient des informations erronées, volontairement ou non, Google a décidé de prendre le problème à bras le corps et à donc mis en place ces critères EEAT. Les critères EEAT sont destinés à limiter la propagation de fake news et plus globalement à ne pas fourvoyer l’utilisateur. Ces derniers évaluent :

L’expérience

D'après la dernière mise à jour de Google, l'expérience s'ajoute aux 3 critères afin d'enrichir la pertinence des résultats. Selon la recherche, un certain degré d'expérience est maintenant attendu. Par exemple, si vous cherchez des informations concernant des astuces pour perdre du poids, vous vous attendez à lire un contenu créé par un nutritionniste (ayant une réelle expérience et connaissance du sujet).

L’expertise

Selon Google, si l’on crée un site thématique, c’est que l’on est expert en la matière. Ce qui est un raisonnement plutôt logique. Les contenus du site doivent ainsi démontrer leur expertise et leur spécialisation spécifique au moteur de recherche. Cela signifie que toutes les informations doivent être correctes et que le site ne doit pas prendre part à un quelconque conflit d’intérêt.

Afin de démontrer son expertise, le site doit également publier des actualités et articles réguliers sur la thématique dont il se revendique spécialiste. Il doit également disposer d’un background important, c’est-à-dire d’un effectif de contenus suffisants qui permette à Google de juger de son expertise. Enfin, il est plus simple de devenir un expert aux yeux de Google lorsque l’on se fait connaître grâce aux réseaux sociaux, au Content Marketing et aux RP (globalement toutes les techniques de SEO Off-Page).

L’autorité

Bien connu des services webmarketing, ce critère concerne la réputation et l’expérience d’un site web. Très proche de l’expertise, il se mesure quant à lui particulièrement par son rapport aux autres sites via le nombre de sites référents (les fameux backlinks). Un site web assoit également son autorité par des contenus à haute teneur informative destinés à être partagés, comme des livres blancs ou des infographies par exemple. Enfin, un site qui échange régulièrement sur des forums spécialisés est lui aussi valorisé par Google.

La fiabilité

Dernier des critères EEAT, la fiabilité tient principalement à la sécurité du site : respect des normes RGPD, sécurisation des données personnelles et bancaires, réassurances et certification des avis.

De quelle manière Google identifie-t-il les contenus respectant les critères EEAT ?

Google identifie ces contenus de deux manières différentes.

1. Les robots crawlers

D’abord, il y a les robots d’indexation, qui crawlent les pages. Ces derniers passent sur de nombreuses pages de la toile pour les analyser et renseigner l’algorithme Google qui propose ensuite un classement des sites web pour une problématique donnée.

Ces robots s’appuient sur les critères habituels du SEO (On-Page et Off-Page), et principalement sur les suivants :

  • une requête principale optimisée (qui correspond pleinement au contenu de l’article),
  • des titres percutants (mais pas racoleurs) et de préférence exprimés sous forme interrogative,
  • la présence de titres et de sous-titres Hn (dans un ordre pertinent de préférence),
  • un contenu pertinent qui comprend raisonnablement des mots-clés LSI (les mots-clés principaux, adjacents et les longues traînes correspondantes),
  • un visuel intéressant (et pas trop lourd) avec une balise correctement optimisée.

Une fois ces critères respectés, les robots crawlers s’attardent sur la pertinence et la complétude du contenu. Il doit impérativement s’agir d’un contenu à valeur ajoutée et même idéalement d’un contenu à forte valeur ajoutée.

Comment de simples robots sont-il capables de détecter la valeur ajoutée d’un contenu ?

Les robots crawlers de Google fonctionnent grâce au Machine Learning, une intelligence artificielle directement applicable aux algorithmes et aux robots informatiques. Grande révélation du XXIè siècle, le Machine Learning apprend de l’utilisation des humains et développe son propre fonctionnement calqué sur les systèmes mis au point par l’intervention humaine grâce à un historique de données et une automatisation en conséquence. Les systèmes dépendant du Machine Learning sont également capables de prédire les évènements à venir en suivant également l’expérience observée jusqu’alors. Google est l’un des pionniers en termes de Machine Learning et l’un des plus grands développeurs de ce système au monde.

Comment produire un contenu à forte valeur ajoutée quand il en existe déjà de très nombreux sur le net ?

Produire un contenu à forte valeur ajoutée, c’est proposer un contenu différenciant avec une information qualitative. Il peut s’agir d’une vidéo tuto pour une recette de cuisine, d’une interview pour une actualité, d’un podcast pour des brèves régulières, d’une infographie pour illustrer de la donnée, d’un diaporama pour mettre en valeur une galerie d’images, etc. L’information doit être vérifiée et parfois à nouveau synthétisée pour offrir une expérience de lecture fluide et agréable accessible à tous, parfois illustrée, et parfois justifiée par des data sourcées. Le contenu présente une valeur ajoutée lorsqu’il ressort par sa pertinence s’il s’agit de l’information, ou par sa présentation s’il s’agit d’un contenu média. Il est toujours possible de proposer des améliorations quant à un contenu déjà créé, et de proposer ainsi une expérience de qualité supérieure à l’utilisateur.

2. Les Quality Raters

Mais il existe aussi les Quality Raters. Lorsque l’on pense à Google, on pense automatiquement aux robots crawlers, chargés d’analyser et d’indexer les pages, mais des humains interviennent également dans l’équation. Les Quality Raters sont des humains, engagés par Google, qui parcourent les pages web et évaluent la qualité de leur contenu. Semblables à des inspecteurs, les Quality Raters effectuent une veille sur les sites web et évaluent le contenu selon une grille donnée au préalable (les Quality Raters Guidelines disponibles ici même) de 172 pages - en français ! Cette grille comprend toutes les instructions données par Google afin de permettre aux humains d’évaluer les contenus selon le principe de l’algorithme. Ce sont les intervenants responsables des fameuses actions manuelles.

screenshot search console erreur

D’abord sollicités par Google pour certifier les contenus légitimes et pertinents par rapport aux premières méthodes de black hat qui sévissaient il y a quelques années et que l’algorithme n’était alors pas capable de détecter, les Quality Raters permettent aujourd’hui d’enrichir le Machine Learning. En effet, si les robots apprennent peu à peu à différencier un contenu purement dédié au référencement d’un contenu dédié aux humains et donc à véritable valeur ajoutée, c’est grâce aux Quality Raters qui arbitrent entre ces différents types de contenus et mettent en valeur ceux qui sont les plus prolifiques d’un point de vue cognitif pour l’humain.

Qui sont les Quality Raters ?

On compterait environ 10 000 Quality Raters disséminés aux quatre coins du monde. Ces intervenants ne seraient pas directement employés par Google, mais par des entreprises intermédiaires. Experts de la thématique sélectionnée et de la langue des sites qu’ils évaluent, les Quality Raters doivent aussi maîtriser les règles du SEO et connaître parfaitement le fonctionnement des moteurs de recherche - chose acquise grâce à leurs Quality Raters Guidelines comptant un nombre de pages impressionnant !

Quid des critères EEAT sur les pages YMYL ?

Les pages YMYL (Your Money Your Life) sont les plus importantes que l’on puisse trouver sur les moteurs de recherche. En effet, de par leur nature, elles ont des implications dans le domaine financier et dans le domaine de la santé des utilisateurs, qui constituent donc des aspects primordiaux de la vie de chacun. C’est pourquoi Google y prête une attention toute particulière. Il ne s’agirait pas de mettre en avant une page donnant de mauvais conseils sur la prise d’un médicament ou sur la gestion d’un compte en banque ou d’un investissement financier.

Les domaines précis touchant les pages YMYL sont les suivants :

  • Secteur de la finance : impôts, banques, assurances, placements en bourse, investissements,
  • E-commerce : tout ce qui touche à l’achat en ligne,
  • Gouvernement & droits : questions de citoyenneté, documents officiels, mariage, divorce, naissance, vote, etc…
  • Santé : tout conseil d’ordre médical, y compris la nutrition,
  • Sujets liés à une communauté : religion, identité sexuelle…

On comprend dès lors mieux l’importance des critères EEAT sur les pages YMYL : ces dernières sont une véritable ressource informationnelle pour de nombreux utilisateurs et certaines d’entre elles ont même des visées transactionnelles (e-commerce par exemple).

5 astuces pour respecter les critères EEAT sur ses pages YMYL

1. Dévoiler la finalité de la page dès le début du contenu

Que souhaitez-vous dire, à quelle conclusion souhaitez-vous arriver ? Il est formellement interdit d’utiliser un moyen détourné pour dire ou obtenir quelque chose sur les pages YMYL. En clair, il est formellement interdit de tromper l’utilisateur de quelque manière que ce soit. Les sites web se faisant passer pour un site institutionnel en demandant de l’argent pour faciliter les tâches administratives liées à l’obtention de documents officiels en sont un exemple concret. Un site web à visée informative sur l’IVG (interruption volontaire de grossesse) qui défend un point de vue et une orientation contraires à la législation en France est un autre exemple.

2. Répondre clairement à des questions que se posent les utilisateurs

D’une part, les robots favorisent le classement des sites qui proposent une réponse directe à une question (qui ne passe pas par des chemins détournés ou par des explications trop longues), leur permettant de se retrouver parmi les People Also Ask. D’autre part, l’utilisateur lui-même recherche une réponse informative et concise à un problème donné, et cela vous permet de créer une page aérée, claire et sans fioritures.

screenshot people also ask

Exemple de People Also Ask

3. Proposer des liens externes de qualité

Lorsque l’on expose une information, il est souvent d’usage de faire référence à un autre site web : une institution, un annuaire en ligne, une plateforme de mise en contact… Chaque lien proposé doit mener vers un site de qualité, respectant lui aussi les critères EEAT et proposant un contenu informationnel à haute valeur ajoutée. Déposer un lien externe dans un contenu, c’est comme ouvrir une porte vers un autre lieu, ou déposer l’utilisateur en voiture quelque part dans la rue : cet endroit doit être sécurisé et proposer une expérience intéressante complémentaire à ce dernier.

De même, afin de confirmer son autorité sur un sujet donné, il est d’usage de recevoir des backlinks, c’est-à-dire des liens référents depuis un autre site. Un backlink a valeur de recommandation d’un site vers un autre. Le backlink obtenu doit provenir d’un site web traitant de la même thématique ou d’une problématique adjacente à celles traitées par le site. (Il n’est pas pertinent d’obtenir un backlink d’un site de bricolage pour un site spécialiste de l’alimentation pour bébé.)

5. Respecter les grands principes du SEO dans la création de son contenu

Enfin, bien sûr, il convient de respecter les grands principes du référencement naturel, à savoir : l’alternance des titres et sous-titres, l’utilisation de mots-clés, la création d’un maillage interne optimal, etc. Tout cela faisant partie des règles du SEO-On-Page.