Veille SEO 2021, semaine 41

Nous sommes la 41ème semaine de l'année…

...et cette semaine, la grosse actu que tout le monde relaye, c'est que Google a arrếté le support d'Internet Explorer 11. Pour les jeunes, IE, c'était le navigateur de Microsoft dans les années 90/2000, l'ancêtre de Edge. Bref, une info bien inutile, mais que tout le monde a relayé (et maintenant, moi aussi).

Bonne lecture, et n'oubliez pas de vous amuser !

Au sommaire cette semaine :

Semrush vous aide à rédiger vos communiqués de presse

Semrush vous aide à rédiger vos communiqués de presse sur Semrush.com
via Semrush.com - en anglais

Le terme "communiqué de presse" est dévoyé en SEO, puisqu'il vous fait quasi certainement penser aux "articles sponsorisés" qu'on publiait avant Penguin. Ils contenaient tous 300 mots tout pile, et trois liens (un vers la home, un vers une catégorie, et un vers un article - avec une ancre bien optimisée).

Pourtant, le communiqué de presse est un exercice bien connu des RP. Vous y annoncez une actualité qui -selon vous- est digne de l'intérêt d'un journaliste, et vous l'envoyez à vos contacts, en espérant qu'elle génèrera des publications au sujet de votre entreprise.

Chaque journaliste recevant entre 60 et 200 communiqués de ce type par jour (selon une étude menée en 2016 par Gootenberg), il va de soi qu'il faut sortir du lot pour avoir une chance que la tactique fonctionne.

La pratique est devenue ultra-codifiée, et l'article de Semrush vous permettra d'y voir plus clair.

"asyncr0ne" publie une étude de cas en direct

"asyncr0ne" publie une étude de cas en direct sur Asyncrone.com
via Asyncrone.com - en français

Chaud comme la braise, le consultant connu sous le pseudonyme "asyncr0ne" a décidé de se lancer un défi assez dingue : en un an, il veut que son site de santé (déjà en ligne) atteigne les 10.000 € de revenus mensuels... et il documente son travail sur son blog. Aujourd'hui, le site fait environ 1500 € par mois (sur le marché US, avec des produits liés à la perte de poids).

Pour cette première partie qui est déjà en ligne, il fait un coup de propre sur le site (éliminer les liens brisés, améliorer la vitesse de chargement, etc). Ce que je trouve intéressant, c'est qu'il n'hésite pas à montrer ses outils et ses méthodes.

John Mueller nous donne son avis sur les liens externes vers des sites d'autorité

John Mueller nous donne son avis sur les liens externes vers des sites d'autorité sur SearchEngineJournal.com
via SearchEngineJournal.com - en anglais

Quand on fait du référencement, il est tentant d'ajouter à votre contenu des liens vers des sites qui font autorité dans votre domaine.

Un internaute a demandé à John Mueller ("Webmaster Trends Analyst" chez Google) si ces liens avaient un intérêt pour le SEO.

(Spoiler: la réponse est non, pas du tout, mais, peut-être quand même - et c'est surtout de ça qu'on va parler)

John répond immédiatement qu'il y a longtemps (à l'époque, on avait Matt Cutts, qui ne nous aidait souvent pas beaucoup plus mais qui était plutôt sympatique), les spammeurs créaient un site tout miteux, mais ajoutaient dans son footer des liens vers Wikipedia et CNN pour le rentre légitime aux yeux des moteurs, et qu'il ne savait pas si ça avait marché un jour.

Ce genre de discours, ça s'appelle un "homme de paille" : on répond à un argument qui n'a pas été avancé par notre opposant. L'internaute qui pose la question n'a jamais parlé de liens en footer sur des sites spammy.

Dans ce cadre, on devrait tous être d'accord, il y a assez peu de chances que le lien vers CNN fasse exploser le trafic de votre site.

MAIS ensuite, John explique que si le lien pointe vers une prolongation naturelle de votre contenu, alors c'est bon pour la qualité globale de votre site, mais que ce n'est pas pris en compte de manière algorithmique par Google.

Bref, c'est bien, mais on regarde pas. La conclusion serait de dire que l'ajout de liens externes ne peut pas améliorer votre référencement, même s'il est globalement admis que c'est une bonne pratique.

À quand un test pour trancher ?

Glenn Gabe a étudié un site où 67% des pages sont paginées

Glenn Gabe a étudié un site où 67% des pages sont paginées sur Gsqi.com
via Gsqi.com - en anglais

Et ce, sur quasiment 20.000 pages. C'est l'occasion de parler un peu de ces histoires de navigation, qui sont à mon sens un des points où on reconnaît les consultants SEO les plus talentueux (dont je ne fais pas partie, puisque je suis développeur).

Glenn Gabe, c'est un SEO assez solide, avec des compétences aussi bien en marketing qu'en technique pure. Il s'est penché sur le cas d'un site d'un peu moins de 20.000 pages, dont 67% sont des pages contenues dans un lot de pagination ("page 2", "page 3", etc).

Il y a quelques années, Google a admis ne plus utiliser les rel prex et next (des attributs HTML qu'on pouvait mettre sur les liens vers les pages suivantes et précédantes). Attention, ces attributs restent importants pour l'accessibilité de votre page, il ne faut pas les retirer. Simplement, Google ne les regarde plus.

La raison ? Il arriverait très bien à s'en passer. D'après les recommandations de Google, le simple fait de lister des pages et de les lier, avec des "self-canonical" (des canonical qui pointent vers la page elle-même) suffirait à faire comprendre au moteur qu'on est sur une pagination. On n'a plus que deux scénarios possibles.

Dans le premier, on canonicalize vers la page 1, auquel cas on diminue l'importance des pages suivantes, et par rebond, des contenus qu'elles linkent. C'est bon pour un site d'actualités par exemple, puisque ça fera remonter les actus récentes au détriment des articles plus vieux. Par contre, sur un e-commerce, ça ne sera pas adapté.

Dans le deuxième, on laisse les pages s'indexer tranquillement, ça permet de mieux répartir "l'importance" sur la totalité des contenus, mais on risque de se retrouver avec des pages très similaires (?page=1 et ?page=2), voire en "thin content" si on enlève du texte pour éviter qu'il ne se répète sur plusieurs pages du site.

Chez Oncrawl, Nikki Halliwell nous parle du Schema Markup

Chez Oncrawl, Nikki Halliwell nous parle du Schema Markup sur Fr.oncrawl.com
via Fr.oncrawl.com - en français

Le schema markup est une des façons d'intégrer des données structurées à vos pages de contenu.

Pour bien comprendre de quoi on parle, imaginez une recette de cuisine : vous avez d'abord une liste d'ingrédients, puis des instructions sur la façon de les combiner. À la différence de votre cerveau, les moteurs de recherche n'arrivent pas facilement à associer un sens ("liste d'ingrédients") à un bout de contenu. Les microdata (ou données structurées) sont le moyen technique d'expliquer au moteur quel sens revêt quel morceau de contenu.

Une fois ces infos pubiées sur votre page (elles sont invisibles pour l'internaute), le moteur devient à même de comprendre le sens de votre contenu.

Il peut alors proposer des résultats enrichis : avis avec étoiles, prix d'un produit, questions/réponses, etc.

Ces résultats enrichis permettent évidemment d'augmenter votre taux de clic dans les SERPs, puisque votre site est plus attirant visuellement et que son affichage utilise plus de place à l'écran.

Vu que vous aidez Google à mieux comprendre votre site, il serait aussi facile d'imaginer qu'il vous récompense en améliorant votre visibilité globale.

Le revers de la médaille, c'est qu'en donnant toutes les clés de compréhension de votre site à Google, vous lui ouvrez la voie pour proposer une "one box" comme il le fait déjà par exemple avec les réservations d'hôtels. Je ne dis pas pour autant de ne pas en utiliser : si ces données sont assez importantes pour que Google leur dédie un affichage particulier, il viendra de toutes façons les trouver sur votre site.

J'ai trouvé cet article particulièrement intéressant car il détaille tous les microformats qui peuvent être utiles en SEO, y compris plusieurs que je ne connaissais pas.

NewsletterVeille SEO

Recevez notre veille SEO par email, une fois par semaine.