Veille SEO 2022, semaine 46

Nous sommes la 46ème semaine de l'année…

...et cette semaine, on fête un compte rond : vous êtes 1600 abonnés à notre Newsletter !

Bonne lecture, et n'oubliez pas de vous amuser !

Au sommaire cette semaine :

Comment avoir un budget Netlinking

Comment avoir un budget Netlinking sur Builtvisible.com
via Builtvisible.com - en anglais

Oui, je sais, cet article nous arrange bien, puisque chez Soumettre.fr, on vend du netlinking.

Pour autant, il n'est pas dénué d'intérêt : j'entends souvent des prospects me dire qu'ils aimeraient avoir plus de budget pour leur acquisition de liens, mais qu'ils ont l'impression que ce poste de dépense est sous-estimé par leur hiérarchie.

C'est exactement à eux que ce post s'adresse. Robyn Gravestock y explore les freins et les idées reçues autour du SEO, dans l'objectif de vous permettre, enfin, de faire adhérer tout le monde à votre démarche.

On attend vos campagnes ;)

Étude : quels critères pour un bon netlinking ?

Étude : quels critères pour un bon netlinking ? sur Moz.com
via Moz.com - en anglais

Domenica D'Ottavio s'est demandé comment les différentes metrics (le Domain Authority chez Moz, par exemple) se corrélaient avec la visibilité organique.

À l'heure où Google semble faire de gros efforts pour développer ses capacités de NLU (Natural Language Understanding, soit compréhension des langages naturels), le moteur considère-t-il toujours que l'autorité d'un domaine est le meilleur indicateur de la puissance de vos liens, ou y a-t-il autre chose ?

En se basant sur 15 secteurs liés à l'équipement de la maison, Domenica a trouvé une corrélation claire sur 10 d'entre eux, entre le topic des pages qui font un lien et celles qui le reçoivent. En clair, la thématique de la page qui vous fait un lien est au moins aussi importante que sa notoriété.

Elle en conclut que, si vous devez choisir, vous devriez commencer vos efforts par des campagnes sur des sites à forte proximité sémantique, l'autorité n'arrivant qu'en deuxième position.

Étude : Content marketing

Étude : Content marketing sur Sistrix.com
via Sistrix.com - en anglais

En se basant sur des données collectées par Sistrix, Eka Vankova discute avec Steve Paine et ils nous expliquent la stratégie éditoriale mise en place chez une compagnie d'assurances, dans le but de faire exploser sa visibilité dans les SERPs.

Une étude sémantique sur 100.000 mots-clés, 100 articles publiés d'un coup puis 6 ou 7 chaque mois, on est sur de la stratégie assez costaud, et les résultats sont là.

Mon passage préféré, c'est quand Eka Vankova, qui a mis en place la stratégie, explique qu'elle pilote les idées de contenus mois par mois, en se basant notamment sur les mots-clés sur lesquels ses concurrents se positionnent, afin de leur grapiller quelques millièmes de parts de marché à chaque publication.

Crawl des contenus Javascript

Crawl des contenus Javascript sur Onely.com
via Onely.com - en anglais

Cette expérience menée par Ziemek Bućko, vise à comprendre le comportement de Google vis-à-vis des contenus chargés via Javascript (en Ajax, comme on disait en 2002).

Le test est simple : un site contient deux répertoires, chacun contenant sept pages, sur sept niveaux de profondeur. Le premier répertoire est du HTML classique. Dans le deuxième, les pages sont vides et leur contenu est récupéré grâce à une requête Javascript.

Le résultat est sans appel : alors que Google a crawlé les 7 pages HTML en 36 heures, il lui a fallu 313 heures pour venir à bout des contenus JS. C'est neuf fois plus long !

La raison est simple : le contenu en JS ne peut être lu qu'après que les scripts soient interprétés par un moteur dédié, qui consomme bien plus de RAM qu'un crawler "en mode texte" classique.

Moralité : si vous pouvez éviter les contenus générés par Javascript, ne vous privez pas, et préférez une solution plus simple à mettre en oeuvre pour les crawlers de Mountain View.

15.000 sites hackés, en une seule fois

15.000 sites hackés, en une seule fois sur BleepingComputer.com
via BleepingComputer.com - en anglais

Cette actualité a fait vibrer mon petit côté hacker. C'est Sucuri, société spécialisée dans la sécurité informatique à grande échelle, qui a relevé les faits.

Plus de 15.000 sites, dont une immense majorité de WordPress, ont été hackés en quelques jours. Plus de 20.000 fichiers ont été déposés ou modifiés sur chaque site.

L'attaque est assez élaborée : tout d'abord, les spammers ont créé des clones de sites de questions/réponses (comme Quora -grand public - ou StackOverflow - réservé aux questions de programmation).

Ensuite, ils redirigent les visiteurs du site, non pas directement vers les pages générées, mais vers des pages de résultats de recherche Google, à partir desquelles ils forcent le navigateur a cliquer sur le lien qui les intéresse.

Ça a le mérite de démontrer que, du côté "Black Hat", certains sont intimement convaincus que les clics sur un résultat auront tendance à le faire remonter dans les SERPs.

NewsletterVeille SEO

Recevez notre veille SEO par email, une fois par semaine.