Veille SEO 2021, semaine 43
Nous sommes la 43ème semaine de l'année…
...et cette semaine, j'ai trouvé plein d'articles qui m'ont paru intéressants. Pas de fil rouge particulier, mais je suis sûr que vous trouverez votre bonheur.
Bonne lecture, et n'oubliez pas de vous amuser !
- Bing et Yandex lancent IndexNow, une API pour faire indexer vos contenus
- Semrush essaie de trancher entre sous-domaine et répertoire
- Areej AbuAli et Paddy Moogan ont monté une étude sur 870 professionnels du SEO technique
- Mise à jour du document de cadrage pour les Quality Raters
- SerpStack est une API pour scraper les SERPs de Google
- Ambre a étudié l'indexation de contenus
Bing et Yandex lancent IndexNow, une API pour faire indexer vos contenus
Ça tombe pile pendant une nième période où Google semble galérer à indexer les nouveaux contenus (même si on ne sait pas vraiment s'il s'agit d'un bug ou d'un filtre).
Yandex et Bing se sont associés pour proposer un protocole assez simple: quand vous publiez une URL, vous appelez leur API pour les prévenir, et ils viennent l'indexer. Ça rappelle un peu la bonne vieille époque des Ping, mais cette fois c'est officiel.
Les deux moteurs combinés peinent à dépasser les 5% de parts de marché dans le monde, mais IndexNow est déjà mis en place par Akamai et Cloudflare (deux énormes services de CDN). Ça pourrait suffire à aider la technologie à se généraliser.
Semrush essaie de trancher entre sous-domaine et répertoire
Ça fait bien quinze ans que la question se pose : est-ce qu'il vaut mieux héberger un blog (par exemple) dans un répertoire du domaine principal de votre site, ou sur un sous-domaine indépendant ?
C'est typiquement le genre de cas où je suis content de ne pas faire de SEO : il semblerait que la solution "répertoire" profite mieux au site principal (logique : plus de pages, plus de contenus, meilleur maillage interne possible), mais la version sous-domaine est parfois incontournable (si on veut héberger un blog chez WordPress ou une page de vente codée dans un langage exotique).
En clair, je préfère le répertoire, quand c'est possible.
Il y a très longtemps, on préférait le sous-domaine, mais peut-être pour de mauvaises raisons : les SERPs n'affichaient que deux URLs pour chaque site (donc avec un sous-domaine, on pouvait plus facilement les dominer), et on doublait les backlinks puisqu'on posait, dans chaque "communiqué de presse", un lien vers chaque sous-domaine. Je ne pense pas qu'on pourrait trop s'amuser à faire ça aujourd'hui...
Areej AbuAli et Paddy Moogan ont monté une étude sur 870 professionnels du SEO technique
Encadrés par 17 expertes issues de Women in Tech, les 870 répondants ont eu à donner leur avis sur des questions qui portent sur leurs méthodologies, leurs outils, et les constats issus de leurs expériences.
Chaque question était posée sous forme de QCM et les résultats sont commentés par une ou plusieurs expertes du domaine.
On y apprend par exemple que 31% des répondants analysent leurs logs avec Screaming Frog, et que le souci principal des consultants est d'arriver à faire implémenter leurs recommandations.
Mise à jour du document de cadrage pour les Quality Raters
C'est marrant, ça aussi. Aujourd'hui, chaque update est décortiqué et commenté par toute l'industrie. Je me rappelle d'une époque, pas si lointaine, où le PDF destiné aux Quality Raters tournait "sous le manteau", parfois d'une agence à l'autre, mais très rarement en public.
Bref, pour en revenir à l'update récent, Google affine surtout sa typologie de "groupes de personnes", mais se penche aussi sur la définition de Lowest Page Quality.
SerpStack est une API pour scraper les SERPs de Google
Si vous avez déjà tenté l'expérience, vous savez que scraper Google, dès qu'on veut faire un peu de volume, ça devient vite un casse-tête: il faut des proxies, de quoi casser les captcha, etc.
SerpStack propose une API et s'occupe du reste : les SERPs normales, avec ou sans features avancées, Google News, Google Images, etc.
Ambre a étudié l'indexation de contenus
Ambre a publié 50 articles sur des petits sites et a étudié comment Google les indexait.
Elle arrive à un constat sans appel : quasiment 30% des articles n'ont jamais voulu s'indexer, malgré les méthodes un peu "avancées" (faire pointer des liens vers ces articles, y ajouter des media...).
Elle constate que la plupart de ces sites ont une typologie similaire: des liens sortants dans chaque article, et un maillage interne négligé.
Point intéressant : il semblerait que changer l'URL des articles, sans même les modifier, leur donnerait une seconde chance d'être indexés. Par contre, difficile de forcer Google a digérer une page qu'il a déjà vue et qu'il n'a pas aimé.