Veille SEO 2022, semaine 26
Nous sommes la 26ème semaine de l'année…
...et cette semaine, j'ai cherché jusqu'au bout des internets pour trouver au moins un article en français. Impossible !
À croire que la vague de chaleur qui s'est abattue cette semaine sur l'Hexagone a ramolli les cerveaux et les vélléités de publications.
Bonne lecture, et n'oubliez pas de vous amuser !
Google crawle 15Mo maximum par page
C'est LA news que tout le monde se partage cette semaine, comme si c'était une révolution.
Dans la documentation de Googlebot, il est maintenant confirmé qu'il existe une limite en taille : le robot d'indexation de Google ne sauvegarde que les 15 premiers megaoctets de chaque page HTML.
Si votre page est plus lourde que ça, le reste du contenu sera ignoré.
D'après la doc, on parle bien du contenu HTML, sans compter les images, scripts et feuilles de style. Une très petite partie des pages sera concernée.
Pensez quand même à jeter un oeil à la taille de vos contenus, notamment si vous embarquez vos images en base64 (pour limiter le nombre de requêtes http) et/ou si vous publiez des PDF comportant de nombreuses pages.
11 techniques pour trouver des backlinks
L'achat de liens, c'est très pratique, mais ça ne devrait pas être votre seule stratégie d'acquisition de liens entrants.
Dans cet article, Kelly Lyons détaille 11 méthodes qui vous permettront d'obtenir plus de backlinks.
Parmi elles, on trouve évidemment le "broken link building", où vous contactez des webmasters pour faire remplacer un lien brisé par un lien qui fonctionne et qui pointe vers chez vous. Kelly utilise Semrush pour détecter ces opportunités.
Elle parle aussi des "supplier links", les liens que vous font les fournisseurs des produits que vous vendez. Ça m'a rappelé de bons souvenirs : à l'époque où, avec Rodrigue, on travaillait dans le jouet, on avait contacté d'énormes marques pour leur demander des liens. On en avait eu queques-uns seulement, mais sur des sites monumentaux, de marques mondialement reconnues, et le trafic était monté quasiment immédiatement.
Elle décrit aussi, très en détails, le "skyscrapper technique", qui consiste à écrire un contenu plus pointu et exhaustif que ce qui existe déjà, et à contacter les webmasters qui le linkent pour qu'ils remplacent le lien existant par le vôtre. Double impact : votre concurrent perd un lien, et vous en gagnez un.
Un slider sur la page d'accueil
Comme tout développeur, je déteste les sliders/carrousels. Chaque fois que j'en ai mis un quelque part, c'était sur demande d'un client insistant, qui n'arrivait pas à déterminer quels contenus devaient être mis en avant.
Dans cet article de GTMetrix, une étude a démontré que 51 % des utilisateurs n'aiment pas les sliders. Ceux-ci impactent négativement vos performances, à moins de partir sur des techniques comme le lazy-loading des slides, qui sont complexes à mettre en place (pour le peu de bénéfices que le dispositif apportera).
L'article donne quelques cas où leur utilisation semble naturelle (pour un site de photos, par exemple), et propose des alternatives pour les éviter : images "hero", message en vidéo...
Tous ensemble, luttons contre les carrousels.
Planifiez votre contenu
Michal Pecánek explique comment il créé un plan de publication de contenu en cinq étapes reproductibles.
Il explique que chaque canal doit avoir une stratégie différente : si planifier un tweet ne demande pas de gros efforts, la rédaction d'un billet de blog complet sera plus chronophage.
Il propose ensuite de créer une liste de sujets à couvrir, en incluant le trafic potentiel, la difficulté des mots-clefs et l'adéquation avec votre produit.
Il suffit ensuite de prioriser votre liste en fonction des metrics et de mettre tout ça dans un calendrier.
Le plus difficile ensuite ? Se tenir au plan...
Trouver des trucs bizarres
"Finding Weird Stuff" serait, d'après Mark Jackson, une des compétences à avoir quand on veut être efficace en SEO.
Dans ce post, il nous expose une collection des trucs bizarres qu'il cherche quand il entame une prestation pour un client.
Par exemple, il cherche les sous-domaines indexés, à la recherche de preprod (duplicate) ou d'anciens contenus sensés n'être plus en ligne.
Il demande aussi au client de lui lister les domaines qu'il possède, pour aller farfouiller à la recherche de soucis ou de choses à mettre en place.