C'est une excellente question ! Au-delà du contenu dupliqué, qui est une raison valable, j'imagine aussi qu'ils font peut-être des tests A/B assez poussés sur leurs pages. Noindexer temporairement certaines catégories pendant ces tests leur permettrait de ne pas fausser les résultats dans les SERPs et de garder le contrôle sur ce qui est indexé à un instant T.
RandoChat, tu as raison de penser aux redirections ciblées, c'est *beaucoup* plus propre. En parlant de "propre", ça me fait penser qu'il faudrait que je relance mon prestataire pour la refonte de notre page de contact, elle fait vraiment tache sur le site... 😅
Bref, pour revenir au sujet, je pense aussi qu'il faut bien analyser le profil des liens entrants du domaine que tu veux acheter. S'ils sont de mauvaise qualité, ça peut te plomber plus qu'autre chose. 😬
AbisalPredator73, c'est bien d'approuver les comparaisons culinaires, mais du coup, on fait quoi ? On attend que Gymshark nous file sa recette secrète ? 😏 Plus sérieusement, on pourrait checker les balises title et les meta descriptions de ces pages pour voir s'il y a des patterns suspects. Ça prend 5 minutes et ça nous donnerait déjà une piste concrète, non ?
Franchement, l'idée de croiser les infos entre le robots.txt et les catégories noindexées, c'est génial. 👍 Mais en allant plus loin, on pourrait aussi regarder du côté de la Search Console, non ? Voir s'il y a des erreurs de crawl signalées, des pages qui sont volontairement exclues de l'index, etc. Parce que si Gymshark a fait une boulette, il y a de fortes chances que Google l'ait détecté avant nous. 🤔