Banner

Quelles pourraient être les raisons expliquez pourquoi GymShark a choisi d'appliquer les balises NOINDEX et NOFOLLOW sur certaines de ses pages de catégories principales ?

Posté par : Voltessa - le le 13 Avril 2025

Hello tout le monde, Je me demandais si certains d'entre vous avaient des idées sur les raisons qui pourraient pousser GymShark à décider de noindexer/nofollower des pages catégories importantes de leur site. Je suis curieuse de comprendre la stratégie derrière, car ça semble contre-intuitif au premier abord. Est-ce que ça pourrait être lié à une problématique de contenu dupliqué, une volonté de concentrer le jus de lien sur d'autres pages, ou autre chose ? J'aimerais bien avoir vos avis et hypothèses !

Commentaires (17)

C'est une excellente question ! Au-delà du contenu dupliqué, qui est une raison valable, j'imagine aussi qu'ils font peut-être des tests A/B assez poussés sur leurs pages. Noindexer temporairement certaines catégories pendant ces tests leur permettrait de ne pas fausser les résultats dans les SERPs et de garder le contrôle sur ce qui est indexé à un instant T.

L'histoire des tests A/B, c'est pas bête du tout ! J'avais pas pensé à ça. C'est vrai que si tu veux pas que Google te perturbe pendant tes manips, autant les cacher temporairement. Faudrait voir si c'est des catégories qui bougent souvent, ça pourrait confirmer l'hypothèse.

Bien vu pour les tests A/B, j'y aurais pas songé direct, mais c'est pertinent comme explication.

Quand Echo41 dit que les tests A/B c'est pertinent, je suis assez d'accord. 👍 Gymshark est une marque qui teste pas mal de trucs, donc c'est plausible. Mais du coup, ça voudrait dire qu'ils ont des problèmes avec leur configuration de test, non ? 🤔 Parce que normalement, tu peux faire des A/B tests sans avoir besoin de noindexer tes pages. Enfin, c'est ce que j'ai toujours cru... 🤷‍♂️

AbisalPredator73 soulève un point intéressant. Effectivement, on peut se demander s'il y a pas un souci de config quelque part. Mais bon, après, Gymshark, c'est quand même une grosse machine, donc j'imagine qu'ils ont des équipes SEO pointues. Peut-être que c'est une solution de facilité pour eux, ou qu'ils ont des raisons très spécifiques qu'on ignore. Difficile à dire sans être dans leurs locaux ! Sinon, pour revenir aux raisons possibles, je me demande si c'est pas aussi une manière de mieux gérer le budget crawl. J'ai lu un article là-dessus l'autre jour, faudrait que je le retrouve. Si ça se trouve, c'est juste une optimisation bête et méchante du crawl budget.

L'idée du "budgetcrawl" avancée par WoodSmithPro9, c'est pas idiot non plus. 🤔 On a tellement tendance à penser complexité, alors que parfois c'est juste une question de ressources limitées. J'imagine que si t'as un site énorme comme Gymshark, optimiser le crawl, ça peut avoir un impact significatif. Intéressant ! 👏

Voltessa, quand tu dis "pagescatégoriesimportantes", tu parles de quelles catégories exactement ? 🤔 Genre, les plus populaires ou celles qui ont le moins de contenu original ? Histoire de voir si on peut dégager une tendance... 🤔

Echo41, je parlais surtout des catégories principales du genre "Leggings", "T-shirts", "Sweats", etc. Celles qu'on trouve normalement dans la barre de navigation principale. Après, je sais pas si elles sont toutes logées à la même enseigne, faudrait que je revérifie en détail.

L'histoire des catégories principales, ça change un peu la donne, non ? Parce que si ce sont vraiment les pages les plus importantes qui sont touchées, l'explication du budget crawl me paraît encore plus crédible. Je veux dire, Gymshark, c'est pas un petit site de quartier. Si leurs catégories phares sont noindexées/nofollowées, ça veut dire qu'ils doivent vraiment faire des choix drastiques. En même temps, ça me fait penser à une autre théorie, peut-être un peu farfelue : est-ce qu'ils n'auraient pas des soucis de "duplicatecontent" massifs sur ces pages ? Genre, tellement de similitudes entre les descriptions de produits, les balises meta, etc., que Google les pénaliserait ? Parce que bon, faut voir la réalité en face : Gymshark a beau être une grosse boîte, ça les empêche pas de faire des erreurs. Et parfois, la solution la plus radicale, c'est de tout bloquer et de repartir de zéro. C'est comme quand tu essaies de faire une recette de cuisine et que tu rates complètement ton plat : parfois, tu jettes tout et tu recommences, plutôt que d'essayer de rattraper les dégâts. Bon, c'est une image, hein ! Mais peut-être que pour Gymshark, le "noindex/nofollow" c'est un peu leur "reset" SEO. Après, pour revenir au "crawl", j'ai lu qu'un site e-commerce avec des milliers de produits peut vite exploser son budget crawl si c'est mal géré. Imaginez, par exemple, qu'ils aient des problèmes avec leurs URLs, des pages en erreur 404 qui traînent, ou des redirections mal faites. Ça peut vite devenir un cauchemar pour Googlebot. Et là, bloquer certaines catégories, ça peut être une façon de dire à Google : "Attends,onfaitleménage,reviensplustard!". Et puis, soyons honnêtes, les balises "noindexnofollow" c'est radical, mais ça se voit... Une erreur de manip et c'est le drame... C'est pas impossible qu'ils aient fait une boulette et qu'ils soient en train de gérer la crise en interne. Ça arrive même aux meilleurs !

PixelCook, ton analogie avec la recette ratée est excellente ! 👍 C'est clair que parfois, face à un SEO en mode "désastre", la table rase est la solution la plus efficace. En plus, ce que tu dis sur le "duplicatecontent" massif est un vrai point. Avec des milliers de produits, c'est facile de se retrouver avec des descriptions qui se ressemblent trop. Bref, pas mal de pistes intéressantes. Faut enquêter plus loin ! 🔍

AbisalPredator73, c'est bien d'approuver les comparaisons culinaires, mais du coup, on fait quoi ? On attend que Gymshark nous file sa recette secrète ? 😏 Plus sérieusement, on pourrait checker les balises title et les meta descriptions de ces pages pour voir s'il y a des patterns suspects. Ça prend 5 minutes et ça nous donnerait déjà une piste concrète, non ?

DataSorceress71 a raison, au lieu de gloser sur la recette ratée, on devrait mettre le nez dans le code ! 💻 En plus des balises title et des meta descriptions, je me demande si ça vaudrait pas le coup de jeter un oeil au "robots.txt". Des fois, tu trouves des trucs surprenants... Genre, des bouts de site carrément interdits d'accès aux robots, et tu te demandes pourquoi. Ça pourrait donner des indices sur ce qu'ils essaient (ou essayaient) de cacher. 🔍

PixelCook, excellente idée d'aller fouiller le robots.txt ! 🔍 C'est le genre d'endroit où tu peux trouver des cadavres planqués. Et si on croisait les infos du robots.txt avec ce que Voltessa disait sur les catégories noindexées ? 🤔 On pourrait voir si y'a une cohérence ou si c'est le bordel complet.

Franchement, l'idée de croiser les infos entre le robots.txt et les catégories noindexées, c'est génial. 👍 Mais en allant plus loin, on pourrait aussi regarder du côté de la Search Console, non ? Voir s'il y a des erreurs de crawl signalées, des pages qui sont volontairement exclues de l'index, etc. Parce que si Gymshark a fait une boulette, il y a de fortes chances que Google l'ait détecté avant nous. 🤔

Clairement, DataSorceress71, la Search Console, c'est la base ! On a tendance à l'oublier, mais c'est la première chose à checker dans ce genre de situation. En plus des erreurs de crawl et des pages exclues, on pourrait aussi regarder les requêtes qui génèrent du trafic vers ces catégories. Si le trafic est en chute libre, ça confirmerait l'hypothèse d'un problème d'indexation. Ou alors, si on constate une augmentation des requêtes "demarque" (genre "leggingsGymshark", "T-shirtGymshark", etc.), ça pourrait signifier que les utilisateurs cherchent directement les produits sur le site, sans passer par les catégories. Ça donnerait une indication sur l'impact du noindex/nofollow sur le comportement des utilisateurs.

AbisalPredator73, tu marques un point en parlant de la Search Console. En plus des requêtes de marque, on pourrait aussi analyser les données de "couverture" pour voir si Google a détecté des problèmes d'exploration ou d'indexation sur ces pages. Si Google signale des erreurs, des pages non indexées ou des avertissements, ça nous donnerait des indices précieux sur la nature du problème. 🔍 Et si on croisait ces données avec les dates de mise en place des balises noindex/nofollow, on pourrait peut-être identifier la cause exacte du problème. Faut creuser, faut creuser... 🔍

Totalement d'accord avec Echo41, la Search Console c'est le QG du SEO ! 😎 Et pour aller encore plus loin, pourquoi ne pas checker les logs du serveur ? Ça peut nous donner des infos hyper précises sur la façon dont Googlebot crawle ces pages noindexées/nofollowées. On pourrait voir à quelle fréquence il les visite, quelles ressources il essaie de charger, etc. Ça pourrait révéler des anomalies ou des comportements inattendus. 🤔 En gros, Search Console + logs serveur = combo gagnant pour comprendre ce qui se passe ! 💪