Help > Forum > Moteurs de recherche > Pourquoi certaines pages sont-elles bloquées dans le fichier robots.txt ?

Pourquoi certaines pages sont-elles bloquées dans le fichier robots.txt ?

Le fichier robots.txt que nous avons spécifié est optimisé pour assurer le meilleur classement possible dans les moteurs de recherche. Il indique aux moteurs de recherche de ne pas indexer certaines pages qui auraient un impact négatif sur le placement dans les moteurs de recherche. Par exemple, les pages avec très peu de contenu (comme la page Composer un nouveau sujet), les URL légèrement différentes qui pointent vers le même contenu (cela serait compté comme du contenu en double par les moteurs de recherche) et les pages transactionnelles réservées aux membres (comme suivre une rubrique, modifier votre profil, etc.). Cela garantit que les moteurs de recherche voient principalement les pages très pertinentes et riches en contenu de votre forum afin qu'il classe votre forum plus haut dans les résultats de recherche.


If you still need help, please contact us.