G

Comprendre et implémenter le fichier robots.txt sur Magento, WordPress et Prestashop

Résumé de l'article :
SEO

**Comprendre l'importance et l'utilisation du fichier robots.txt : guide pour Magento, WordPress, et Prestashop** Avoir un blog, un site e-commerce ou un site d’entreprise peut soulever plusieurs questions sur l'optimisation pour les moteurs de recherche. Un des premiers pas vers une meilleure visibilité est la création et l’utilisation efficace du fichier robots.txt. Cet article vous guide à travers sa définition, son utilité et son implémentation sur les plateformes populaires telles que Magento, WordPress, et Prestashop. Le fichier robots.txt est essentiel pour contrôler l'exploration de votre site par les robots des moteurs de recherche. Il permet de spécifier quelles pages ne doivent pas être indexées, économisant ainsi du temps et des ressources pour les crawlers comme Google. Cela optimise l'efficacité du référencement en concentrant l’indexation sur les pages à forte valeur ajoutée. En plus, l’article offre des exemples concrets de configuration de fichiers robots.txt pour chaque plateforme, mettant en lumière les spécificités et les recommandations pour chacune d'elles. Des astuces sur la gestion des sitemaps et les précautions à prendre lors de refontes de sites sont également partagées. Pour les curieux du SEO technique et les propriétaires de sites, cet article est un incontournable pour démarrer du bon pied dans l’optimisation de l’exploration et de l’indexation de leur contenu.

Tout LIRE 👇

Si vous avez un blog, une boutique en ligne ou un site professionnel sous Magento, WordPress ou Prestashop, vous vous demandez sûrement comment améliorer votre positionnement sur Google et autres moteurs de recherche. La première étape consiste à créer et utiliser correctement un fichier robots.txt.

Le fichier robots.txt est fondamental pour gérer l'exploration de votre site par les robots des moteurs de recherche. Il permet de spécifier quelles pages ne doivent pas être indexées, optimisant ainsi les ressources utilisées par les crawlers comme Google. Cela aide à concentrer l'indexation sur les pages les plus importantes.

De plus, cet article propose des exemples concrets de configurations de fichiers robots.txt pour chaque plateforme, avec des recommandations spécifiques. Des astuces sur la gestion des sitemaps et les précautions lors des refontes de sites y sont également partagées.

Pour les propriétaires de sites et les amateurs de SEO technique, cet article est essentiel pour bien démarrer dans l'optimisation de l'exploration et de l'indexation de leur contenu.

Robots.txt : Qu'est-ce que c'est ?

Le fichier robots.txt

Le fichier robots.txt est un fichier utilisé par les robots des moteurs de recherche pour explorer le contenu d'un site web. Il sert principalement à indiquer aux moteurs de recherche quelles pages ne doivent pas être indexées. Par exemple, vous pouvez demander à Google de ne pas indexer la page de mentions légales, qui n'apporte pas de valeur ajoutée pour l'utilisateur. De plus, il peut aussi indiquer le sitemap du site, permettant aux robots de trouver facilement les pages importantes.

Pourquoi donner ce fichier aux moteurs de recherche ?

On pourrait croire que plus de pages indexées signifie une meilleure visibilité sur Google. Cependant, il est crucial que le contenu indexé soit pertinent pour l’utilisateur. Sinon, vous faites perdre du temps aux robots des moteurs de recherche comme Google. Le fichier robots.txt est donc un moyen de leur faire gagner du temps et de l’argent.

En résumé :

  • Le fichier robots.txt sert à indiquer aux moteurs de ne pas indexer certaines pages ou sections du site.
  • Google et les autres moteurs tiennent compte de ce fichier.
  • Créer et gérer un fichier robots.txt efficace aide les moteurs de recherche et améliore votre SEO.

Astuce : Lors de la refonte de votre site, utilisez un fichier robots.txt pour bloquer l'accès à la version en développement. N'oubliez pas de le modifier une fois la refonte terminée, sinon vos pages ne seront pas indexées.

À quoi ressemble un fichier robots.txt ?

Le fichier robots.txt est un simple fichier texte (.txt) que vous pouvez créer avec n’importe quel éditeur de texte. Il doit être placé à la racine de votre site, comme ceci : monsite.com/robots.txt.

Exemple de fichier robots.txt :

User-agent: *
Disallow: /repertoire-a/
Disallow: /repertoire-b/

Note : Certains robots ne respectent pas ce fichier, mais les principaux moteurs comme Google et Bing le prennent en compte.

Où placer le fichier robots.txt ?

Que vous utilisiez Magento, WordPress, Prestashop ou un autre CMS, placez toujours le fichier à la racine de votre site : http://votredomaine.fr/robots.txt. Utilisez un client FTP comme FileZilla pour l’envoyer à l'emplacement correct.

Robots.txt pour Magento

Magento ne gère pas automatiquement le fichier robots.txt. Vous devez donc le créer et le configurer manuellement en fonction de votre site.

Exemple de configuration :

User-agent: *
Disallow: /404/
Disallow: /app/
Disallow: /cgi-bin/
Disallow: /downloader/
Disallow: /errors/
Disallow: /includes/
Disallow: /js/
Disallow: /lib/
Disallow: /magento/
Disallow: /pkginfo/
Disallow: /report/
Disallow: /scripts/
Disallow: /shell/
Disallow: /skin/
Disallow: /stats/
Disallow: /var/
Disallow: /catalogsearch/result/
Disallow: /catalog/product_compare/
Disallow: /catalog/category/view/
Disallow: /catalog/product/view/
Disallow: /catalogsearch/
Disallow: /checkout/
Disallow: /control/
Disallow: /contacts/
Disallow: /customer/
Disallow: /customize/
Disallow: /newsletter/
Disallow: /poll/
Disallow: /review/
Disallow: /sendfriend/
Disallow: /tag/
Disallow: /wishlist/
Disallow: /index.php/catalogsearch/result/
Disallow: /index.php/catalog/product_compare/
Disallow: /index.php/catalog/category/view/
Disallow: /index.php/catalog/product/view/
Disallow: /index.php/catalogsearch/
Disallow: /index.php/checkout/
Disallow: /index.php/control/
Disallow: /index.php/contacts/
Disallow: /index.php/customer/
Disallow: /index.php/customize/
Disallow: /index.php/newsletter/
Disallow: /index.php/poll/
Disallow: /index.php/review/
Disallow: /index.php/sendfriend/
Disallow: /index.php/tag/
Disallow: /index.php/wishlist/
Disallow: /cron.php
Disallow: /cron.sh
Disallow: /error_log
Disallow: /install.php
Disallow: /LICENSE.html
Disallow: /LICENSE.txt
Disallow: /LICENSE_AFL.txt
Disallow: /STATUS.txt
Disallow: /.js$
Disallow: /.css$
Disallow: /.php$
Disallow: /?p=*&
Disallow: /?SID=
Disallow: /*?limit=all

Robots.txt pour WordPress

Même principe que pour Magento, ajustez le fichier en fonction des parties de votre site que vous souhaitez ne pas indexer.

Exemple :

User-agent: *
Sitemap: votre_sitemap.xml
Disallow: /cgi-bin
Disallow: /wp-login.php
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /category/
Disallow: */trackback
Disallow: */feed
Disallow: /comments
Disallow: /?*
Disallow: /.php$
Disallow: /.js$
Disallow: /.inc$
Disallow: /.css$
Disallow: /.gz$
Disallow: /.swf$
Disallow: /.wmv$
Disallow: /.cgi$
Disallow: /*.xhtml$

Robots.txt pour Prestashop

Prestashop génère par défaut un fichier robots.txt en excluant les URL non-publiques. Vous pouvez le modifier en ajoutant ou supprimant des règles selon vos besoins.

Vous pouvez accéder à ce fichier via FTP à la racine de votre site. Une fois généré, il suffit d’ajouter les règles nécessaires.

Merci d’avoir lu cet article. Si vous avez des questions, n’hésitez pas. Prochainement, nous aborderons les différences entre no follow, follow, index et no index !

D'autres articles qui devraient vous plaire

SEO

Améliorations massives de la qualité de recherche de Google avec la mise à jour de mars 2024 et de nouvelles politiques anti-spam

Google a lancé une mise à jour majeure de la qualité des recherches en mars 2024, accompagnée de multiples mises à jour anti-spam. La mise à jour de contenu utile, désormais intégrée au système de base, a permis de réduire de 40% les contenus non pertinents dans les recherches. Cette mise à jour est la plus complexe à ce jour, avec des ajustements importants de plusieurs systèmes fondamentaux, entraînant des fluctuations substantielles dans les classements. De nouvelles politiques anti-spam, y compris contre les abus de domaines expirés et le "Parasite SEO", sont également en vigueur, ciblant les contenus de faible valeur créés à grande échelle pour manipuler les classements. Pour en savoir plus sur les détails de cette mise à jour révolutionnaire et ses impacts potentiels, continuez la lecture de l'article complet.
👉 Lire l'article
SEO

SEO : Impact de l'algorithme Google sur les critiques de produits et les guides d'achat

En avril 2021, Google a introduit un nouvel élément dans son algorithme visant spécifiquement les pages d'avis sur les produits et les guides d'achat. L'objectif est d'évaluer la qualité et la pertinence des contenus pour améliorer les résultats de recherche. Cet article, bien que daté, reste une ressource riche en informations sur la Product Reviews Update, illustrant notamment les attentes de Google concernant la rédaction d'avis de produits. Des conseils pratiques sont également fournis pour optimiser ces avis, en insistant sur l'expertise, la précision et la transparence des informations. De plus, il est suggéré que cet algorithme pourrait impacter des contenus similaires, même non définis comme des avis produits. Pour les sites générant des revenus via des liens affiliés, des recommandations spécifiques sont données pour maintenir la crédibilité et éviter les pénalités. Préparez-vous dès maintenant pour d'éventuelles mises à jour futures ! Vous voulez en savoir plus ? Découvrez tous les détails dans l'article complet.
👉 Lire l'article
SEO

Mises à jour des scores Google PageSpeed avec Lighthouse 8.0 : Changements et impacts

Google a récemment annoncé la sortie de Lighthouse 8.0, une mise à jour qui mélange des critères d'évaluation plus stricts et d'autres plus indulgents, permettant à la majorité des sites de bénéficier de meilleures notes de performance. Parmi les principaux changements, on note une réévaluation du poids des différentes métriques de vitesse, rendant certaines plus rigoureuses comme le Total Blocking Time (TBT) et le First Contentful Paint (FCP), tandis que le Cumulative Layout Shift (CLS) devient moins strict. Lighthouse, outil incontournable pour les éditeurs, développeurs et experts SEO, alimente également l'outil PageSpeed Insights et est intégré directement dans Chrome. La version 8.0 sera déployée dans Chrome 93, mais est déjà disponible sur PageSpeed Insights. Les changements apportés à Lighthouse 8.0 signifient que 60% des sites verront un score amélioré, tandis qu'environ 20% pourraient observer une baisse jusqu'à cinq points. Les modifications de l'API et les ajustements aux principales métriques visent à offrir une évaluation plus précise et utile de la performance des pages. Avec cette mise à jour, Google continue de peaufiner ses outils pour fournir des résultats pertinents et optimiser l'expérience utilisateur. Pour découvrir ces nouvelles évaluations et comprendre en détail les ajustements effectués, consultez l'article complet.
👉 Lire l'article

plus de 73% de nos clients nous ont choisi par recommandation.

Nous avons accompagné
+300 entreprises.
En moyenne, 1 client nous
recommande à 2  entreprises.

Nos Growth News

3  articles & 1 outil
growth MARKETING
chaque semaine.

Le must have pour ceux qui souhaitent rester à
la page et des growth surprises en plus !

Merci,
vous allez recevoir un e-mail de confirmation.
Oops! Something went wrong while submitting the form.