Crawl Stats

metriques intermediaire

Définition

Donnees detaillees sur la facon dont Googlebot explore votre site : frequence, volume et ressources consommees.

Les Crawl Stats (statistiques d'exploration) sont disponibles dans Google Search Console et detaillent comment Googlebot interagit avec votre site. Elles incluent le nombre total de requetes de crawl, le volume de telechargement, le temps de reponse moyen du serveur, la repartition par type de contenu (HTML, images, CSS, JavaScript), les codes de reponse HTTP recus et la destination des requetes (pages, ressources). Ces statistiques sont essentielles pour comprendre si Google peut explorer efficacement votre site et pour diagnostiquer les problemes de budget de crawl. Un site avec des temps de reponse serveur eleves ou un nombre anormalement bas de requetes de crawl peut avoir des problemes d'indexation de nouvelles pages.

Statistiques d'exploration Crawl statistics Stats de crawl Exploration Google

Points clés à retenir

  • Donnees de Google Search Console sur l'exploration du site par Googlebot
  • Incluent frequence de crawl, temps de reponse, types de fichiers et codes HTTP
  • Essentielles pour diagnostiquer les problemes de budget de crawl et d'indexation

Exemples concrets

Diagnostic de budget de crawl

Les Crawl Stats montrent que Googlebot ne demande que 50 pages/jour sur un site de 10 000 pages. Le temps de reponse moyen de 3,2s revele un serveur sature. L'upgrade vers un hebergement plus performant augmente le crawl a 800 pages/jour.

Detection de pages parasites

L'analyse des Crawl Stats revele que 60% des requetes de crawl ciblent des pages de parametres (filtres, tri) sans valeur SEO. La mise en place de directives robots.txt libere le budget de crawl pour les pages importantes.

Questions fréquentes

Dans Google Search Console, allez dans Parametres > Statistiques d'exploration. Vous y trouverez les graphiques de requetes de crawl, la taille des telechargements et le temps de reponse du serveur sur les 90 derniers jours.

Cela depend de la taille de votre site. Un petit site de 50 pages crawle 10 fois/jour est normal. Un site de 50 000 pages crawle 50 fois/jour a un probleme. Si Google ne crawle pas assez, les nouvelles pages et modifications ne seront pas indexees rapidement.

Termes liés

Aller plus loin avec LemmiLink

Découvrez comment LemmiLink peut vous aider à mettre en pratique ces concepts SEO.

Dernière mise à jour : 2026-02-07