Cloaking User-Agent

penalites avance

Définition

Technique de cloaking qui detecte le user-agent du navigateur ou du robot pour servir un contenu different aux moteurs de recherche.

Le cloaking user-agent est une methode de dissimulation qui analyse la chaine user-agent envoyee par le navigateur ou le robot d'indexation dans l'en-tete HTTP de la requete. Lorsque le serveur identifie un user-agent correspondant a un crawler (Googlebot, Bingbot, etc.), il sert une version de la page specifiquement optimisee pour le SEO, souvent surchargee de mots-cles et de contenu textuel. Les visiteurs utilisant un navigateur classique (Chrome, Firefox, Safari) recoivent une version completement differente. C'est la forme de cloaking la plus repandue car elle est techniquement simple a mettre en oeuvre via des conditions dans le code serveur (PHP, Python, .htaccess). Neanmoins, elle est facilement detectable par Google qui peut modifier ses chaines user-agent a volonte pour tester les sites suspects.

UA cloaking cloaking par user-agent user-agent cloaking masquage par agent utilisateur

Points clés à retenir

  • La forme de cloaking la plus courante car techniquement simple a implementer
  • Repose sur l'analyse de la chaine user-agent dans les en-tetes HTTP
  • Google peut facilement detecter cette technique en modifiant son user-agent
  • A ne pas confondre avec le dynamic rendering qui sert le meme contenu dans un format different

Exemples concrets

Detection via HTTP headers

Un script PHP verifie $_SERVER['HTTP_USER_AGENT'] et, s'il contient 'Googlebot', sert une page HTML contenant 2000 mots optimises pour le mot-cle cible, tandis que les navigateurs classiques voient une page avec peu de contenu.

Regles .htaccess

Des regles de reecriture dans le fichier .htaccess utilisent RewriteCond pour detecter les user-agents des robots et les rediriger vers des pages satellites invisibles aux utilisateurs normaux.

Rendu JavaScript conditionnel

Un site detecte le user-agent cote serveur et sert du HTML statique pre-rendu bourre de mots-cles aux robots, tandis que les navigateurs recoivent une application JavaScript avec un contenu different.

Questions fréquentes

Non, le dynamic rendering est tolere par Google a condition que le contenu servi aux robots soit identique a celui visible par les utilisateurs, simplement pre-rendu en HTML statique pour faciliter l'indexation du JavaScript. Le cloaking user-agent, en revanche, sert un contenu fondamentalement different dans le but de manipuler le classement.

Comparez le contenu visible dans votre navigateur avec celui que voit Google en utilisant l'outil d'inspection d'URL dans Google Search Console, ou en modifiant votre user-agent via les outils de developpement du navigateur pour simuler Googlebot. Des outils comme Screaming Frog permettent aussi de comparer les versions.

Termes liés

Aller plus loin avec LemmiLink

Découvrez comment LemmiLink peut vous aider à mettre en pratique ces concepts SEO.

Dernière mise à jour : 2026-02-07