Définition
Google BERT (Bidirectional Encoder Representations from Transformers) est un modele de traitement du langage naturel (NLP) integre a l'algorithme de Google en octobre 2019. Sa particularite est d'analyser les mots d'une phrase dans les deux sens (bidirectionnel), ce qui lui permet de comprendre le contexte et les nuances du langage humain avec une precision inedite. BERT impacte environ 10% des requetes en anglais et a ete progressivement deploye dans toutes les langues. Il est particulierement efficace pour les requetes longues et conversationnelles ou les prepositions et les mots de liaison changent fondamentalement le sens de la recherche.
Points clés à retenir
- Analyse bidirectionnelle du contexte de chaque mot
- Impacte particulierement les requetes longues et conversationnelles
- Ameliore la precision des featured snippets
Exemples concrets
Preposition determinante
Pour la requete 'voyager de Paris a Lyon', BERT comprend que le mot 'a' indique la destination et non le point de depart, evitant ainsi d'afficher des resultats inverses.
Featured snippets ameliores
BERT aide Google a selectionner des extraits optimises plus pertinents en comprenant mieux les questions complexes comme 'peut-on prendre de l'aspirine a jeun'.
Questions fréquentes
RankBrain utilise le machine learning pour interpreter les requetes inedites, tandis que BERT utilise le traitement du langage naturel pour comprendre le contexte precis de chaque mot. Les deux fonctionnent en complementarite au sein de l'algorithme de Google.
Il n'y a pas de technique d'optimisation specifique a BERT. L'approche recommandee est d'ecrire de maniere naturelle, claire et precise, en repondant directement aux questions des utilisateurs sans jargon inutile.
Termes liés
Aller plus loin avec LemmiLink
Découvrez comment LemmiLink peut vous aider à mettre en pratique ces concepts SEO.
Dernière mise à jour : 2026-02-07