Skip to main content

BERT est le nom donné à l’algorithme de Google déployé entre octobre et décembre 2019. Derrière cet acronyme se cache une mini-révolution technologique où vous entendrez tous les mots-clés du moment : intelligence artificielle, machine learning, commande vocale, etc…

Mais que cela a-t-il changé dans notre quotidien de marketeur ? Quels impacts sur la SERP de Google ? Doit-on revoir tous nos articles ? Décryptons tout cela ensemble.

CTA permettant de télécharger le modèle de brief d'article SEO

Qu’est-ce que Google BERT et à quoi sert-elle ?

BERT est le nom donné à des mises à jour des algorithmes Google, lancées entre octobre et décembre 2019 et qui signifie “Bidirectional Encoder Representations from Transformers”.

Concrètement, cela veut dire que Google a utilisé les réseaux neuronaux, une technique de machine learning, pour apprendre à son algorithme à mieux comprendre le contexte d’une requête.

Pour comprendre, rien de mieux que de prendre un exemple de requête traitée par Google BERT : par exemple, le mot avocat peut à la fois décrire un fruit et un professionnel de la justice.

Ce sont donc les mots qui lui sont ajoutés qui vont indiquer à Google l’intention de l’utilisateur, c’est-à-dire ce qu’il cherche à accomplir en tapant une requête.

  • Si l’on parle de type d’avocat, on parle plus de la profession.
  • Si l’on parle de recettes, on parle du fruit.

Mais ça, Google le faisait déjà plus ou moins bien selon les requêtes avant BERT. Google a donné sur son blog des exemples de requêtes bien plus complexes qui ont été améliorées avec Google BERT.

2019 brazil traveler to usa need a visa” est une requête tapée par un Brésilien voulant savoir s’il a besoin d’un VISA pour aller aux États-Unis. Auparavant, Google renvoyait un article du Washington Post pour les Américains voyageant au Brésil. Avec BERT, Google renvoie maintenant dans sa page de résultats (SERP) la page de l’ambassade du Brésil informant quels visas il faut avoir pour aller aux USA.

exemple d'une requête sur Google avant et après BERT

Source : https://www.blog.google/products/search/search-language-understanding-bert/

Derrière Google BERT, la bataille du NLP (Natural Language Processing)

Le NLP, ou Non Language Processing est traduit en français par le “Traitement Automatique du Language Naturel (TALN). Il s’agit de la combinaison entre les techniques de linguistique, d’informatique et d’intelligence artificielle.

La course est lancée entre Google et Bing, puisque le moteur de recherche de Microsoft vient d’annoncer avoir lancé un modèle d’intelligence artificielle sur 6 fois plus de requêtes que BERT !

Ce n’est donc que le début, puisqu’il s’agit d’un usage clé dans la création d’objets intelligents et connectés. Toute personne ayant déjà utilisé l’assistant de recherche Google ou SIRI sur iPhone a déjà pu s’amuser…

Scénario :
Jean Michelle en plein débat avec son téléphone après un happy hour en pleine semaine :

  • Hey Google, est-ce que je vais rentrer seule encore une fois ce soir ?
  • Je suis désolé, mais je n’ai pas la réponse à votre question.
  • Ah bah super tu sers vraiment à rien toi !

Alors certes, Google BERT ne va pas résoudre les problèmes existentiels de Jean Michelle, mais cette mise à jour va au moins permettre de mieux comprendre les questions qu’elle posera à Google et lui proposer des résultats plus pertinents.

À quels défis répond Google BERT ?

En effet, Google et ses confrères font face à trois défis de taille :

1/ 15% des requêtes dans Google sont “nouvelles”

Cela veut dire que Google n’a jamais apporté de réponse auparavant : son algorithme doit alors trouver dans son index les meilleurs résultats à afficher en comprenant au mieux l’intention de l’utilisateur pour lui apporter la meilleure réponse.

2/ Les internautes veulent des réponses

Avec la recherche vocale, les internautes veulent des réponses et non effectuer des recherches. Ils s’attendent à ce que la machine réponde en quelques secondes sans qu’ils aient à faire des recherches.

Il s’agit là d’une transformation profonde, car il ne s’agit plus pour Google de présenter les meilleures pages Web pouvant apporter une réponse, mais d’apporter directement la bonne réponse.

Si le moteur de recherche comprend mal la requête, échec.

3/ Les requêtes sont de plus en plus longues

Avant 2007, les internautes tapaient en moyenne des requêtes de 3 mots. Puis cela est monté à 4 mots.

Aujourd’hui, 8% des requêtes sont des questions et il y a de plus en plus de requêtes avec plus de 4 mots avec le développement de la recherche vocale.

Plus elle est longue, plus les moteurs de recherche doivent comprendre la sémantique.

Comment optimiser ses contenus pour Google BERT ?

Les mises à jour de l’algorithme Google font à chaque fois couler de l’encre. Et pourtant, les bases restent toujours les mêmes : du bon contenu + un site techniquement bon + une bonne promotion. Les hacks ne vivent qu’un temps…

Cependant, Google a annoncé qu’il s’agissait de la plus grosse mise à jour d’algorithme en 5 ans. On peut donc hisser BERT au même rang que les mises à jour Google Pingouin/Penguin (2012) ou Google Panda (2011) (pour voir l’historique, c’est par ici).

Alors déjà remettons les choses en place : la majorité des requêtes utilisées en B2B n’est pas concernée, et très peu de vos prospects vont vous trouver via la recherche vocale.

Apparemment, seules 10% des pages de résultats de recherche sont affectées par Google BERT (source Google).

Cependant, on peut en tirer deux enseignements :

  • Il faut bien travailler la sémantique de ses articles, et répondre au mieux aux intentions.
  • La tactique de commencer par la longue traîne en répondant à de plus en plus de questions puis regrouper par cocons sémantiques fonctionne.

Travailler la sémantique et les intentions

La sémantique correspond à la signification des mots. Alors qu’avant on parlait de mots-clés qu’on essayait de mettre au maximum dans les pages de son site Internet, il s’agit maintenant de rajouter toute la sémantique liée à un sujet.
Par exemple pour cet article, des outils comme 1.fr m’ont suggéré d’ajouter toute cette sémantique : liens, webmasters (vraiment, on dit encore ce mot ?!), backlinks, pénalité ou encore netlinking.

sémantique proposée par l'outil 1.fr pour un article traitant de Google BERT

Mais cela ne fait pas tout, si vous ne répondez pas aux intentions de l’utilisateur, l’article fera un flop. La preuve : Google BERT ne concerne pas du tout les liens entrants et pourtant on me suggère d’en parler… pas mal de mots clés n’apporteront rien au lecteur !

Alors, comment bien comprendre les intentions ?

Étant donné que Google BERT est plus avancé sur la langue anglaise, on vous invite à passer sur Google USA (il suffit de le tapper dans votre Google et prendre le premier résultat).

Là, vous aurez deux choses qui nous intéressent :

  • People Also Ask
  • Searches related to Google BERT

résultats de la section people also ask pour la requête Google BERT sur Google USA

recherches associées à la requête Google BERT sur Google USA

On découvre ainsi les intentions des utilisateurs, qui donneront la trame de l’article :

  • Qu’est-ce que c’est
  • À quoi ça sert
  • Les notions de NLP, de language model, etc
  • Des tutoriels

Il ne reste plus qu’à croiser cela avec vos personas, et vous avez cet article : comment en tirer profit quand on est un marketeur B2B ?

Travailler la longue traîne et ses cocons sémantiques

Lors de la conférence de l’an dernier au SEO Camp, nous parlions déjà d’intentions. Cependant, la tactique que l’on expliquait de tout regrouper en un article fort n’est PAS la bonne tactique lorsque l’on démarre en création de contenus !

BERT ne fait que le confirmer : plutôt que de s’attaquer à des mots clés importants comme “emailing” (6300 recherches par mois en France), il vaut mieux commencer par des questions précises.

De même, on utilise la section “autres questions posées” de Google et les “recherches associées”. On verra donc qu’on peut parler en emailing de :

  • les définitions
  • pourquoi faire de l’emailing / les avantages
  • comment faire de l’emailing / les tutos
  • parler de statistiques
  • faire la distinction entre prospection et marketing
  • parler des logiciels
  • etc

Concrètement….. C’est presque toujours la même recette. Et ensuite vous n’avez plus qu’à suivre la méthode des cocons sémantiques 😉

Alors, prêts à créer des contenus optimisés pour Google (BERT) et améliorer votre référencement naturel ? Allez-vous changer quelque chose dans vos habitudes ? Dites-le nous en commentaires 🙂

CTA permettant de télécharger le modèle de cartographie des contenus

Benoît Collet

Benoît Collet

Growth Marketeur chez Plezi, il est toujours à la recherche de nouvelles tactiques d'acquisitions et de nouveaux outils.

10 Commentaires

  • Nicolas Lemaigre-Voreaux

    Merci pour cet article sur Bert.
    Par contre Jean-Michelle s’écrit Jean-Michel en Français.

  • Benoît Collet

    Bonjour Nicolas merci du commentaire.
    Jean Michelle est une femme dans notre exemple…. C’est notre petit côté Jean Michel Kamoulox 🙂

  • Lala

    Merci 🙂

  • Nicodeme

    Super intéressant, mais Vous devriez surveiller l’orthographe

    • Benoît Collet

      Merci on va y veiller 🙂

  • Philippe Comte

    Bonjour , Merci pour votre article . Je viens d’utiliser l’exemple cité pour montrer l’efficacité de Bert :
    2019 Brazil traveler to usa need a visa

    Les réponses proposent toujours des informations concernant les ressortissants des Etats-Unis qui veulent voyager au Brésil … comme avant , et non le contraire .
    Bert est-il désactivé ou moins puissant qu’annoncé ?
    Merci de votre réponse.

  • Fabien P Amathieu

    je suis toujours surpris que face à un article de fond si bien expliqué si compréhensible, et si bien documenté,…si rare sur le sujet, certains pointent la FOTEDORTOGRAFFE ….grgr
    Bravo pour votre article, bien séquencée, compréhensible par Mr « toutlemonde », donc accessible ( c ‘est l’idée même du partage). De plus n’est ce pas l’approche la plus sensée pour que nous public puissions comprendre et reconnaitre votre valeur ajouté. Encore bravo p

    • Benoît Collet

      Merci beaucoup Fabien, c’est ce genre de commentaire qui nous motive ! 🙂

  • laurent

    Vraiment super. Merci j’ai adoré
    Et vive les phautes d’ortaugraffe ! 😉

    • Benoît Collet

      Merci Laurent du commentaire.
      Mince, je vais faire relire par quelqu’un d’autre car je crois que je ne peux que plaider coupable… 😬