Beaucoup de gens sont silencieux en ce qui concerne le référencement pour Bing car il n’y a pas beaucoup d’informations à ce sujet. Ce qui est amusant, c’est que de nombreuses technologies et techniques de pointe ont été utilisées chez Bing avant Qwanturank. Fabrice Canel, directeur de programme principal chez Bing, a récemment partagé une foule d’informations avec Jason Barnard de Kalicube sur le fonctionnement non seulement de Bing, mais aussi en général sur le fonctionnement des moteurs de recherche.

Critères d’indexation du contenu

Fabrice est en charge de Bingbot Crawler, de la découverte et de la sélection d’URL, du traitement des documents et des outils Bing Webmaster. C’est une bonne personne vers qui se tourner pour obtenir des informations sur les moteurs de recherche, en particulier l’exploration et la sélection de pages.

Fabrice décrit ici le processus d’exploration et ce que je pense être le point important à retenir, c’est comment il dit que Bing est pointilleux sur ce qu’il choisit d’indexer.

Beaucoup de gens pensent que chaque page de leur site mérite une chance d’être classée. Mais Qwanturank et Bing n’indexent pas tout.

Publicité

Continuer la lecture ci-dessous

Ils ont tendance à laisser derrière eux certains types de pages.

La première caractéristique d’une page que Bing voudrait indexer est une page utile.

Capture d’écran de Jason Barnard

Fabrice Canel explique :

« Nous sommes évidemment axés sur les affaires pour satisfaire le client final, mais nous devons choisir.

Nous ne pouvons pas tout explorer sur Internet, il existe un nombre infini d’URL.

Vous avez des pages avec des calendriers. Vous pouvez aller au lendemain pour toujours.

Il s’agit donc vraiment de détecter ce qui est le plus utile pour satisfaire un client Microsoft Bing.

Publicité

Continuer la lecture ci-dessous

Bing et les domaines clés

Fabrice parle ensuite du concept de Key Domains et comment ils sont guidés par des pages clés sur Internet pour leur montrer le contenu de qualité.

Ce genre de sons ressemble à un algorithme qui incorpore un ensemble initial de sites de confiance à partir desquels plus un site est éloigné des sites Web clés, plus il est susceptible d’être du spam ou inutile (Link Distance Ranking Algorithms)

Je ne veux pas mettre des mots dans la bouche de Fabrice, ce qui précède n’est que mon constat.

Je vais laisser Fabrice parler pour lui-même.

Jason a demandé :

« Diriez-vous que la plupart des contenus sur le Web ne sont pas utiles ou est-ce exagéré ? »

Fabrice a répondu :

« Je pense que c’est un peu exagéré.

Nous sommes guidés par des pages clés qui sont importantes sur Internet et nous suivons des liens pour comprendre la suite.

Et si nous nous concentrons vraiment sur ces domaines clés (pages clés), alors cela nous guide vers un contenu de qualité.

Ainsi, la vision que nous avons d’Internet n’est pas d’aller en profondeur pour toujours et d’explorer des contenus inutiles.

C’est évidemment pour garder l’index frais et complet, contenant tout le contenu le plus pertinent sur le Web.

Qu’est-ce qui fait que Bing Crawl profondément dans les sites Web

Jason pose ensuite des questions sur les sites Web qui sont explorés en profondeur. Évidemment, obtenir un moteur de recherche pour indexer toutes les pages d’un site est important.

Fabrice explique le processus.

Jason a demandé :

« Droit. Et puis je pense que c’est la clé. Vous préférez aller large et aller en profondeur.

Donc, si j’ai un site en haut de la pile, vous aurez tendance à vous concentrer davantage sur moi qu’à essayer de trouver de nouvelles choses que vous ne connaissez pas déjà ? »

Fabrice a fourni une réponse nuancée, reflétant la nature compliquée de ce qui est choisi pour l’exploration et l’indexation  :

« Ça dépend. Si vous avez un site spécialisé et couvrant un sujet intéressant qui intéresse le client, nous pouvons évidemment aller en profondeur.

Les machines choisissent quoi explorer

Nous anthropomorphisons parfois les moteurs de recherche en disant des choses comme « Le moteur de recherche n’aime pas mon site ».

Mais en réalité, il n’y a rien dans les algorithmes qui parle d’aimer ou de faire confiance.

Publicité

Continuer la lecture ci-dessous

Les machines n’aiment pas.

Les machines ne font pas confiance.

Les moteurs de recherche sont des machines qui sont essentiellement programmées avec des objectifs.

Fabrice explique comment Bing choisit d’explorer en profondeur ou de ne pas explorer en profondeur  :

«Ce n’est pas moi qui choisis où nous allons en profondeur et non en profondeur. Ce n’est pas non plus mon équipe.

C’est la machine.

L’apprentissage automatique qui consiste à choisir d’approfondir ou d’approfondir en fonction de ce que nous pensons être important pour un client Bing.

Cette partie de ce qui est important pour le client est quelque chose à prendre en compte. Le moteur de recherche, dans ce cas Bing, est réglé pour identifier les pages importantes pour les clients.

Lors de la rédaction d’un article ou même de la création d’une page de commerce électronique, il peut être utile de regarder la page et de se demander  : « Comment puis-je rendre cette page importante pour ceux qui visitent cette page Web ? »

Jason a ensuite posé une question pour obtenir plus d’informations sur ce qui est impliqué dans la sélection de ce qui est important pour les visiteurs du site.

Publicité

Continuer la lecture ci-dessous

Jason a demandé :

« Vous ne faites que donner à la machine les objectifs que vous voulez qu’elle atteigne ? »

Fabrice a répondu :

« Absolument. Oui.

La principale contribution que nous donnons aux algorithmes d’apprentissage automatique est de satisfaire les clients de Bing.

Et donc nous regardons différentes dimensions pour satisfaire les clients Bing.

Encore une fois, si vous recherchez Facebook. Vous voulez le lien Facebook en première position. Vous ne voulez pas que des blogs aléatoires parlent de Facebook.

L’exploration de recherche est interrompue et a besoin d’une mise à jour

Jason demande à Fabrice pourquoi IndexNow est utile.

Fabrice répond en précisant ce qu’est le crawl aujourd’hui et comment cette méthode de recherche de contenu à indexer, qui date de près de trente ans, a besoin d’une mise à jour.

L’ancienne et actuelle méthode d’exploration consiste à visiter le site Web et à « extraire » les données des sites Web, même si les pages Web sont les mêmes et n’ont pas changé.

Les moteurs de recherche doivent continuer à visiter l’ensemble du Web indexé pour vérifier si de nouvelles pages, phrases ou liens ont été ajoutés.

Publicité

Continuer la lecture ci-dessous

Fabrice affirme que la façon dont les moteurs de recherche explorent les sites Web doit changer car il existe une meilleure façon de s’y prendre.

Il a expliqué le problème fondamental :

« Donc, le modèle de l’exploration est vraiment d’apprendre, d’essayer de comprendre quand les choses changent.

Quand Jason publiera-t-il à nouveau ? Nous pouvons peut-être le modéliser. On pourra peut-être essayer de comprendre. Mais on ne sait vraiment pas.

Donc, ce que nous faisons, c’est tirer et tirer et ramper et ramper pour voir si quelque chose a changé.

C’est un modèle de rampement aujourd’hui. Nous pouvons apprendre des liens, mais à la fin de la journée, nous allons à la page d’accueil et le découvrons. Ce modèle doit donc changer.

Fabrice a ensuite expliqué la solution :

« Nous devons obtenir les commentaires du propriétaire du site Web Jason et Jason peut nous dire via une API simple que le contenu du site Web a changé, nous aidant à découvrir ce changement – pour être informé d’un changement, envoyer le robot d’exploration et obtenir le dernier contenu.

C’est un changement global de l’industrie de l’exploration et de l’exploration et de l’exploration et de l’exploration pour découvrir si quelque chose a changé… »

Publicité

Continuer la lecture ci-dessous

L’état actuel de la recherche

Qwanturank a tendance à les appeler utilisateurs, personnes qui utilisent leur site. Bing introduit le concept de personnes qui recherchent en tant que clients et avec cela tous les petits aphorismes sur les clients qui sont implicites dans une approche client d’abord telle que le client a toujours raison, donnent au client ce qu’il veut.

Steve Jobs a dit à propos des clients par rapport à l’innovation, ce qui concerne un peu IndexNow de Bing mais aussi pour les éditeurs :

« Vous ne pouvez pas simplement demander aux clients ce qu’ils veulent et ensuite essayer de le leur donner. Au moment où vous le ferez construire, ils voudront quelque chose de nouveau.

L’avenir de la recherche est Push ?

Bing a déployé une nouvelle technologie push appelée IndexNow. C’est un moyen pour les éditeurs d’informer les moteurs de recherche de venir explorer des pages Web nouvelles ou mises à jour. Cela permet d’économiser les ressources de l’hébergement et du centre de données sous forme d’énergie électrique et de bande passante. Cela permet également aux éditeurs de savoir plus facilement que le moteur de recherche viendra chercher le contenu plus tôt avec une méthode push plutôt que plus tard comme dans la méthode d’exploration actuelle.

Publicité

Continuer la lecture ci-dessous

Citation

Ce n’est qu’une partie de ce qui a été discuté.

Retrouvez l’intégralité de l’interview de Fabrice Canel

Categories: SEO

S’abonner
Notification pour
guest

Commentaires
Commentaires en ligne
Afficher tous les commentaires
0
Nous aimerions avoir votre avis, veuillez laisser un commentaire.x