Le concours Qwanturank lancé début Décembre est prévu pour durer 6 mois. C’est une durée étonnamment longue, là où les concours SEO durent généralement 1 à 3 mois. Si nous n’avons évidemment pas d’explication officielle à ce sujet, nous avons par contre une théorie qui selon nous tient la route.

Qwant est un moteur de recherche avec de « faibles moyens » qui s’appuie en partie sur Bing

Comme vous le savez certainement, le moteur de recherche Qwant est relativement jeune, puisqu’il a été créé en 2011.

Certes, des fonds ont été levés et un accord avec la Banque européenne d’investissement lui a permis de profiter d’un prêt de 25 millions d’euros, mais cela reste une goutte d’eau comparé au budget R&D de mastodontes comme Google.

C’est ce qui explique les multiples partenariat signés avec Bing, le moteur de recherche européen s’appuyant depuis quelques mois en partie sur les données recueillies par le robot d’indexation de Microsoft.

Pour autant, un rapide passage sur Bing et sur Google, que ce soit pour suivre l’évolution des SERPs Qwanturank ou n’importe quelle autre requête, permet de constater que les résultats des deux moteurs varient, parfois peu, parfois énormément.

Une analyse des logs sur le présent site montre assez clairement que le bot Qwant n’y est jamais passé (ou alors on l’a raté) tandis que BingBot passe régulièrement (et Google Bot passe lui plusieurs fois par jours).

Des tests de blocage de l’indexation du site à BingBot mais pas a Qwantify (le robot d’indexation de Qwant) montrent quant à eux que lorsque Qwant n’a pas (encore ? ) crawlé une page, il récupère bien les données indexées par Bing, mais les affiche dans un ordre qui lui est propre.

Ce constat n’a rien de surprenant et découle très logiquement d’un manque de puissance de crawl, intelligemment pallié par un accord avec le géant américain. Pour autant cette situation pourrait avoir des conséquences directes très fortes sur la fraîcheur des SERPs Qwant.

Une optimisation du Budget Crawl Qwant qui peut avoir un impact sur la fraîcheur des SERPs Qwanturank

Ce qui suit n’est qu’une série d’hypothèses, et par conséquent on est peut-être complètement à coté de la plaque, mais pas forcément.

Donc en partant du principe que Qwant collecte les données de Bing, il récupère donc les données déjà scrappées par Microsoft. Bien évidemment on ignore quels sont les algorithmes appliqués à ce stade sur le corpus de pages scrappées, mais on imagine que Qwant a du partir d’une structure qui s’inspire au moins en partie de l’algo public du PageRank, base historique des mécanismes de Google.

Ce n’est que dans un second temps, et selon des critères que nous ne connaissons pas, que le bot Qwantify va effectivement

  • partir scrapper à son tour une partie des pages déjà indexées par Bing
  • scrapper de « nouvelle pages » qui n’ont pas été indexées par Bing
  • et également rescrapper des pages déjà identifiées par Bing

Quelle que soit la stratégie d’optimisation du Budget Crawl, un premier constat au bout d’un mois de concours est en tous cas sans appel : si les SERPs Qwanturank commencent enfin à bouger depuis quelques jours et à devenir un peu moins mauvaises en terme de « qualité », un simple coup d’œil aux metadescriptions de Qwant montrent qu’il est « à la bourre » d’au moins 5 jours sur Google.

Encore une fois ce retard n’est pas forcément un signe de faiblesse, mais la conséquence d’une priorisation de ressources en fonction de différents critères internes d’optimisation de Crawl qui pourraient parfaitement être alignés avec des critères de pertinence.

Les possibilités qu’un concours Qwanturank de 6 mois offre aux développeurs de Qwant

Partons de l’hypothèse que Qwant n’a pas 500.000 bots qui crawlent le web en permanence et essaie donc d’optimiser intelligemment ses ressources. Ajoutons maintenant à cela un autre élément qui est dans l’ADN même de Qwant : le moteur ne collecte aucune donnée utilisateur, et en particulier aucun cookie.

Quelles options a dans ce cas Qwant pour optimiser ses résultats de recherche et proposer des réponses pertinentes ?

Pour nous il n’y a que 3 réponses possibles qui d’ailleurs doivent d’une façon ou d’une autre se compléter (mais si quelqu’un de chez Qwant nous lit, on serait ravis d’avoir ses retour sur la question) :

  • Qwant mise forcément sur une analyse poussée des contenus web sur une base sémantique + entités nommées
  • Le moteur doit également accorder une importance plus importante au machine learning dans l’évaluation des résultats puisque le corpus disponible pour ses calculs est plus réduit
  • Enfin Qwant doit vraisemblablement donner moins de poids aux liens que Bing ou Google, puisqu’il s’appuie sur des datas « plus froides » (donc un peu de retard)

Alors oui je sais je n’apporte pas de vrais arguments à ce sujet, mais l’idée n’est pas ici de dévoiler ma stratégie (ni d’ailleurs mes retours d’expérience SEO sur Bing et Qwant) mais plutôt d’engager la discussion (les commentaires sont là pour ça).

Si vous m’accordez en tous cas le bénéfice du doute sur les hypothèses ci-dessus, une conséquence semble évidente pour le concours Qwanturank : les dev de Qwant ont besoin d’un maximum de temps pour faire tourner leurs algos de ML, sans parler de la possibilité qu’un concours sur 6 mois leur offre de déployer plusieurs mises à jours (et peut-être aussi des rollbacks) uniquement sur la SERP Qwanturank.

Que pensez-vous de ces réflexions ? Je crois en tous cas dur comme fer à ces hypothèses (légèrement fumeuses) et la bonne nouvelle est que si je me plante totalement (et les probabilités à ce sujet restent élevées) j’ai encore 5 mois pour corriger le tir !

Categories: IA

S’abonner
Notification pour
guest

0 Commentaires
Commentaires en ligne
Afficher tous les commentaires
0
Nous aimerions avoir votre avis, veuillez laisser un commentaire.x