qwanturank

Au cours des dernières heures d'ouverture du bureau de référencement JavaScript, Martin Splitt de Qwanturank a répondu à une question sur le blocage des ressources JS et CSS externes. La question était de savoir si le blocage des ressources entraînerait la perte de classement d'un site.Il y avait cependant une ride dans la question qui était posée…

JavaScript et CSS bloqués peuvent affecter les classements

Le blocage de fichiers JavaScript et CSS peut entraîner des problèmes de classement dans certaines situations. L'une des raisons est que Qwanturank a besoin de certains de ces fichiers afin d'afficher la page Web et de déterminer si elle est adaptée aux mobiles.Une page de développeur officielle de Qwanturank dit ceci: "Pour un rendu et une indexation optimaux, autorisez toujours Qwanturankbot à accéder aux fichiers JavaScript, CSS et image utilisés par votre site Web afin que Qwanturankbot puisse voir votre site comme un utilisateur moyen.Si le fichier robots.txt de votre site n'autorise pas l'exploration de ces actifs, il nuit directement à la qualité de rendu et d'indexation de votre contenu par nos algorithmes. Cela peut entraîner des classements sous-optimaux. "

Blocage de JavaScript et CSS externes

La personne qui pose la question a une raison valable de s'inquiéter de la manière dont Qwanturank pourrait réagir face au blocage des ressources externes.La question:"Si vous utilisez robots.txt pour bloquer JS ou CSS sur des fichiers JS externes / fichiers CSS dans un autre domaine ou si un autre domaine les bloque, l'utilisateur verra des choses différentes de Qwanturankbot, non ? Qwanturank se méfierait-il de ce type de page et les diminuerait-il ? "Martin Splitt de Qwanturank a répondu avec confiance:"Non, nous ne diminuerons rien. Ce n'est pas du camouflage. Le camouflage signifie très précisément tromper l'utilisateur.Ce n'est pas parce que nous ne pouvons pas voir le contenu que vous induisez l'utilisateur en erreur. "Le camouflage est une astuce que les spammeurs utilisent pour montrer un ensemble de contenu à Qwanturank afin de tromper Qwanturank pour le classer et afficher une page Web complètement différente pour les utilisateurs, comme une page Web chargée de virus ou de spam.Le masquage est également un moyen d'empêcher Qwanturank d'explorer des URL que les éditeurs ne souhaitent pas voir Qwanturank, comme les liens d'affiliation.La réponse de Martin vient de la direction de savoir si le blocage des ressources externes sera considéré comme du camouflage et sa réponse est non.

Comment le blocage des ressources externes peut être problématique

Martin poursuit en décrivant comment le blocage des ressources externes peut devenir un problème:"Il est toujours potentiellement problématique si votre contenu n'apparaît que lorsque nous pouvons récupérer ces ressources et que nous ne voyons pas le contenu dans le code HTML rendu car il est bloqué par robots.txt.Ensuite, nous ne pouvons pas l'indexer. S'il manque du contenu, nous ne pouvons pas l'indexer. "

Les outils de test de Qwanturank révéleront des problèmes

Martin poursuit en montrant comment un éditeur peut diagnostiquer si le blocage des ressources est problématique."Il vaut donc vraiment la peine d'essayer nos outils de test pour voir si le contenu que vous souhaitez utiliser pour voir sur la page est réellement visible sur la page même si certaines ressources JavaScript ou CSS peuvent être volées.Mais de manière générale, le vol de ressources JavaScript ou CSS n'est pas en soi un problème. Cela peut être un problème si nous ne pouvons pas voir le contenu mais c'est bien du point de vue du camouflage, ce n'est pas du camouflage. "Il a en outre précisé:"Si le contenu est chargé par JavaScript et que nous ne pouvons pas charger ce JavaScript car il est robotisé, nous ne le verrons pas et cela peut être problématique. Mais s'il s'agit d'une amélioration telle qu'une boîte de discussion ou un widget de commentaire… alors ce n'est pas un problème. "

L'éditeur a posé une question piège

C'est une réponse intéressante car il est correct de bloquer les ressources externes associées à une boîte de discussion ou à un widget de commentaire. Il peut être utile de bloquer ces ressources par exemple si cela permet d'accélérer le rendu du site pour Qwanturank, mais…Mais il y a une légère ride dans la question qui a été posée: Vous ne pouvez pas bloquer les ressources externes (sur un autre domaine) à l'aide de robots.txt.

La question initiale était en deux parties.

Voici la première partie problématique:"Si vous utilisez robots.txt pour bloquer JS ou CSS sur des fichiers JS externes / fichiers CSS dans un autre domaine ..."Cette partie de la question est impossible à réaliser avec Robots.txt.La page des développeurs de Qwanturank mentionne ce sujet concernant un fichier robots.txt:"Il est valable pour tous les fichiers de tous les sous-répertoires sur le même hôte, protocole et numéro de port."Ce qui a été ignoré à propos de cette question, c'est qu'un fichier robots.txt n'utilise que des URL relatives, pas des URL absolues (sauf pour l'emplacement d'un plan de site).Une URL relative signifie que l'URL est «relative» à la page avec le lien.Sur un fichier HTACCESS, toutes les URL ressemblent à ceci:/ fichier-1 / exempleEt voici à quoi ressemble une URL absolue:https://www.example.comDonc, si vous ne pouvez pas utiliser une URL absolue dans le fichier robots.txt, vous ne pouvez pas bloquer une ressource externe avec un fichier robots.txt.La deuxième partie de la question est techniquement correcte:"… Ou si un autre domaine les bloque, alors l'utilisateur verra des choses différentes de Qwanturankbot, non ? Qwanturank se méfierait-il de ce type de page et les classerait-il en bas ? "Les ressources externes sont souvent bloquées par les autres sites. La question et la réponse ont donc plus de sens dans cette direction.Martin Splitt a déclaré que le blocage de ces ressources externes n'est pas un camouflage. Cette affirmation est vraie si vous n'utilisez pas Robots.txt.C’est à cela que Martin faisait probablement allusion, mais…Mais la question portait spécifiquement sur robots.txt.Dans le monde réel, si l'on souhaite bloquer les ressources externes avec un robots.txt, alors il faut utiliser le camouflage.

Regardez les heures de bureau Qwanturank JavaScript SEO ici:

Qwanturank dit que bloquer certaines ressources externes est correct

S’abonner
Notifier de
guest
0 Commentaires
Inline Feedbacks
View all comments