qwanturank

La lutte pour suivre le rythme des mises à jour continues et éviter les problèmes techniques du site fait partie de la vie quotidienne des webmasters. Même si vous êtes déjà conscient d'un certain nombre de problèmes avec votre site Web, il peut être difficile de maintenir sa santé dans le monde en constante évolution du référencement. Cependant, avec une bonne compréhension des erreurs les plus courantes (et potentiellement nuisibles), vous pouvez vous donner une chance de lutter pour réduire les problèmes techniques au minimum et les performances du site Web au maximum. Ce guide vous donne une liste de vérification d'audit de site complète qui vous aidera à faire exactement cela en tant que webmaster, quelle que soit la taille de votre site.

Comment nous avons collecté les données

Nous avons géré 250 000 sites Web à partir d'une gamme de niches, y compris la santé, les voyages, les sports et la science, via l'outil SEMrush Site Audit pour trouver les erreurs de référencement les plus courantes les retenant. Au total, nous avons analysé:

  • 310.161.067 pages Web
  • 28,561,137,301 liens

  • 6,910,489,415 images

  • Cette étendue d'analyse nous a donné suffisamment d'informations pour créer un modèle d'audit de site complet que les webmasters peuvent utiliser pour éviter eux-mêmes les erreurs.

    Création d'un modèle d'audit de site soutenu par la recherche

    On ne peut échapper au fait qu'un audit de site correctement conduit est une tâche qui prend du temps. Notre étude a révélé 27 erreurs courantes qui ne peuvent évidemment pas être terminées en même temps, nous avons donc divisé la liste en morceaux digestibles à utiliser comme modèle exploitable

    Ignorer l'état HTTP et les problèmes de serveur

    Les problèmes techniques les plus critiques d'un site Web sont souvent liés à son état HTTP. Il s'agit notamment de codes d'état comme Erreur 404 (Page non trouvée), qui indiquent la réponse du serveur au dos d'une demande d'un client, comme un navigateur ou un moteur de recherche. Lorsque le dialogue entre un client et un serveur - ou, en termes plus simples, un utilisateur et votre site Web - est interrompu et s'effondre, il en va de même de la confiance que l'utilisateur a dans le site. De graves problèmes de serveur peuvent non seulement entraîner une perte de trafic en raison d'un contenu inaccessible, mais ils peuvent également endommager votre classement à long terme s'ils empêchent Google de trouver des résultats appropriés sur votre site pour le chercheur. 1. Erreurs 4xx Les codes 4xx signifient qu'une page est cassée et inaccessible. Ils peuvent également s'appliquer aux pages de travail lorsque quelque chose les empêche d'être explorées.
    Plus à ce sujet

    Les erreurs de construction de liens internes les plus courantes: une étude SEMrush

    Publier

    Elena Terenteva

    2. Pages non explorées Cela se produit lorsqu'une page ne peut pas être atteinte pour l'une des deux raisons: 1) le temps de réponse de votre site Web est supérieur à cinq secondes; ou 2) votre serveur a refusé l'accès à la page. 3. Liens internes rompus Ce sont des liens qui mènent les utilisateurs vers des pages qui n'existent pas sur votre site, ce qui peut endommager l'UX et le SEO. 4. Liens externes rompus Ce sont des liens qui dirigent les utilisateurs vers des pages qui n'existent pas sur un autre site, ce qui envoie des signaux négatifs aux moteurs de recherche. 5. Images internes cassées Ceci est signalé lorsqu'un fichier image n'existe plus ou que son URL est mal orthographiée. Les autres erreurs d'état HTTP courantes incluent: les redirections permanentes
    Redirection temporaire

    Sous-optimisation des balises META

    Vos balises META aident les moteurs de recherche à identifier les sujets de vos pages pour les relier aux mots-clés et expressions utilisés par les chercheurs. Créer les bonnes balises de titre signifie choisir les mots clés pertinents pour former un lien unique et digne de clic pour les utilisateurs dans les pages de résultats des moteurs de recherche (SERP). Les méta-descriptions vous donnent des opportunités supplémentaires pour inclure des mots-clés et des phrases associées. Ils doivent être aussi uniques et personnalisés que possible. Si vous ne créez pas les vôtres, Google les générera automatiquement en fonction des mots clés dans les requêtes des utilisateurs, ce qui peut parfois entraîner des termes de recherche et des résultats associés qui ne correspondent pas. Les balises de titre et les méta-descriptions optimisées doivent inclure les mots-clés les plus appropriés, être de la bonne longueur et éviter autant que possible la duplication. Certaines industries, telles que la mode de commerce électronique, ne sont pas en mesure de créer des descriptions uniques pour chaque produit, elles doivent donc offrir une valeur unique dans d'autres domaines de la copie du corps de leurs pages de destination. Si des métadonnées uniques sont possibles, vous devez vous diriger dans cette direction pour donner à votre site les meilleures chances de maximiser son impact dans les SERP.

    Les erreurs de balises Meta les plus courantes qui peuvent nuire à votre classement:

    6. Balises de titre et méta descriptions en double Deux pages ou plus avec les mêmes titres et descriptions rendent difficile pour les moteurs de recherche de déterminer correctement la pertinence et, à son tour, les classements. 7. Balises H1 manquantes Les balises H1 aident les moteurs de recherche à déterminer le sujet de votre contenu. S'ils sont manquants, il y aura des lacunes dans la compréhension de Google de votre site Web. 8. Méta descriptions manquantes Des méta-descriptions bien rédigées aident Google à comprendre la pertinence et encouragent les utilisateurs à cliquer sur votre résultat. S'ils manquent, les taux de clics peuvent baisser. 9. Attributs ALT manquants Les attributs ALT fournissent aux moteurs de recherche et aux personnes malvoyantes des descriptions des images de votre contenu. Sans eux, la pertinence est perdue et l'engagement peut en souffrir. 10. Balises H1 et balises de titre en double Lorsque les balises H1 et les balises de titre sont identiques sur une page donnée, cela peut sembler trop optimisé et cela peut signifier que des opportunités de classement pour d'autres mots clés pertinents ont été manquées. Les autres erreurs de balise meta courantes incluent: Éléments de titre courts / longs
    Plusieurs balises H1

    Création de contenu en double

    Le contenu en double a la capacité d'endommager vos classements - et potentiellement pendant un certain temps. Vous devez éviter de dupliquer tout type de contenu de tout type de site, qu'il s'agisse d'un concurrent direct ou non. Recherchez les descriptions en double, les paragraphes et des sections entières de la copie, les balises H1 en double sur plusieurs pages et les URL en double, telles que les versions www et non www de la même page. Faites attention à l'unicité de chaque détail pour vous assurer qu'une page est non seulement classable aux yeux de Google, mais également cliquable aux yeux des utilisateurs.

    Les problèmes de duplication les plus courants qui freinent les sites:

    11. Contenu en double L'outil d'audit de site signale le contenu en double lorsque les pages de votre site Web ont la même URL ou copie, par exemple. Il peut être résolu en ajoutant un lien rel = "canonical" à l'un des doublons, ou en utilisant une redirection 301. Les autres erreurs de duplication courantes incluent: les balises H1 en double et les balises de titre
    Méta descriptions en double

    Négliger l'optimisation des liens internes et externes

    Les liens qui guident vos visiteurs dans et hors de votre parcours client peuvent nuire à votre expérience utilisateur globale et, en retour, à vos performances de recherche. Google ne classera tout simplement pas les sites qui offrent une mauvaise expérience utilisateur. Cette étude a révélé que près de la moitié des sites que nous avons consultés via l'outil d'audit de site ont des problèmes avec les liens internes et externes, ce qui suggère que leurs architectures de liens individuelles ne sont pas optimisées. Certains des liens eux-mêmes ont des traits de soulignement dans les URL, contiennent des attributs nofollow et sont HTTP au lieu de HTTPS - qui peuvent tous se combiner pour nuire à l'engagement d'un site et, pire encore, à son classement. Vous pouvez trouver des liens brisés sur votre site avec l'outil d'audit de site; la prochaine étape serait pour vous d'identifier ceux qui ont le plus d'effet sur vos niveaux d'engagement des utilisateurs (par exemple, vous perdre le plus de trafic) et de les corriger par ordre de priorité.

    Les problèmes de liaison les plus courants pouvant avoir un impact sur votre classement:

    12. Liens menant à des pages HTTP sur un site HTTPS Les liens vers d'anciennes pages HTTP peuvent confondre les moteurs de recherche, alors assurez-vous de vérifier que tous vos liens sont à jour. 13. URL contenant des traits de soulignement Les moteurs de recherche peuvent mal interpréter les traits de soulignement et documenter incorrectement l'index de votre site D'autres erreurs de liaison courantes incluent: Liens internes rompus
    Liens externes rompus
    Attributs nofollow dans les liens externes
    Pages avec un seul lien interne
    Profondeurs d'exploration de la page de plus de 3 clics

    Rendre les choses difficiles pour les robots

    La crawlabilité côtoie les problèmes d'indexation comme l'un des indicateurs de santé cruciaux d'un site Web. Il y a du terrain à perdre et à gagner dans les SERP en ce qui concerne l'exploration de votre site.
    Plus à ce sujet

    Recherches sans clic, fonctionnalités SERP et obtention du trafic

    Publier

    Jennifer Slegg

     Si vous ignorez tout problème d'exploration d'un point de vue technique du référencement, certaines des pages de votre site peuvent ne pas être aussi visibles qu'elles devraient l'être pour Google. Si vous résolvez des problèmes d'exploration, cependant, Google sera plus susceptible d'identifier les bons liens pour les bons utilisateurs dans les SERP. Vous pouvez éviter les problèmes techniques en évaluant votre site à la recherche d'éléments cassés ou bloqués qui limitent son exploration. Kevin Indig, VP SEO & Content chez G2dotcom, souligne ici l'importance de la synergie entre les sitemaps et les robots:
    Ce qui m'a surpris, c'est que de nombreux plans de site XML ne sont pas référencés dans le fichier robots.txt. Cela me semble être une norme. Ce qui n'est pas surprenant, c'est le haut niveau de sites avec un seul lien interne vers des pages ou même des pages orphelines. C'est un problème classique de structure de site pour lequel seuls les SEO sont conscients. L'absence d'un fichier sitemap.xml dans votre fichier robots.txt, par exemple, peut conduire à des robots d'exploration des moteurs de recherche qui interprètent mal l'architecture de votre site, comme le dit Matt Jones, responsable SEO et CRO chez Rise at Seven, comme le peuvent les fichiers sitemap.xml aider les robots des moteurs de recherche à identifier et à trouver les URL qui existent sur votre site Web, leur permettant de les explorer [is] certainement un moyen fantastique d'aider les moteurs de recherche à acquérir une compréhension approfondie de votre site Web et, à son tour, à obtenir des classements plus élevés pour des termes plus pertinents.

    Les problèmes les plus courants rencontrés par les robots de site Web:

    14. Attributs nofollow dans les liens internes sortants Les liens internes qui contiennent l'attribut nofollow empêchent toute équité de lien potentielle de circuler sur votre site. 15. Pages incorrectes trouvées dans sitemap.xml Votre sitemap.xml ne doit contenir aucune page cassée. Vérifiez les chaînes de redirection et les pages non canoniques et assurez-vous qu'elles renvoient un code d'état 200. 16. Sitemap.xml introuvable Les sitemaps manquants compliquent l'exploration, l'exploration et l'indexation des pages de votre site par les moteurs de recherche. 17. Sitemap.xml non spécifié dans robots.txt Sans lien vers votre sitemap.xml dans votre fichier robots.txt, les moteurs de recherche ne pourront pas comprendre pleinement la structure de votre site. Les autres erreurs courantes d'exploration sont les suivantes: Pages non explorées
    Images internes cassées
    Liens internes rompus
    URL contenant des traits de soulignement
    Erreurs 4xx
    Ressources formatées en liens de page
    Ressources externes bloquées dans robots.txt
    Attributs nofollow dans les liens externes sortants
    Bloqué de l'exploration
    Pages avec un seul lien interne
    Pages Sitemap orphelines
    Profondeurs d'exploration de la page supérieures à 3 clics
    Redirection temporaire

    Ignorer l'indexabilité

    De bons indicateurs d'indexabilité sont essentiels pour le référencement. En termes simples, si une page n'est pas indexée, elle ne sera pas vue par un moteur de recherche, donc elle ne sera pas vue non plus par les utilisateurs. De nombreux facteurs peuvent empêcher l'indexation de votre site Web, même si vous semblez n'avoir aucun problème avec l'exploration. Les métadonnées et le contenu en double, par exemple, peuvent rendre difficile pour les moteurs de recherche d'identifier les pages à classer pour certains termes de recherche similaires. Vous pouvez voir dans nos recherches ci-dessus que près de la moitié des sites que nous avons audités souffrent de problèmes d'indexation causés par des balises de titre, des descriptions et du contenu corporel en double. Cela peut signifier que Google est obligé de prendre des décisions sur les pages à classer, malgré le fait que les webmasters peuvent anticiper des problèmes comme ceux-ci et dire à Google quoi faire. Une gamme de problèmes différents peut affecter l'indexabilité de votre site, du faible nombre de mots aux lacunes hreflang ou aux conflits pour les sites Web multilingues.

    Les problèmes les plus courants avec les sites Web non indexables:

    18. Balises de titre courtes / longues Les balises de titre de plus de 60 caractères sont raccourcies dans les SERPs, tandis que celles de moins de 60 caractères peuvent manquer des opportunités d'optimisation. 19. Conflits Hreflang dans le code source de la page Les sites Web multilingues peuvent confondre les moteurs de recherche si l'attribut hreflang est en conflit avec le code source d'une page donnée. 20. Problèmes avec des liens hreflang incorrects Les liens hreflang cassés peuvent créer des problèmes d'indexation si, par exemple, des URL relatives sont utilisées à la place des URL absolues: https: // votre site Web / blog / votre-article au lieu de / blog / votre-article. 21. Nombre de mots faible L'outil d'audit de site peut signaler les pages qui semblent manquer de contenu, il est donc utile de les examiner pour vous assurer qu'elles sont aussi informatives que possible. 22. Attributs hreflang et lang manquants Ce problème se déclenche lorsqu'une page d'un site multilingue ne contient pas les liens ou balises nécessaires pour indiquer aux moteurs de recherche ce qu'il faut servir les utilisateurs dans chaque région. En savoir plus sur hreflang ici. 23. Problèmes HTML AMP Ce problème concerne les utilisateurs mobiles de votre site Web et est signalé lorsque le code HTML ne correspond pas aux normes AMP. Les autres erreurs d'indexabilité courantes comprennent: les balises H1 en double
    Contenu en double
    Balises de titre en double
    Méta descriptions en double
    Balises H1 manquantes
    Plusieurs balises H1
    Problèmes de non-correspondance de la langue Hreflang

    Oublier les pages mobiles accélérées (AMP)

    Il est essentiel d'orienter votre référencement sur la page vers un site adapté aux mobiles. Nous savons que la convivialité mobile deviendra un critère de classement par défaut pour les mobiles et les ordinateurs de bureau pour Google en septembre 2020. Cela signifie que, en tant que webmasters, vous devez vous assurer que le code HTML de votre site est conforme aux directives AMP de Google avant d'être mobile. et évitez d'endommager vos performances de recherche. Vérifiez les pages AMP non valides sur votre site avec l'outil d'audit de site afin que vous puissiez voir ce qui doit être corrigé; cela peut se résumer à votre code HTML, à votre style et à votre mise en page ou à vos modèles de page.

    Le problème le plus courant lié à la convivialité mobile:

    Les problèmes HTML AMP peuvent être liés au style ou à la mise en page et, comme mentionné ci-dessus, peuvent affecter l'indexabilité d'un site.

    Ne pas répondre aux performances du site

    Le temps de chargement des pages devient de plus en plus important en SEO. Plus votre site est lent, moins il est susceptible d'engager les utilisateurs qui ont la patience d'attendre qu'il se charge. Vous pouvez obtenir PageSpeed ​​Insights directement auprès de Google pour savoir comment mesurer la vitesse des pages et identifier les opportunités pour rendre votre site plus rapide. Le test de vitesse du site Google utilisé en conjonction avec l'outil SEMrush Site Audit pourrait révéler, par exemple, des fichiers JavaScript ou CSS trop compliqués (comme il l'a fait avec de nombreux sites de notre étude). Gerry White, directeur SEO chez Rise at Seven, suggère que la réduction de code est un gain rapide en ce qui concerne les performances du site et l'expérience utilisateur: l'une des choses qui ressort dans les données est le nombre de gains rapides pour la vitesse de la page. Il ne s'agit pas seulement de classements, mais aussi de l'utilisateur et de la conversion - de simples gains rapides qui peuvent généralement être livrés sans trop d'efforts de développement, c'est là que je concentrerais mes efforts sur ce front. Des tâches telles que la compression de JavaScript et CSS prennent quelques minutes, mais peuvent apporter d'énormes améliorations sur de nombreux sites Web. Ceci doit être combiné avec la garantie que HTTPS est activé avec HTTP2.

    Les problèmes les plus courants avec les performances du site Web:

    24. Problèmes avec un contenu mixte Ce problème est similaire au point 12 en ce qu'il se produit lorsque des parties de votre site Web ne sont pas sécurisées avec le protocole HTTPS. Comme précédemment, remplacez tous les liens HTTP par les nouvelles versions HTTPS. 25. Vitesse de chargement lente des pages (HTML) Le temps nécessaire pour qu'une page soit entièrement rendue par un navigateur doit être aussi court que possible, car la vitesse affecte directement votre classement. 26. Fichiers JavaScript et CSS non mis en cache Ce problème peut être lié à la vitesse de chargement de votre page et se produit si la mise en cache du navigateur n'est pas spécifiée dans l'en-tête de réponse. 27. Fichiers JavaScript et CSS non réduits Ce problème concerne la réduction de JavaScript et CSS. Supprimez les lignes, les commentaires et les espaces blancs inutiles pour améliorer la vitesse de chargement des pages.

    Problèmes multicatégories

    Dans certains cas, les erreurs, avertissements et notifications détectés par l'outil d'audit de site relèveront de plusieurs catégories. Cela signifie qu'ils peuvent causer divers problèmes à votre site Web, comme illustré ci-dessous, il est donc recommandé de les traiter en priorité.

    L'importance de tirer parti des outils, trucs et astuces d'audit de site

    Commettre l'une de ces erreurs de référencement peut empêcher votre site Web d'atteindre son plein potentiel, il est donc essentiel que vous gardiez le contrôle en tant que webmaster avec des audits de site réguliers. Que vous souffriez de problèmes d'exploration qui empêchent l'indexation des pages ou de problèmes de duplication risquant des sanctions, vous pouvez utiliser cette liste de contrôle pour empêcher les taupinières de devenir des montagnes. Prenez l'habitude de prendre soin de votre santé SEO et UX avec des outils tels que l'outil d'audit de site et vous serez récompensé par le type de visibilité de la recherche et de l'engagement des utilisateurs qui ont des impacts positifs sur vos résultats

    Array

    27 des sites Web les plus importants ayant causé des dommages au référencement en 2020

    S’abonner
    Notifier de
    guest
    0 Commentaires
    Inline Feedbacks
    View all comments