audit-seo

Qu’est-ce qu’un Audit SEO de site Internet

Avant d’entamer toute prestation de référencement, il faut analyser la situation de votre site web. Pour envisager toute action, il faut savoir d’où l’on vient et comment faire pour atteindre la bonne destination. Cela s’apparente à planifier un itinéraire. Explications de l’audit SEO !

Qu’est-ce qu’un audit SEO ?

Un audit de référencement est le processus d’analyse de l’adéquation de votre présence sur le web avec les meilleures pratiques. C’est la première étape pour créer un plan de mise en œuvre qui aura des résultats mesurables.

Un audit est une procédure standard qui devrait avoir lieu régulièrement – Il s’agit essentiellement d’un « bilan de santé » pour votre site web.

L’objectif de la vérification est d’identifier le plus grand nombre possible de questions fondamentales ayant une incidence sur le rendement de la recherche organique. L’audit SEO comprendra :

  • Questions techniques SEO
  • Questions relatives à la structure du site Web
  • Le contenu du site web
  • Problèmes potentiels hors site
  • Problèmes liés à l’expérience de l’utilisateur
  • L’analyse des backlinks
  • Analyse du marché concurrentiel

À quoi s’attendre pendant et après un audit SEO

Un audit SEO prend du temps. Pendant ce temps, un spécialiste SEO analyse et découvre les opportunités SEO sur votre site Web.

Une fois l’audit terminé, vous serez invité à une présentation au cours de laquelle notre spécialiste SEO discutera des résultats et des recommandations. Nous vous guiderons à travers la feuille de route jusqu’à l’achèvement afin que vous sachiez à quoi vous attendre et quand. De plus, vous recevrez une analyse complète de la santé de votre site. Tous ces services sont adaptés à vos besoins et à votre situation particulière.

Ce qu’un audit SEO devrait être

audit-seoD’abord et avant tout, une vérification doit être exhaustive. Il doit couvrir à la fois les composants structurels et de contenus affectant votre référencement. L’audit SEO doit donner une vue d’ensemble dupour tout ce qui concerne le référencement naturel. Ne pas réaliser un audit SEO pourrait donner lieu à des recommandations inutiles ou inappropriées.

L’audit doit être facile à comprendre. Le propriétaire d’entreprise doit être en mesure de relier les points sur la façon dont les questions SEO affectent ses priorités, objectifs ou revenus en ligne. Toutes les recommandations doivent clairement s’aligner sur vos objectifs d’affaires globaux.

Enfin, les recommandations d’audit de référencement doivent pouvoir être mises en œuvre. Il devrait y avoir un cheminement clair jusqu’à l’achèvement des travaux. La priorité devrait être établie en fonction de l’impact prévu et des efforts associés à chaque recommandation. Le résultat de n’importe quel audit SEO doit transmettre avec précision une feuille de route facile à suivre.

Ce qu’un audit SEO ne devrait pas être

Un audit SEO ne doit pas être précipité. Il faut simplement du temps pour découvrir les causes profondes des problèmes qui affectent la santé d’un site en ligne. Selon la taille du site, un audit approprié peut prendre de 2 à 6 semaines. La diligence raisonnable est nécessaire lors de la réalisation de modifications majeures à tout site Web. Un spécialiste SEO doit mener une étude approfondie pour faire des recommandations précises et percutantes.

Un audit de référencement ne doit pas être standardisé. Les outils d’audit en ligne ne peuvent donner que des pistes mais ne peuvent pas remplacer l’analyse d’un expert SEO. Bien que certains éléments techniques soient requis pour tous les sites Web, une analyse de la situation devrait être effectuée dès le début d’un audit d’optimisation du référencement afin d’affiner les domaines d’intérêt pour ce site.

Ce qui est analysé dans un audit SEO

Bien que les audits SEO peuvent varier légèrement, chacun d’entre eux doit analyser les enjeux techniques de base du SEO.

Dans un audit SEO, nos experts analysent, selon la situation et la taille de l’entrprise des dizaines d’éléments SEO différents dans les catégories suivantes :

Vérifiez le trafic de votre site Web

Le trafic est une conséquence de vos efforts de référencement. Si vous avez été en mesure d’améliorer votre visibilité de recherche pour un mot-clé de volume élevé, vous pouvez être presque sûr que le nombre de visites de votre site augmentera également. Cependant, une baisse d’un nombre par ailleurs stable de trafic ne signifie pas toujours que la visibilité de votre recherche a également diminué.

Il est important de faire un contrôle régulier de votre trafic dans Google Analytics.

Prenez l’habitude de vérifier régulièrement votre trafic. Vérifiez-le 2 à 4 fois par semaine. Il s’agit d’un fondement important de votre audit de site et la vérification de votre trafic ne peut jamais être négligée. Après avoir vérifié votre trafic, l’étape suivante est de :

Vérifiez votre rapport de couverture de la search console de Google

Google Search Console est probablement l’outil le plus crucial pour les moteurs de recherche et apprendre à l’utiliser à son plein potentiel est un must. Il est important que les pages que vous voulez que Google indexe soient affichées dans les résultats de recherche et que celles que vous ne voulez pas afficher n’apparaissent pas dans les SERPs.

Le rapport de couverture de Google Search Console est le meilleur moyen de savoir comment Google voit vos pages et surveille les pages de votre site Web qui sont indexées. Vous seriez également en mesure de voir les erreurs de rampement de sorte que vous pourriez les corriger immédiatement.

Vérifiez vos Sitemaps soumis

Puisque votre sitemap contient toutes les URL que vous voulez que Google explore, vous devez vous assurer que tous vos sitemaps sont soumis et explorés par Google. Vous pouvez soumettre plusieurs sitemaps dans la console de recherche, mais cette décision doit être basée sur la taille de votre site Web.

Si vous avez moins de mille pages, il serait préférable d’avoir un seul plan du site. Si votre site Web est un site de réservation de voyage et a 50 000 pages ou plus, vous pouvez diviser votre plan du site en plusieurs plans du site pour mieux organiser vos URL.

Notez que le fait d’avoir plus d’un sitemap ne signifie pas que les priorités d’exploration vont changer. C’est seulement une excellente façon de structurer votre site Web et de dire aux robots des moteurs de recherche quelles sont les parties de votre site Web qui sont importantes.

Soumis et indexé

Sous ce rapport, vous devriez voir toutes les URLs qui sont dans votre sitemap. Si vous voyez ici des URL qui ne devraient pas être indexées, comme des pages de test ou des images, vous devriez placer une balise noindex pour indiquer aux robots de recherche que cela ne devrait pas être affiché dans les résultats de recherche.

Indexé, non soumis dans le plan du site

La plupart du temps, ce rapport affiche des pages que vous ne voulez pas que les utilisateurs voient dans les résultats de recherche. Même si vous avez soumis un plan du site, Google peut quand même parcourir des liens qui ne sont pas dans votre plan du site.

Dans la mesure du possible, le nombre de pages indexées dans ce rapport devrait être maintenu au minimum. S’il y a des pages indexées que vous ne voulez pas que les utilisateurs voient volontairement, placez une balise noindex dessus. Si vous voyez des pages importantes ici, il serait beaucoup mieux si vous pouviez les ajouter à votre plan du site.

Vérifier s’il y a des anomalies de crawl

Dans Google Search Console, sous le rapport de couverture, vous pouvez également voir les pages qui ont été parcourues par Google mais qui ont été exclues des résultats de recherche. Cela pourrait être dû à la balise noindex, au fichier robots.txt, ou à d’autres erreurs qui pourraient causer des anomalies de recherche et rendre une page non-indexable par Google.

Vous devriez consulter ce rapport, car vous pourriez avoir des pages importantes qui se trouvent sous celles-ci. Pour les pages qui sont sous:

  • Blocked by Robots.txt ou
  • Excluded by Noindex tag,

les corrections devraient être aussi simples que de les supprimer du fichier robots.txt ou de supprimer la balise meta noindex.

Pour les pages importantes sous Anomalie de Crawl ou Crawl Anomaly, vous devriez les vérifier à l’aide de l’outil d’inspection d’URL de la console de recherche pour voir plus de détails pourquoi Google a des problèmes à ramper et à l’indexer.

Si vous ne voyez pas de pages importantes ici, il n’y a pas besoin d’autres actions et laissez la console de recherche garder les pages sans importance ici.

Vérifier les SERPs

C’est l’une des choses les plus importantes que beaucoup de SEOs oublient habituellement. Beaucoup de gens sont occupés à construire des liens et à élaborer des stratégies avec leur référencement sur la page qu’ils ne vérifient pas ce que leurs pages regardent dans les résultats de recherche.

Pour ce faire, allez dans Google search et utilisez la commande de recherche avancée « site :nomdedomaine.com » pour afficher tous les résultats de Google pour votre site web. C’est un excellent moyen de savoir comment les utilisateurs vous voient dans les résultats de recherche.

Vérifiez si les titres des pages sont trop longs ou trop courts, si les mots sont mal orthographiés ou si la grammaire est incorrecte. Bien que les méta descriptions ne soient plus utilisées comme facteur de classement par Google, il s’agit toujours d’un facteur de taux de clics et devrait encore être optimisé afin de s’assurer que les méta descriptions de vos pages sont attractives pour les utilisateurs.

Validation Robots.txt

Le fichier robots.txt est ce que le moteur de recherche parcours pour déterminer quelles pages sur votre site à parcourir. Robots.txt est vital pour votre audit de référencement car une légère erreur de configuration ou un problème peut causer un monde de problèmes pour vous. Que faire de plus si vous négligez totalement de le vérifier pour l’audit ?

Mettre votre robots.txt à l’épreuve en s’assurant que le moteur de recherche peut accéder correctement est l’une des meilleures pratiques SEO dans l’industrie. Si votre fichier robots.txt est manquant, il y a de fortes chances que toutes vos pages accessibles au public soient explorées et ajoutées à leur index.

Pour commencer, ajoutez simplement /robots.txt à côté de votre URL.

Si vous n’avez pas encore créé de fichier robots.txt, vous pouvez utiliser un éditeur de texte simple comme Notepad pour Windows ou TextEdit pour Mac. Il est important que vous utilisiez ces programmes de base car l’utilisation d’outils Office pourrait insérer du code supplémentaire dans le texte.

Cependant, vous pouvez garder à l’esprit que vous pouvez utiliser n’importe quel programme qui est dans le type de fichier.txt. Robots.txt peut vous aider à bloquer les URL qui ne sont pas pertinentes pour le crawling. Le blocage de pages telles que les pages de l’auteur, les informations d’identification de l’administrateur ou les plugins, entre autres, aideront le moteur de recherche à prioriser les pages les plus importantes sur votre site.

Le robot du moteur de recherche verra d’abord votre fichier robots.txt lorsqu’il entrera dans votre site pour le crawler.

Bien sûr, vous ne devriez pas manquer les directives d’exploration des robots telles que user-agent, disallow, allow, et le sitemap.

Diagnostic du site

Après avoir diagnostiqué votre site à travers les différentes facettes du moteur de recherche (Google), il est temps pour vous de vérifier votre site en tant qu’entité. L’outil à utiliser pour vérifier le statut de notre site est Screaming Frog. Vous définissez les paramètres et il est même capable de parcourir/compiler les liens sortants pour vous faire savoir si vous avez des liens cassés.

Screaming Frog compile tous les différents facteurs sur place et énumère les erreurs que vous pourriez vouloir ou devoir corriger. Les facteurs sur place que montre Screaming Frog sont :

  • Protocole – Si vos pages sont HTTP ou HTTPS
  • Codes de réponse – Des pages bloquées par Robots.txt aux erreurs du serveur, tout cela est compilé et affiché par Screaming Frog.
  • URL – Si vos URL contiennent des underscores, des majuscules, des doublons, etc.
  • Title des pages – Tout ce que vous devez savoir sur les balises title de vos pages
  • Meta Description – Si vos pages n’ont pas de méta descriptions, dupliquez les meta descs, la longueur de vos meta descriptions, etc.
  • Images – texte alt manquant, taille de l’image, etc.
  • URL canoniques
  • Et beaucoup d’autres facettes qui sont importantes pour vos efforts de référencement.

Vérification du sitemap XML

Les sitemaps XML sont particulièrement utiles car ils listent les pages les plus importantes de votre site, ce qui permet au moteur de recherche de les parcourir toutes et de mieux comprendre la structure de votre site. Les webmasters utilisent le Sitemap XML pour mettre en évidence les pages de leurs sites qui sont disponibles pour l’exploration. Ce fichier XML liste les URLs ainsi que des méta-données supplémentaires sur chacun de ces liens.

Un guide d’audit SEO approprié devrait toujours inclure la vérification du Sitemap parce que cela garantira que l’expérience de l’utilisateur atterrira toujours sur une note positive. Pour vous assurer que le moteur de recherche trouve votre sitemap XML, vous devez l’ajouter à votre compte Google Search Console. Cliquez sur la section : Sitemaps et voyez si votre sitemap XML y est déjà listé. Sinon, ajoutez-le immédiatement sur votre console.

Localisation/langues

Google attache de l’importance à fournir des résultats utiles, pertinents et informatifs à ses utilisateurs, de sorte que la localisation est un facteur important pour les résultats qu’ils affichent.

L’extension du nom de domaine joue un rôle en indiquant dans quel marché/localisation de recherche spécifique votre site souhaite être classé. Quelques exemples d’extensionsseraient des sites Web se terminant par .be ou .fr etc. au lieu du .com plus neutre. Si votre site Web est example.fr, vous pouvez vous attendre à être classé pour Google.fr et vous aurez plus de mal à être classé pour les moteurs de recherche internationaux. Si vos exetensionssont neutres (.com,.org ou.net), Google déterminera le pays où vous pouvez être affiché en fonction du contenu que vous publiez sur votre site, du serveur et de l’emplacement de vos liens entrants.

Si vous avez déjà un pays cible en tête mais que vous avez un TLD (Top-level domain) neutre comme.com, vous pouvez le définir manuellement dans Google Search Console. Voici comment :

Allez dans l’ancienne version de Google Search Console → Cliquez sur Search Traffic → Puis cliquez sur International Targeting → Définissez manuellement votre pays cible.

Notez que si vous avez un ccTLD (Country Code Top Level Domain), vous ne pourrez pas définir votre pays cible et cette option n’est disponible que pour les sites qui ont un TLD neutre.

ciblage-pays-google

Audit de données structurées

Nous savons tous que Google améliore constamment ses algorithmes pour mieux comprendre le contenu, la sémantique et le but des sites Web. C’est là que les données structurées brillent puisqu’elles indiquent ou marquent des entités spécifiques dans vos pages pour aider Google et les autres moteurs de recherche à mieux les comprendre.

Le format le plus courant des données structurées utilisées par les webmasters du monde entier provient de schema.org. Après avoir indiqué les entités nécessaires dans vos données structurées, vous pouvez utiliser l’outil de test de données structurées de Google pour vérifier si vos données structurées contiennent des erreurs.

Après avoir appliqué vos données structurées, vous pouvez utiliser Screaming Frog pour parcourir votre site Web et vérifier s’il y a des erreurs dans l’application ou vous pouvez vérifier quelles pages ne contiennent pas de données structurées existantes.

Après avoir trouvé les erreurs, appliquez les correctifs nécessaires.

Vérification interne des liens

Les liens internes sont l’un des ingrédients les plus importants du référencement. L’audit interne des liens met l’accent sur l’expérience de l’utilisateur en tant que son objectif principal puisque les connexions entre les pages peuvent causer l’échec de la performance de votre site. Comme votre site Web est une interconnexion de pages, vous devez déterminer le contenu le plus précieux que vous voulez que l’utilisateur visite. C’est pourquoi les liens vers ces types de pages sont l’une des tactiques d’optimisation les plus importantes que vous puissiez faire.

Les liens internes peuvent faire la différence entre les prospects que vous pouvez encourager à convertir en clients. L’audit interne des liens devrait vous aider à déterminer quelles URL sont pertinentes pour votre site. Vérifiez en vous assurant que vous créez un lien vers la bonne version de la page, dont la plupart sont au format HTTP/HTTPS. Lien sur les URLs absolues et n’oubliez pas de faire un lien vers les versions canoniques des pages.

Vérifier les liens Follow/Nofollow

Les liens Dofollow et nofollow font l’objet de débats dans l’industrie du référencement depuis longtemps déjà. Il ya ceux qui disent qu’il est préjudiciable aux efforts de référencement et un autre côté qui fait la promotion de son importance pour les moteurs de recherche. Nous sommes du côté de ces derniers.

Un lien nofollow ressemblera à ceci :

<a href= »http://www.example.com/ » rel= »nofollow »>Texte d’ancre</a>

Ceci indiquera aux moteurs de recherche d’éviter ce lien spécifique. Les attributs trouvés ci-dessus aident à définir la relation qu’une page ou un contenu a avec le lien avec lequel il est balisé. Les liens nofollow sont surtout utilisés dans les blogs ou les commentaires de forum parce que les spammeurs sont considérés comme impuissants. Ceci a été créé pour s’assurer que l’insertion de liens n’est pas abusée par ceux qui achètent des liens ou les vendent pour leur profit. En tant que webmaster, c’est votre travail de vérifier vos pages pour ces liens. Inspectez le code et voyez si les liens sont balisés avec son attribut follow ou nofollow correspondant.

Rechercher des pages orphelines

Les pages orphelines sont un gros problème. Ce sont des pages qui n’ont pas de liens internes vers eux. Puisque les robots explorent les sites Web par le biais de liens, les pages orphelines ne seraient probablement pas trouvées.

Pour vérifier les pages orphelines, vous pouvez utiliser SEMRush Audit. Ceci devrait apparaître dans le rapport des problèmes de l’audit du site mais vous n’aurez accès à ce rapport que si votre compte SEMRush est connecté à votre compte Google Analytics.

Si des pages orphelines sont trouvées dans votre site Web, vous devriez vérifier si ces pages ont de l’importance. Dans l’affirmative, l’étape suivante devrait consister à augmenter les liens internes. Si ce n’est pas le cas, une redirection ou la suppression de la page devrait suffire.

Audit SSL

La sécurité des utilisateurs est l’une des priorités de Google. En 2014, le HTTPS a été annoncé comme facteur de classement par Google

Secure Sockets Layer ou plus connu sous le nom de SSL, certifie que le navigateur de l’utilisateur se connecte à un serveur web est crypté et privé. Obtenir un certificat SSL est facile. Vous pouvez l’acheter en ligne, l’activer, puis l’installer.

Si vous possédez déjà un SSL, assurez-vous d’en vérifier fréquemment l’état. Vous pouvez utiliser des vérificateurs SSL en ligne.

Test et amélioration de la vitesse du site

La vitesse du site est un facteur de classement important. Non seulement la lenteur du site affecte le classement, mais elle affecte aussi l’expérience de l’utilisateur, ce qui est un autre facteur de classement.

Il y a beaucoup d’outils d’analyse de la vitesse du site en ligne. Google Page Speed Insights est un excellent outil gratuit pour analyser votre site Web. Notez que les scores de vitesse des pages Web sont différents pour le mobile et le bureau.

Même si votre site Web se charge rapidement pour les utilisateurs de bureau, ce n’est peut-être pas le même cas pour les utilisateurs mobiles. Les améliorations pour l’un ou l’autre sont également différentes. Assurez-vous que votre site Web est optimisé pour les deux.

Configuration et erreurs AMP

AMP est un moyen simple et efficace de rendre votre site web optimisé pour mobile. La création de pages AMP est aussi simple que l’installation du plugin AMP Project si vous utilisez un site WordPress. Il crée automatiquement des versions AMP des pages sélectionnées.

Si votre site Web contient des pages AMP, la search console vous fournira un rapport sur les pages AMP qui ont été parcourues sur votre site Web.

Pour vérifier manuellement l’aspect de vos pages dans la version AMP, ajoutez simplement /amp à la fin de n’importe quelle URL que vous avez. Vous pouvez le faire même si vous utilisez un ordinateur de bureau.

L’information recueillie au cours du processus de vérification permet à notre équipe de faire des recommandations précises et efficaces pour votre site Web et votre situation particulière.

Pourquoi il est important de vérifier votre site Web sur une base régulière ?

Votre site Web est le point central de votre marque en ligne. Il est donc important d’effectuer des contrôles réguliers pour s’assurer que tout est en ordre. Il est également important de noter que votre site Web est un bien numérique vivant, il n’est généralement pas stagnant pendant de longues périodes de temps.

Au cours d’une année donnée, du contenu est ajouté et/ou supprimé de votre site. C’est la raison pour laquelle des audits simplifiés devraient avoir lieu ponctuellement. Nous recommandons que les sites Web soient vérifiés au moins une fois par an. Cela permet à vos équipes de résoudre les problèmes critiques au fur et à mesure qu’ils surviennent.

Il est aussi important de prêter attention à l’activité de référencement de vos concurrents, de garder un œil sur les meilleures pratiques les plus récentes des moteurs de recherche, et de maintenir les meilleures pratiques locales de référencement si votre entreprise dépend de clients visitant une adresse physique. Tous ces éléments sont des éléments d’une stratégie de référencement réussie et devraient être le corollaire de votre audit et de votre maintenance SEO continue.