Aspect technique de l’audit de site internet

Dans cette partie de l’audit de site internet , nous allons nous intéresser à tout ce qui peut handicaper votre site pour le référencement du point de vue technique. De l’hébergement, aux vitesses de chargement des pages en passant par l’analyse de la structure même de votre site (niveau de profondeur des pages) se sont de nombreux facteurs qui peuvent être très pénalisants pour votre référencement si ils ne sont pas bien configurés.

audit technique site internet reims

Les points vérifiés durant l’audit technique

Hébergement, nom de domaine et localisation IP

  • L’hébergement, c’est le point de départ , et on va s’assurer que le site bénéficie d’un hébergeur de qualité, qui tient la route, qui n’est pas en panne régulièrement. Donc s’assurer que le site est correctement hébergé (éviter en somme d’hébergé son site d’entreprise sur une plateforme gratuite, avec laquelle vous serez vite limitée) et opter pour un hébergeur professionnel.
  • Sur le nom de domaine on va contrôler son ancienneté (un nom de domaine ancien est mieux connu des moteurs) , si il  n’a pas été suroptimisé, du style « trouver-meilleur-champagne-ville-de-reims.com » ou à l’inverse il n’est pas représentatif de votre société.
  • Pour la localisation IP on va regarder ou se trouve le serveur qui héberge votre site internet. Pourquoi?  Simplement pour s’assurer que votre site est hébergé dans le même pays que vos clients. Et même si ce n’est pas une obligation absolue, ça facilite quand même  les choses

Redirection www et sans www

Ici nous abordons la notion de contenu duplique (duplicat content), qui consiste globalement à ne présenter à Google qu’une version de ses pages (nous en reparlerons plus précisément lorsque nous aborderons l’audit de contenu). Pour ce qui est de votre site , celui être accessible soit avec le www, soit sans, mais pas les 2. Cela sera aussi valable si votre site  utilise https.En outre la version http devra rediriger vers https.

Présence du fichier Robots.txt

Placé à la racine de votre site internet, il permet d’interdire le crawl du site, de certains répertoires, ou de pages aux robots dont ceux des moteurs de recherches. Mal configuré il empêchera votre site d’être visité par googlebot, un des robots de crawl de Google, ce qui bien entendu nuira à votre référencement.

fichier robots.txt

La balise méta robot noindex

Après avoir vérifié qu »il n »y avait pas de problèmes de crawlabilité avec le fichier robots.txt du site client, nous assurerons que de malencontreuses balise meta robots « noindex » ne trainent pas dans le code HTML de vos pages, qui aurait pour conséquences de bloquer l’indexation de vos pages

Le Sitemap.xml

Avoir ce type de fichier sur votre site est une bonne chose pour faciliter le crawl sur votre site. Le sitemap.xml reprend les urls de votre site et se met à jour automatiquement, indiquant aux moteurs comme Bing et Google que de nouvelles pages sont apparues. Pour que tout cela fonctionne il faudra leur avoir fourni l’URL de votre sitemap par le biais de la Search Console pour Google et le Webmaster Tool pour Bing

La balise <link rel=canonical>

La gain apporté par cette balise, n’est pas négligeable . Elle sert uniquement à lutter encore une fois contre le contenu dupliqué.  Mais attention mal implémentée dans le code au mieux elle ne servira à rien , au pire elle pourra perturber votre référencement

Statuts des codes HTTP de vos pages

Là il s’agit de connaitre le code que renvoi votre serveur, lorsqu’un internaute exécute une requête pour accéder à une page. (lorsqu’il clique sur un lien pour accéder à votre page). Le plus connu, étant sans aucun doute le code 404, signifiant que le document n »a pas été trouvé. (404 Page not founded)

erreur 404

Ils en existent beaucoup mais en SEO seulement certains vont nous intéresser et l’analyse des codes d’état renvoyés fera remonter des problèmes de crawl.

Codes de statuts HTTP:

  • 200 : Tout est ok et la page s’affiche 🙂
  • 301 : La page est redirigée de façon permanente 🙂
  • 302 : Pas OK la page est redirigée de manière temporaire
  • 404 : La encore c’est pas bon, le document n’est pas trouvé
  • 410 : La page n’est plus dispo, et ceci définitivement
  • 500 : Erreur interne serveur, impossibilité de traiter la requête
  • 503 : Service indisponible, pouvant être causé par une opération de maintenance

Poids et types de fichiers

Mettra en évidence les types de fichiers accessibles sur le serveur, ainsi que le poids des différents documents.

Niveau de profondeur

A combien de clics depuis la home, vos pages se situent elles? Le niveau de profondeur permettra de voir rapidement si votre architecture de site est bien conçue , et que vos pages se trouvent à un maximum de 3 clics.

Les URL

En effectuant un crawl de votre site, avec un logiciel type Xenu, nous récupérons toutes les URL de votre site, et pouvons ainsi voir si la structure des URL est cohérente et logique, si les URL sont bien optimisées, et si on ne récupère pas des ID de session dans les URL, ce qui ne serait vraiment pas top pour votre SEO.

Vitesse du site et optimisation mobile

vitesse et performance site web

Et oui Google comme les internautes aiment les sites qui s’affichent vite, et ceci sur tous les supports. Les ressources chargées sont elles optimisées? Les images ne sont elles pas trop lourdes? Autant de questions que les tests de rapidité sur votre site mettront en lumière.

Lors de l’audit de votre site, il est préférable que nous ayons une copie du fichier .Htaccess qui se situe à la racine de votre site.

Comments are closed.