PASSER AU HTTPS
Le https (Hyper Text Transfer Protocol Secure), ou protocole de transfert hypertexte sécurisé, est une variante sécurisée du protocole http. L’ajout d’une couche de sécurité (via un certificat SSL ou Secure Sockets Layer) permet de crypter les données échangées entre un internaute et le site web visité.
Cela permet également de vérifier l’identité de l’éditeur du site web et de l’organisme de certification.
Le HTTPS affecte les classements dans les moteurs de recherche et s’avère un bon point pour se positionner dans les premières pages de Google.
HÉBERGEMENT ET PERFORMANCE DU SERVEUR
Le .htacces, le Vhost, la compression, personnaliser le cache avec les entêtes d’expiration, le last-modified et le code 304, désactiver le Etag, augmenter la mémoire de PHP, installer et configurer Memcached, le TTFB (Time To First Byte), etc. Ces éléments techniques du serveur doivent être optimisés afin d’apporter un maximum de performance à votre site.
Pour les non-experts, ce langage est incompréhensible… Pas de panique, des professionnels du digital sont là pour vous guider et apporter des solutions rapides pour améliorer votre serveur. N’hésitez pas à nous contacter pour en savoir plus.
RICH SNIPPETS
Les extrait enrichis, ou Rich Snippets, permettent d’étoffer les résultats qui s’affichent lorsqu’un internaute effectue une recherche sur le moteur de recherche Google. En pratique, il s’agit de balises sémantiques implémentées dans le code HTML d’une page web.
Les Rich Snippets fournissent des informations supplémentaires aux moteurs de recherche, qui les intègrent ensuite à ses résultats. Ces données structurées permettent d’améliorer l’expérience utilisateur en lui fournissant des informations pertinentes sur sa recherche. Elles permettent également d’améliorer la visibilité des pages d’une entreprise.
A noter : les domaines d’utilisation des Rich Snippets sont limités aux avis, recette de cuisine, entreprises, musique, évènements, applications, produits de consommation et personnes.
ERREURS 404 et 500
Une erreur 404, ou page introuvable, est un code d'erreur renvoyée par les serveurs web hébergeant un site aux navigateurs ou aux moteurs de recherche qui tentent d'accéder au contenu d’une page qui n'existe plus. Si vous avez quelques pages d’erreurs sur votre site, elles ne devraient pas trop impacter votre référencement naturel.
En revanche, les erreurs 404 sont pénalisantes s’il s’agit d’une page importante pour votre site comme la page d’accueil par exemple. Elles vous pénalisent également si elles sont très nombreuses et/ou qu’elles proviennent d’un backlink venant d’un site faisant autorité dans votre domaine d’activité. Ainsi, il est fortement conseillé de détecter et de corriger ces erreurs. Pour cela, vous pouvez utiliser un crawler qui vous donnera des informations utiles sur votre site ou nous contacter directement.
Les erreurs 500 sont généralement des erreurs serveur. Ces dernières vous pénalisent car le crawl des moteurs de recherche (et notamment celui de Google) ne sera pas optimal. En pratique, dès que le GoogleBot reçoit des erreurs serveur (erreurs 500), il baisse la vitesse de crawl, afin de ne pas le surcharger. Il suffit d’environ 1% de pages répondant en erreur 500 pour voir votre crawl quasiment réduit à 0…
Nos experts SEO vous aident à détecter ces problèmes et à les régler afin de faciliter la tâche au robot Google.
L’INDEXATION
L’indexation et le SEO sont liés. Pour rappel, l’indexation est le processus par lequel le GoogleBot (le robot de Google) va accéder à vos pages web, les lire, puis les indexer dans les serveurs dédiés. Si vos pages sont correctement construites et qu’elles respectent les critères des moteurs de recherche (balises Hn, fichier Robots.txt, sitemap, maillage interne, langage de programmation…), l’indexation sera facilitée.
SITEMAP.XML
Le terme « sitemap » correspond à la traduction littérale « plan du site » qui est un fichier au format XML. Sa fonction ? Lister les différentes URL d’un même site, chacune d’elles étant associée à un certain nombre de métadonnées (date de création ou MAJ, fréquence de modification du contenu ou encore l’importance relative de l’URL par rapport aux autres URL du site).
Il ne faut pas oublier que l’objectif principal d’un sitemap est de faciliter l’indexation de l’ensemble des pages d’un site web. Gare aux erreurs qui pourraient bloquer ou ralentir l’indexation de votre site, lors de la génération d’un sitemap SEO !
Optez pour la qualité de votre sitemap en faisant appel à nos experts SEO !
ROBOTS.TXT
Le robot.txt est un fichier placé à la racine de votre site web et est l’un des premiers fichiers analysés par les spiders (robots). Celui-ci va fournir des instructions à suivre, aux robots d'exploration, lorsqu'ils vont se diriger sur vos pages. Le robot.txt va ainsi assurer que tous les domaines pertinents peuvent être explorés par le Googlebot, selon les informations qu’ils sont autorisés à analyser.
Pour créer votre fichier robots.txt, vous devez pouvoir accéder à la racine de votre domaine.
Nos experts SEO vous accompagnent dans l’optimisation technique de votre site pour vous offrir les meilleures performances !
OPTIMISATION DU CRAWL
Le crawl est une action réalisée par les robots des moteurs de recherche qui explorent et parcourent toutes les pages d’un site. Ils récupèrent le code HTML et l’envoient au moteur de recherche dans le but de les indexer. Les robots suivent alors les liens dans votre page pour en découvrir d’autres.
Pour un site web, le crawl est indispensable pour l'indexation des contenus, il permet ainsi d’être positionné dans les SERPs, sur une requête donnée. Une part non négligeable de l'optimisation du crawl consiste à gérer le « duplicate content », au sein d'un domaine ou en externe, sans oublier d'optimiser l'allocation du budget de crawl par Google.
Nos experts optimisent le SEO technique de votre site mais aussi vos dépenses en baissant votre budget de crawl ! N’attendez plus pour contacter notre équipe.
PROFONDEUR DES PAGES
Quand on évoque le terme « profondeur des pages », on se réfère au nombre de clics qu’un internaute doit réaliser depuis la page d’accueil pour arriver à une page spécifique. Dans la normalité, la page d’accueil est toujours considérée comme la profondeur numéro 1. En suivant le fil d’Ariane établi par un site, vous allez migrer vers la profondeur numéro 2, 3, 4… au fil de vos clics.
Rien n’empêche que votre site ait un long fil d’Ariane, mais il faut savoir qu’au-delà de la profondeur numéro 3, les Googlebot auront du mal à y accéder. De plus, les robots de Google ne porteront pas la même importance à une page profondeur 2 qu’à une page profondeur 3 ou 4. Ainsi, si votre site est composé de pages trop profondes, il serait temps d’y remédier au plus vite, sans omettre de soigner vos URLs et de renforcer votre maillage interne.
Nos experts SEO vous accompagnent dans la restructuration technique afin que votre site web demeure optimale et génère les meilleures performances.
URL CANONICAL
Link rel="canonical" est une balise HTML qui a pour objectif de simplifier la gestion des contenus dupliqués. Elle permet ainsi d'indiquer aux moteurs de recherches où se trouve le contenu original en cas de duplication. La balise peut pointer vers une page du site ou une page externe.
Nos experts vous conseillent l’utilisation de cette balise afin d'optimiser le travail d'indexation des moteurs, de favoriser le référencement de la page originale et de limiter les risques éventuels de pénalisation liés à un contenu dupliqué.
N’attendez plus et faites appel à notre équipe SEO pour une optimisation technique optimale et performance de votre site !