Introduction
L’objectif est d’optimiser la vitesse du site sur les ordinateurs et les mobiles afin d’augmenter le nombre de lead pour la téléprospection*.
En effet, si une page met plus de 3 secondes à s’afficher, c’est 57% des visiteurs qui abandonneront le site dont 80% qui ne reviendront jamais. On risque de passer à côté de potentiel clients à cause de la lenteur du site.
Pour réaliser ce travail d’optimisation, j’ai commencé par un audit du site actuel :
historique, technologie, performances, etc. Les contraintes organisationnelles et techniques ont été nombreuses. Néanmoins, j’ai pu proposer plusieurs hypothèses de travail.
1. Qu’est-ce qu’un site de prospection et pourquoi l’optimiser ?
La prospection regroupe l’ensemble des actions qui visent à identifier et contacter de nouveaux clients potentiels nommés prospects et à chercher à les transformer en clients réels (prospection-vente). Un site web peut servir de support à la prospection.
Afin d’attirer des prospects sur le site, il faut que les internautes soient informés de l’existence du site et que celui-ci soit facile à trouver. Quand l’internaute est sur le site, il faut réussir à le convertir en prospect grâce à un site simple et agréable à utiliser ; interviennent les notions d’UX* et d’UI*.
a. L’algorithme de référencement naturel de Google
Pour que les internautes soient informés de l’existence du site et qu’il soit facile à trouver, celui-ci doit être référencé. Le référencement actuel dépend principalement du moteur de recherche Google. Il existe également d’autres moteurs de recherche comme Bing, Yahoo! et Qwant. Chaque moteur de recherche à son propre algorithme* pour référencer les sites web.
Google utilise un algorithme* complexe et privé composé lui-même de plusieurs algorithmes*. Le but de cet algorithme* est de donner l’information la plus qualitative possible par rapport à la recherche de l’internaute.
Cet algorithme* utilise 5 principaux facteurs :
L’analyse des termes de recherche.
De nombreux modèles linguistiques (l’interpréteur des erreurs d’orthographe, le traitement automatique du langage naturel, le système de gestion des synonymes, etc.) permettent de comprendre les termes de la requête émise par l’internaute. L’algorithme* identifie également la catégorie de la requête pour proposer des informations cohérentes. Par exemple, pour une recherche « L’entreprise avis », l’algorithme* va identifier deux choses : l’entreprise : « L’entreprise » et l’information demandée plus précisément : « Avis ». De plus, si une recherche inclue des mots-clés tendances comme le dernier « score de l’OM », les résultats privilégiés seront les scores de l’OM les plus récents ; c’est l’algorithme* de détection d’actualité.
La recherche de correspondances
Les algorithmes* de Google recherchent dans l’index* les pages les plus pertinentes par rapport à la recherche. Ils analysent l’occurrence d’apparition des motsclés dans les pages et leurs positions (titre, sous-titres, corps du texte). Les algorithmes* recherchent également à l’intérieur des pages sélectionnées si celles-ci incluent d’autres contenus pertinents comme des photos, des vidéos, des PDF, etc. De plus, les pages rédigées dans la même langue que la recherche sont priorisées dans les résultats.
Le classement des pages selon leur utilité
Pour une recherche, il peut exister des milliers de page web pertinentes.
L’algorithme* de Google utilise des centaines de facteurs comme l’actualisation du contenu, le nombre d’occurrences des termes de la recherche, l’ergonomie de la page, etc. Un de ces facteurs se nomme « le degré de fiabilité et d’autorité » d’une page. Celuici recherche les sites avec le plus grand nombre d’internautes et recevant le plus de liens d’autres sites sur le sujet. Cet algorithme* est celui qui évolue le plus vite afin de garantir les meilleurs résultats.
L’affichage des meilleurs résultats
Cet algorithme* étudie différents facteurs indiquant si les internautes bénéficient d’une présentation satisfaisante du résultat sur la page. Parmi ces facteurs existe la compatibilité de la page avec tous les navigateurs web*, l’adaptation du site avec différents types et tailles d’appareils, le temps de chargement des pages, surtout pour les internautes avec une connexion internet lente, etc. Google propose aux propriétaires des sites web des outils et des conseils détaillés afin de les aider. PageSpeed Insights* et Google Analytics* sont les outils que nous utiliserons par la suite.
La prise en compte du contexte
La situation géographique, l’historique des recherches, les centres d’intérêts sont une partie des facteurs pris en compte pour comprendre le contexte de la recherche de l’internaute. Par exemple, si un internaute recherche « Manchester » et qu’auparavant il avait recherché « Barcelone contre Manchester », le moteur de recherche comprend qu’il doit afficher des informations sur le club de football de Manchester en priorité et non sur la ville de Manchester.
L’ensemble de ces facteurs permet à Google d’être le premier moteur de recherche au monde avec plus de 90% de parts de marché. Google sera notre moteur de recherche de référence pour la suite de ce mémoire.
Dans le cadre de ma problématique, j’ai travaillé sur l’augmentation de la visibilité du site par ses performances. Celles-ci sont mesurées par le PageSpeed Insights*.
b. PageSpeed Insights : Connaître ses performances
PageSpeed Insights* est un outil proposé par Google pour aider les webmasters à optimiser leur site web. Celui-ci mesure la performance d’une page sur les ordinateurs et sur les mobiles et propose des améliorations aux propriétaires des sites.
L’outil offre deux types d’informations : des données de laboratoire* et des données de champ*. Les données de laboratoire* sont obtenues avec un ensemble d’appareils et de paramètres réseaux prédéfinis. Les données de champ* sont récoltées sur des chargements de vraies pages par des utilisateurs réels durant les 30 derniers jours. L’ensemble offre des données complètes.
Le rapport de PSI* (PageSpeed Insights) se compose de 6 sections : Score de vitesse, données de champ*, données de laboratoire*, opportunités, diagnostic et audits réussis.
Le score de vitesse est calculé sur les données de laboratoire*.
Les données de champ* indiquent le FCP* (First Contentful Paint) et le FID*
(First Input Delay) à l’aide de vraies expériences utilisateurs du navigateur* chrome durant les 30 derniers jours.
Les données de laboratoires* proviennent de l’analyse de l’API de Lighthouse*. Lighthouse* est un outil open source automatisé pour améliorer la qualité des pages web. Celui-ci a été intégré à PSI* en novembre 2018 par Google pour une plus grande lisibilité des recommandations. Il réunit six types de données : First Contentful Paint, First Meaningful Paint*, Speed Index*, First CPU Idle*, Time To Interactive* et Estimated Input Latency*. Chaque type de données à son propre score sur 100 : de 0 à 49, c’est lent, de 50 à 89, c’est moyen et de 90 à 100, c’est rapide.
Les opportunités contiennent des recommandations pour améliorer les performances. Chacune indique une estimation du gain de temps possible. Le diagnostic propose des conseils de bonnes pratiques de développement qui pourraient être mises en place. Les audits réussis présentent les points de performance déjà validés par la page et qui ne demande pas d’action supplémentaire.
Le score du PSI* n’étant pas le seul influenceur du classement des résultats dans Google pour donner suite à une recherche, il n’y a pas de relation unique entre le score du site et le classement dans les résultats.
c. Naviguer sur le site
La première impression est très importante, y compris sur le web. L’utilisateur n’a besoin que de 50 millisecondes pour se faire une première impression. Pour faire une bonne impression, deux éléments sont importants : la pertinence du contenu offert par le site par rapport à la recherche de l’utilisateur et l’accessibilité technique du site. En effet, si l’affichage du site dure plus de 3 secondes, 57% des utilisateurs partiront et 80% de ces personnes ne reviendrons jamais sur le site.
On calcul ceci avec le taux de rebond*, c’est-à-dire le pourcentage de visiteurs qui accèdent à une page puis la quittent sans cliquer nulle part ou accéder à une autre page. Pour avoir un taux de rebond* faible, il faut que le site soit rapide et pertinent.
Le score du PSI* est surtout un indicateur de performance de rapidité grandement apprécié par Google. De ce fait, les efforts doivent se concentrer sur la diminution de la vitesse de chargement de la page. Deux points sont importants pour cela : le First Contentful Paint (FCP*) et le First Input Delay (FID*).
Le FCP* est l’indicateur de mesure de temps entre le moment où la navigation commence et le temps où le premier contenu s’affiche à l’écran. Pour obtenir un bon score, il faut que le FCP* s’affiche dans la première seconde de chargement de la page.
Le FID* est l’indicateur de mesure du temps entre la première interaction entre l’utilisateur et la réponse du navigateur*.
Améliorer le FCP* et le FID* permet au site d’être mieux référencé et trouvé par les utilisateurs sur le moteur de recherche Google.
d. Convertir les utilisateurs en prospects
Une fois le site correctement référencé et pertinent pour l’utilisateur et sa recherche, il est nécessaire de convertir les utilisateurs en prospects. Pour cela, il faut que le site soit accessible techniquement et fonctionnellement afin de permettre la meilleure expérience utilisateur. Dans un contexte digital, l’expérience utilisateur (UX*) recouvre la façon dont un site web ou une application est perçue par ses utilisateurs en fonctions de ses qualités ergonomiques, de navigation et de contenu. En effet, plus l’utilisateur a une bonne expérience du site web, plus il suivra le parcours utilisateur conçu par le service marketing. Le but de ce parcours est de convertir l’utilisateur en prospect.
Par exemple dans le cadre du site web de L’entreprise, les utilisateurs sont convertis en prospects quand ils effectuent une demande de devis via un des nombreux formulaires sur le site.
Une session* est la période pendant laquelle un utilisateur est actif sur son site Web, ses applications, etc. Toutes les données d’utilisation (visionnage de l’écran, événements, e-commerce, etc.) sont associées à l’identifiant d’une session*.
Pour mesurer ces performances, on peut utiliser trois indicateurs :
- Le nombre de page vues par session* : C’est le nombre moyen de pages vues au cours d’une session*. Les visites répétées d’un internaute sur une même page sont prises en compte.
- Le taux de rebond* : Pourcentage de sessions* avec consultation d’une seule page du site au cours desquelles aucune interaction n’a été enregistrée. Une session* avec rebond dure 0 seconde.
- Durée moyenne des sessions* : Il s’agit de la durée moyenne d’une session*.
Ces données sont obtenues via la console de Google Analytics* et évoluent dans le temps.
Google Analytics* est l’outil statistique de Google qui permet à chaque propriétaire de site web de pouvoir analyser son audience et de suivre les statistiques de l’activité de son site. Toutes les données sont anonymisées. Ce logiciel accessible uniquement par le Web et gratuit est utilisé par plus de 85% du marché mondial.
Ses principales fonctionnalités sont :
- La mesure du nombre de visites et de visiteurs uniques
- La mesure du comportement des visiteurs sur le site : contenu consulté, temps passé, chemin emprunté, taux de rebond*, etc.
- L’identification des principales sources de trafic : publicité, référencement naturel, référencement payant, réseaux sociaux, etc.
- Le profilage des visiteurs : origine géographique, appareil utilisé, navigateur* utilisé, etc.
- Le suivi des objectifs : achats en ligne, demande de devis et d’information, inscription à une newsletter, etc.
Toutes ces données peuvent être manipulées et extraites sous différentes formes : fichiers, tableaux de bord, rapports, etc. Ces données peuvent ensuite être utilisées pour améliorer l’efficacité du site web.