La désindexation en e-reputation, est-elle réellement efficace ?

Mis en ligne par Vincent, le 28 septembre 2017

La visibilité de tous les sites Internet et leur place dans le classement des moteurs de recherche dépendent en grande partie d’un excellent travail de référencement SEO. Le recours à un contenu de qualité et des informations uniques permettent également à ces derniers d’avoir une bonne place sur Internet. Cependant, certaines données SEO inutiles ou à supprimer peuvent avoir été cataloguées dans ces sites. Pour les enlever, il faut recourir à la désindexation.

La désindexation, kesako ?

Tous les moteurs de recherche sur Internet recourent à divers logiciels pour indexer le contenu des sites et pour assurer leur visibilité. Toute information mise sur ces derniers est donc automatiquement catégorisée et participe à la classification du site. Cependant, certaines données indexées peuvent se révéler inutiles et doivent donc être éliminées. C’est donc une méthode permettant de supprimer l’indexation réalisée par les moteurs de recherche.

Pourquoi a-t-on besoin de la désindexation ?

Pour assurer une bonne place à un site Internet et pour vérifier son contenu, les moteurs de recherche utilisent des logiciels appelés « robots ». Ces derniers se promènent dans le site et indexent toutes les informations qu’ils rencontrent. Si ce dernier ne dispose pas de mesure appropriée, les « robots » référencent toutes les données qu’ils trouvent, y compris celles qui sont sensibles ou qui ne devraient pas être indexées. Cette pratique laisse des directives sur le site permettant aux « robots » de trier les informations à publier ou pas.

Pourquoi faut-il désindexer ?

La désindexation n’est pas une action à entreprendre à la légère. Elle peut être réalisée soit pour des raisons pratiques soit pour des raisons stratégiques. Cette méthode est le plus souvent employée lors de la création d’un nouveau site. Lorsque ce dernier est encore en phase d’essai, il est important de rendre son contenu non-indexable afin qu’il n’apparaisse pas sur les moteurs de recherche avant son lancement officiel.

Cette méthode permet également de conserver à l’abri les informations confidentielles. Grâce à elle, les sites peuvent proposer un contenu de qualité, respectueux des attentes des moteurs de recherche et ne proposant pas de contenus dupliqués.

Les risques …

Si la désindexation permet d’assurer un meilleur référencement SEO aux sites Internet, elle doit être réalisée avec précaution. Lorsque le contenu à indexer d’une ou plusieurs pages d’un site est limité, cela entraîne une perte de trafic.

Une non-indexation massive de données peut aussi pousser les moteurs de recherche à donner une mauvaise place à un site, ce qui peut détruire son référencement SEO et engendrer des sanctions.

Quand faut-il désindexer ?

Étant donné que la non-indexation des informations n’est pas une opération anodine, il faut savoir sélectionner les données qu’il faut désindexer. Pour disposer de pages de qualités sans pour autant léser le contenu d’un site, il est nécessaire d’empêcher l’indexation des pages obsolètes, peu intéressantes ou non pertinentes, des PDF proposant les mêmes informations que la page HTML et des contenus dupliqués.

Désindexer des informations confidentielles et des données relatives à la pré-production du site doit également être réalisée pour éviter que les internautes et les sites concurrents découvrent les activités spécifiques d’un site avant son lancement officiel.

Les différentes méthodes sur Internet

Comment désindexer un contenu ?

Sur Internet, et particulièrement dans le référencement SEO, on se concentre sur la catégorisation et la mise en ligne d’un grand nombre d’informations. Cependant, le recours à la désindexation de contenu peut s’avérer nécessaire lorsque les données présentes sur le site sont obsolètes, inutiles ou lors de la refonte de la page. Cette action permet également d’améliorer la qualité de la page et son trafic sur les moteurs de recherche.

Pour désindexer les informations sur Internet, il faut repérer les pages les plus inutiles, les liens à rediriger ou à transformer ou encore les URL proposant des informations sur PDF. Une fois ces données réunies, le webmaster peut empêcher l’indexation des éléments qui sont considérés comme inutiles.

Comment désindexer une page sur Google ?

Il existe 2 méthodes pour désindexer efficacement une page dans Google.

La première est l’utilisation du fichier robots.txt et la seconde est le recours à la balise « Noindex ».

Le fichier robots.txt

Utilisé le plus souvent par les webmasters, le fichier robots.txt est l’un des meilleurs moyens pour désindexer du contenu. Il permet d’indiquer aux « robots » des moteurs de recherche quelles sont les pages et les informations à indexer ou non sur un site tout en assurant à ce dernier un meilleur référencement SEO.

Qu’est-ce que la directive « Disallow » ?

Les « robots » utilisés par les moteurs de recherche parcourent tous les sites pour catégoriser et indexer leur contenu. Pour les empêcher de mettre en ligne certaines informations jugées sensibles ou inutiles, il est possible de recourir à la directive « Disallaow ».

Cette dernière agit sur le « crawl » (analyse et indexation de toutes les données par les « robots ») des informations d’un site. Elle empêche certaines informations d’apparaître sur Internet, mais elle n’est pas très efficace comme méthode pour désindexer.

Qu’est-ce que la balise « Noindex » ?

La balise « Noindex » peut être utilisée en complément avec les fichiers robots.txt. Ces derniers et la directive « Disallow » empêchent les « robots » d’indexer une ou plusieurs pages données. La balise « Noindex » quant à elle permet de désactiver l’indexation des moteurs de recherches tout en permettant aux « robots » de suivre les URL sans les bloquer comme le font les fichiers robots.txt et la directive « Disallow ».

Comment désindexer des pages inutiles ou obsolètes ?

Pour améliorer le référencement SEO et la qualité d’un site, il faut penser à désindexer une page dans google obsolète ou inutile. Pour cela, il suffit d’insérer les codes HTTP 404 (NOT FOUND) et 410 (GONE) sur celles qui ne doivent plus apparaître sur les moteurs de recherche.

Pour mettre en ligne de nouvelles pages disposant d’informations plus contractuelles, la mise en place des codes de redirection 301 est nécessaire. Ces derniers permettent de renvoyer l’internaute sur la nouvelle page tout en conservant les liens avec l’ancienne.

Comment désindexer un site ?

L’indexation d’un site sur le moteur de recherche est une étape très importante. Toutefois, il arrive qu’il soit enregistré par erreur. Pour remédier à cela, il est possible de recourir aux fichiers robots.txt ou .htaccess. La desindexation robots.txt permet aux webmasters de contrôler les informations que les moteurs de recherches peuvent ou non faire sortir sur Internet.

Grâce à ces fichiers, les « robots » en charge de la collecte et de l’indexation des données ignoreront certains fichiers et se contenteront de suivre des liens ou de mettre des données en cache. Il existe également des types de fichier robots.txt qui peuvent empêcher les « robots » des moteurs de recherche d’indexer un site.

Les fichiers .htaccess quant à eux sont les contraires des robots.txt. Leur but est tout simplement d’empêcher le site de traiter avec les « robots », ce qui bloque son indexation.

Comment desindexer sous domaine ?

Les sous-domaines de Google sont utilisés à de nombreuses fins, notamment pour le test de nouveaux sites. Cependant, il arrive que les « robots » des moteurs de recherche les indexent par accident et les informations de pré-production du site sont dévoilées en avance. Il est donc important de recourir à quelques méthodes de désindexation pour éviter ce genre de désagrément. Pour cela, il faut recourir :

Aux fichiers robots.txt

Destinés aux « robots » des moteurs de recherche, ces fichiers disposent de commandes permettant de désindexer le sous-domaine ainsi qu’une ou plusieurs données qui y sont présentes. Il est obligatoire de créer ces fichiers et de les mettre dans le serveur, en racine du sous-domaine. Attention toutefois, ce type de fichier peut ne pas empêcher l’indexation de toutes les informations.

À Google Webmaster Tools

Grâce à l’outil Google Webmaster Tools, désindexer des informations est facilité et ne pose plus de problème. Il suffit de s’y connecter, de s’y identifier comme propriétaire du site et y procéder aux modifications voulues. Néanmoins, cette action ne s’applique que sur l’URL du sous-domaine.

Il est impossible de la réaliser sur une autre URL appartenant à la même personne. Pour pouvoir utiliser Google Webmaster Tools, il faudra donc créer un compte spécifique au sous-domaine puis installer le code Google associé dans la racine du sous-domaine. Une fois ces étapes terminées, il est possible au webmaster ou au propriétaire du site de désindexer toutes les informations qu’il souhaite.

Comment desindexer site WordPress

Le site WordPress permet à de nombreux internautes de partager leurs avis, leurs photos ou tout simplement de publier des informations sur le web. Cependant, la désindexation des informations sur Internet peut être nécessaire sur ce site. Pour cela, les utilisateurs peuvent utiliser :

Les fichiers robots.txt :

Employés très souvent dans le domaine de la désindexation, ces fichiers sont des commandes à installer dans le répertoire racine du site WordPress. Ils envoient des directives aux « robots » des moteurs de recherche qui les empêchent d’indexer certaines informations sélectionnées au préalable. Lors de l’utilisation des fichiers robots.txt, on retrouve la ligne « user-agent : * ». L’astérisque désigne les « robots » de tous les moteurs de recherche, mais il est possible de modifier les commandes pour cibler des sites particuliers.

Une fois le fichier terminé, il faut enregistrer les modifications et les sauvegarder sur le serveur du site afin que les commandes soient effectives.

Cependant, il faut savoir que désindexer un site WordPress avec des fichiers robots.txt présente quelques inconvénients. Ces derniers sont publics, aussi les visiteurs peuvent voir qu’il y a des pages qui leur sont cachées. Il arrive également que certains types de « robots » ignorent tout simplement ces fichiers.

Yoast SEO sur Google

L’utilisation de Yoast SEO est une méthode très simple pour empêcher les moteurs de recherche d’indexer certaines informations. Présent sur le site WordPress, le plugin « Yoast SEO » est à activer lors de l’installation du plugin WordPress. Une fois le logiciel en place, il faut sélectionner les articles ou les pages à cacher aux moteurs de recherche. Pour cela, il faut se rendre à la section méta « Yoast SEO » et cliquer sur le bouton « paramètres avancés ».

Cette opération permet d’insérer des balises pour les « robots » afin qu’ils n’indexent pas certaines pages. Pour cela, il faut cocher sur le bouton « noindex » près de l’option « Meta robots index » ensuite sur « nofollow » à côté de « robots Meta follow ».

Un mot de passe

Le site WordPress permet à ses utilisateurs de protéger leur page ou leur contenu avec un mot de passe. Cette méthode permet de fermer le contenu à toute personne ne disposant pas du code, y compris les « robots » des moteurs de recherche qui ne peuvent donc pas les indexer.

Comment désindexer un profil Facebook ?

Tous comme les sites, les profils sur les réseaux sociaux dont Facebook sont automatiquement indexés par les moteurs de recherche. Cette démarche peut affecter tant la vie privée que professionnelle d’une personne en permettant à tout le public d’avoir accès à des informations sensées rester personnelles. Pour éviter cela, désindexer son profil Facebook devient une nécessite. Pour réaliser cette action, il faut :

  • Désindexer le profil présent sur les moteurs de recherche

Pour empêcher un profil Facebook d’apparaître sur n’importe quel moteur de recherche, il suffit de se rendre sur l’onglet « paramètre » (le dessin d’engrenage sur la barre bleue du dessus) et de cliquer sur « Confidentialité ». Il ne reste plus qu’à décocher la case où il est indiqué « Souhaitez-vous que d’autres moteurs de recherche contiennent un lien vers votre journal ? » pour rendre le profil inaccessible. Pour avoir accès à ce dernier, il faudra passer par le site Facebook et rien d’autre. Cette action n’est effective qu’après plusieurs jours, aussi il faut la réaliser le plus vite possible.

  • Chiffrer son nom

Très répandu sur Facebook, le chiffrage de nom est une méthode qui empêche efficacement l’indexation d’un profil. Étant donné qu’une majorité des internautes utilisent les prénoms et les noms comme mots-clés sur les moteurs de recherche, il suffit de modifier ces derniers pour être invisible.

es méthodes les plus utilisées sont le transfert d’une partie du nom dans le prénom, l’ajout d’un caractère spécifique sur le prénom ou le nom, l’utilisation d’une partie du nom de famille ou l’ajout d’un terme fictif au nom. Le chiffrage de nom est une méthode très efficace, mais Facebook n’accorde qu’un nombre de modifications limité pour le nom d’utilisateur.

  • Renforcer le paramétrage de son profil Facebook

Par défaut, les profils sur Facebook sont assez peu sécurisés afin que les curieux puissent y avoir librement accès. Ainsi, les « amis des amis » peuvent voir des informations personnelles sur une page donnée et peuvent également les partager. Pour éviter d’être indexé sur un moteur de recherche à cause de cela, il faut affiner les paramétrages de confidentialité de son profil.

Les options « Gérer la confidentialité de son profil Facebook » et « Paramètres de confidentialité Facebook » permettent aux utilisateurs de définir eux-mêmes qui auront accès à leurs informations. Ce recours est aussi un excellent moyen pour empêcher l’indexation de son profil par les moteurs de recherche.

L’importance de la désindexation

La désindexation est une pratique importante à ne pas prendre à la légère. Elle permet d’améliorer la qualité des informations présentes sur le site tout en protégeant et en sécurisant des informations ou des contenus que l’on ne souhaite pas divulguer au grand public.

Les différentes techniques pour désindexer des sites, des pages ou des contenus participent à l’amélioration de l’E.-réputation des sociétés comme des particuliers. En cachant ou en protégeant efficacement certaines informations, ces derniers assurent un meilleur trafic sur leur page ou leur site tout en proposant un contenu de qualité répondant aux attentes des visiteurs.