GoogleSEO

Quelques infos du Hangout Google pour les webmasters francophones

Par Guillaume Thavaud - Publié le 27 novembre 2015

Le 23 novembre s’est tenu un Hangout animé par les googlers Vincent Courson et Zineb Ait bahajji, à destination des webmasters francophones. Un échange en direct qui présentait quelques informations intéressantes sur l’évolution de Google, et l’occasion pour les internautes de poser leurs questions. La vidéo du hangout étant désormais disponible sur le blog français de Google pour les webmasters, voici quelques infos que l’on peut en retirer suite aux questions réponses.

 

Pas d’index Google pour mobile

Première info (qui vient contredire certaines déclarations faites précédemment par Gary Illyes) : il n’existe pas actuellement d’index Google réservé exclusivement aux sites web mobiles. Vincent Courson est assez dubitatif sur ce concept, tandis que Zineb Ait Bahajji consent à dire que cet index a été « envisagé » à un moment.

A mon avis, c’est clair que ce n’est pas du tout d’actualité, pour la simple raison qu’il existe encore trop peu de sites optimisés pour le mobile. Il suffit de faire le test en faisant une recherche dans Google, sur desktop et sur mobile : les résultats sont quasiment les mêmes, tout au plus verra-t’on une page web desktop remplacée par son alter ego mobile.

Panda 2015 a-t’il vraiment été lancé ?

Vincent Courson parait un peu embarrassé quand plusieurs intervenants lui demande pourquoi Panda n’a eu aucun effet visible sur le classement des sites… C’est vrai qu’un Panda qui ne sanctionne pas violemment les sites web, on n’a pas vraiment l’habitude ! Pourtant il y a bien eu une mise à jour lancée cet été…

Dans un article publié sur SearchEngineLand,il est expliqué que la mise à jour Panda 4.2 prendra des mois à se déployer. On est donc peut-être encore dans cette phase de déploiement, qui prend peut-être plus de temps que prévu. A noter aussi que Panda (qui est actuellement un filtre sur les résultats de recherche) est en train d’être intégré au cœur des algorithmes Google (ce qui le ferait fonctionner en continu) et ça prend du temps ! 

Les données structurées : toujours conseillées

Les données structurées (pour le moment uniquement celles de Schema.org) permettent à googlebot de mieux comprendre le contenu d’une page web et facilite ensuite l’indexation par Google. Cela donc peut influencer indirectement le SEO, et cela permet d’avoir des résultats enrichis dans Google Search. Zineb explique aussi que Google Now on Tap (un service de recherche intégré à Android M) se sert des données structurées pour produire des cartes d’évènements ou d’informations…

Google est toujours à fond pour le mobile, et va se servir des données structurées pour améliorer l’expérience des mobinautes. Des services tels que On Tap sont certainement une piste à ne pas négliger pour améliorer sa visibilité sur mobile…. Concernant On Tap, voir cet article publié par Frandroid en mai 2015 : ça a l’air assez bluffant en termes d’efficacité !

Pages AMP et référencement

Le message de Vincent Courson est sans ambiguïté : le passage des pages web aux pages AMP (dont j’ai déjà parlé ici et ici) améliore sensiblement la vitesse de chargement des pages. Or le temps de chargement est un critère de classement, dont les pages AMP peuvent améliorer le SEO d’un site. CQFD.

Le problème de l’AMP est évidemment son implémentation. Pour le moment, seul WordPress a sorti un plugin permettant de faire le job. Pour les autres CMS et les technologies sur mesure, il faudra que les web développeurs mettent les mains dans le cambouis...

Qu’est-ce que l’expertise de contenu ?

Google demande aux propriétaires de site de produire du contenu montrant qu’ils sont des experts de leur domaine. Mais de quoi parle-t’on au juste ? C’est quoi un expert ? Comment montrer son expertise sur une fiche produit ? D’après Vincent Courson, on peut commencer par ajouter des avis client sur sa page produit, ou enrichir celle-ci avec quelques remarques personnelles sur le produit, en donnant son avis d’expert.

L’idée est d’ajouter des informations supplémentaires par rapport au flux initial des produits (qui comprend les caractéristiques produit et une description sommaire que l’on peut trouver sur des milliers de sites web). Vincent encourage aussi la création d’un blog, où des articles « expert » permettront de glisser quelques liens vers les fiches produit et d’améliorer la conversion sur leur boutique en ligne.

La proposition de créer un blog pour le linking est assez surprenante quand on repense à la chasse aux liens artificiels effrénée à laquelle Google s’est livré en 2013-2014… En tout cas cette explication a le mérite de proposer une solution claire à mettre en œuvre sur son site web. En effet, la question de l’internaute a mis le doigt sur le gros problème de Google, qui donne souvent des conseils très évasifs, que les webmasters ont du mal à appliquer !

Comment augmenter la fréquence d’indexation ?

Manifestement, ce n’est pas parce que du contenu est publié plus souvent sur un site web, que googlebot va forcément passer plus souvent… En fait, il faut envoyer des signaux à Google, en utilisant des outils tels que le fichier sitemap (que Vincent Courson juge incontournable) ou en ajoutant systématiquement les nouvelles pages dans le linking interne du site. Il est également possible de faire une soumission de page via la Google Search Console mais il ne faut pas le faire trop souvent.

La duplication de contenu entre domaines

Il s’agit d’une question qui portait sur un site en preprod, accidentellement mis en ligne, et copie conforme de l’ancien site au niveau du contenu. Dans tous les cas, Google est très bien capable de faire le tri entre le site original et le site copieur, et le site copié ne subira généralement aucun impact négatif. On peut néanmoins se protéger lors d’une refonte de site, en utilisant des balises canonical sur le site en preprod (et pointant vers le domaine original) ou mieux encore, en mettant en place un système de login/mot de passe.

Désindexer des pages pour améliorer le SEO ?

La désindexation de pages de faible qualité n’est pas forcément une bonne idée ! (à moins évidemment qu’il ne s’agisse de pages de spam). Il peut arriver qu’une boutique en ligne comporte de nombreuses pages de « thin content » mais leur désindexation massive va envoyer un signal négatif à Google (plusieurs centaines de pages qui disparaissent d’un coup). Par ailleurs, si du contenu pertinent faisait son apparition sur ces pages, il serait difficile de les faire réindexer…

En résumé, les googlers conseillent de ne pas se préoccuper des pages de faible qualité mais de les améliorer petit à petit. Google fera tout seul le tri entre les pages les plus pertinentes et affichera dans ses résultats de recherche.