Aller au contenu

Perte massive de positions


Sujets conseillés

Bonjour,

je me permets de soumettre le cas suivant (que nous avons publié dans le forum de Google) - pour vous demander vos avis.

Pour info ce déclassement est intervenu brutalement entre le 22 et 25 janvier 2012. Y'a t-il eu des modifications algorithmiques connues à cette période ? S'agit-il d'une pénalisation humaine ?

Merci d'avance pour vos éclairages.

L'un de nos sous-domaines (http://player.qobuz.com - qui héberge un player de musique en ligne qui accompagne notre offre légale de streaming) a subi une chute brutale du trafic organique suite à un déclassement global de nos keywords. Capture d'écran de notre Google Analytics : http://cl.ly/2L0A073b0W0C3d3N0M0y (Pas de problème de tracking, la baisse est confirmée côté logs serveurs) Voici quelques informations en vrac pour essayer de cerner le problème :- notoriété, notamment dans le milieu audiophile : service légal de téléchargement et streaming de musique existant depuis 5 ans, en contrat avec les 4 majors et la majorité des labels indépendants- Aucune modification dans le Player (structure, metatags, robots.txt ou autre) le mois précédent le déclassement- Aucun warning, erreur ou message dans GWT- Le player est principalement codé en HTML5/Javascript pour le frontend, qui appelle une API JSON codée en PHP pour le backend. Nous suivons donc les spécifications de crawling AJAX de Google (http://code.google.c...cification.html) pour être indéxé.Donc par exemple, lors du crawl d'une page album (http://player.qobuz....m/0634904052065), Google va être redirigé vers une page generée en PHP (http://player.qobuz....m/0634904052065 à charger avec javascript désactivé) qui utilise la même API JSON pour récupérer et afficher les mêmes informations que voient les visiteurs qui ont du Javascript.- Par ailleurs ces informations sont affichées en suivant les specifications MicroData (http://schema.org/MusicRecording and http://schema.org/MusicPlaylist) et OpenGraph (http://ogp.me/). Exemple de parsing des richsnippets par Google qui ne montre aucune erreur : http://www.google.co...904052065&view=- Le site est toujours aussi bien crawlé (http://cl.ly/19290Z3z1w0Q192w2i0o) et indexé (http://cl.ly/023E1P0G0P3W30452p1U). Par contre, la plupart des keywords qui donnaient un positionnement en première page sont maintenant passés en 4ème page ou au-delà.- Seul le sous-domaine player.qobuz.com a été impacté, notre site principal (www) n'a subi aucun dégât SEO.

Modifié par matthieudeparis
Lien vers le commentaire
Partager sur d’autres sites

Y'a-t'il eu des modifications algorithmiques à cette période ? Oui sûrement, Google communique sur plusieurs centaines de modifs par an, soit une par jour en moyenne et plusieurs dans chaque mise en production (apparemment on en détecte plus d'une MEP par semaine). Panda 3.2 est intervenu vers le 18 janvier.

Après, de quoi s'agit-il ? Avec les éléments que tu fournis, cela ressemble à une pénalité. Est-ce manuel ou algorithmique ? Il n'y a que Google qui puisse te le dire. Donc la tactique consiste à chercher ce qui peut clocher, sans bénéficier de réelles indications utiles (c'est pas cool, je sais) et de faire une demande de réinclusion derrière.

En même temps, tu ne fournis pas assez d'éléments pour vérifier que ton diagnostic technique est exhaustif et précis : il n'y a rien qui ressemble plus à une pénalité qu'un problème technique.

J'ai quand même une question à ce stade : quel mécanisme exact utilises-tu pour montrer ton contenu à Google ? En clair fais tu cloaking, même considéré comme légitime par toi ? Que se passe-t'il pour un utilisateur qui n'accepte pas les cookies ni le javascript ?

Par ailleurs, j'ai bien peur qu'à terme, demander l'indexation de pages aussi vides que cells que tu présentes te conduit forcément à finir dans un filtre quelconque de Google. Même si ce n'est pas cela qui a été sanctionné là, il va falloir envisager une stratégie différente.

Lien vers le commentaire
Partager sur d’autres sites

Bonjour,

Navré pour cette perte de position, mais j'aurai effectivement tendance à penser qu'une intervention manuelle a été effectuée...je ne suis pas référenceur, je donne juste quelques pistes de réflexion et me risque à une réponse...

1) Je remarque en effectuant une recherche https://www.google.fr/search?q=site%3Aplayer.qobuz.com+&ie=utf-8&oe=utf-8&aq=t que peu d'aperçus sont disponibles (note que je ne sais pas si c'est normal, cela ne devrait pas dans la mesure où vous avez suivi les recommandations concernant la navigation ajax cela dit je n'en sais rien).

J'avais travaillé sur un porjet Gaia, il me semble que nous avions des aperçus...

2) Dans les résultats suivants (un exemple mais ils sont nombreux) :

The Essential Jim Reeves The Essential Jim Reeves

The Essential Jim Reeves The Essential Jim Reeves

En description du lien dans la recherche, serait-ce sur-roptimisé ? (d'ailleurs, toutes les descriptions sont +/- identiques hormis les éléments propres à la page - nom de l'artiste, titres...- le ratio (contenu dynamique/statique) n'est peut-être pas suffisament satisfaisant pour passer la barre du duplicate et votre notoriété grandissante (selon vos stats) aurait alerté la hache ? ...supposition...

3) templates jquery : si un pro du référencement peu répondre à l'impact qu'il peuvent avoir sur les moteurs en terme de duplicate(Externalisation p-ê : http://encosia.com/jquery-templates-composite-rendering-and-remote-loading/ )

Intervention qui n'est sans doute pas d'un grand secours, mais le 3) m’intéresse particulièrement :)

Lien vers le commentaire
Partager sur d’autres sites

Bonjour,

Est-ce que vous n'avez pas eu la main lourde sur le nombre de pages artistes insérées dans le sitemap?

J'ai déjà fait la même et j'ai été blacklisté pour ça.

Modifié par remia
Lien vers le commentaire
Partager sur d’autres sites

  • 2 semaines plus tard...

Bonjour

et merci beaucoup - un peu tardivement - pour vos éclairages.

Je retiens qu'une pénalité peut être aussi algorithmique ; un filtre duplicate content ou un filtre Panda sont-ils considérés comme des pénalités à proprement dit et finalement quelle est la différence de concept entre un filtre DC et un filtre Panda ?

Ce que je retiens aussi de cette aventure c'est qu'après avoir octroyé un nb important de visites à ce player sans qu'il y ait eu d'autre optimisation seo que le suivi mot pour mot des specs Google - mais aucune sur optimisation, voire optimisation - google pénaliserait ce sous-domaine : un peu comme un commerçant qui appellerait la police après vous avoir rendu trop de monnaie...

Enfin le cas d'école est intéressant : comment se fait-il quaprès une pénalité un site soit encore copieusement crawlé ?

merci

Lien vers le commentaire
Partager sur d’autres sites

Le principe d'un "filtre" dans un moteur de recherche, c'est de prendre les résultats qui seraient normalement classés plus haut par l'algorithme de base, et de les enlever (filtre antispam, filtre duplicate content) parce que ces pages parasitent les SERPs, ou de les déclasser (pénalité algorithmiques).

Toutes les pénalités algorithmiques ne sont pas des filtres, et tous les filtres ne sont pas des pénalités. Par exemple, le filtre duplicate content, ce n'est pas une pénalité.

Pour compliquer la terminologie, je me suis rendu compte que Google n'aime pas appeler les filtres algorithmiques des "pénalités". Pour eux, quand un site se fait "dégommer" par son algorithme, c'est l'effet de l'algorithme, pas d'une pénalité. Dans leur vocabulaire, pénalité veut plus volontiers dire : intervention manuelle du service qualité, ce qui est somme toute statistiquement assez rare. Du point de vue du webmaster, pénalité manuelle ou algorithmique c'est un peu le même effet : il avait du trafic avant, et après il en a brutalement beaucoup moins.

Panda est-il un filtre ? En un sens oui, clairement, car son impact déclasse des sites qui, auparavant, auraient brillé dans les SERPs.

Par rapport au crawl : cela arrive souvent avec les pénalités automatiques (même si ce n'est pas systématique). Le site est réévalué automatiquement régulièrement, et pour le réévaluer, Google continue de télécharger les pages... C'est même ce genre de détail qui permet de distinguer un changement algorithmique d'une chute de pagerank, qui elle, se voit souvent au niveau du crawl.

Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...