Jump to content

Perte massive de positions


Recommended Posts

Bonjour,

je me permets de soumettre le cas suivant (que nous avons publié dans le forum de Google) - pour vous demander vos avis.

Pour info ce déclassement est intervenu brutalement entre le 22 et 25 janvier 2012. Y'a t-il eu des modifications algorithmiques connues à cette période ? S'agit-il d'une pénalisation humaine ?

Merci d'avance pour vos éclairages.

L'un de nos sous-domaines (http://player.qobuz.com - qui héberge un player de musique en ligne qui accompagne notre offre légale de streaming) a subi une chute brutale du trafic organique suite à un déclassement global de nos keywords. Capture d'écran de notre Google Analytics : http://cl.ly/2L0A073b0W0C3d3N0M0y (Pas de problème de tracking, la baisse est confirmée côté logs serveurs) Voici quelques informations en vrac pour essayer de cerner le problème :- notoriété, notamment dans le milieu audiophile : service légal de téléchargement et streaming de musique existant depuis 5 ans, en contrat avec les 4 majors et la majorité des labels indépendants- Aucune modification dans le Player (structure, metatags, robots.txt ou autre) le mois précédent le déclassement- Aucun warning, erreur ou message dans GWT- Le player est principalement codé en HTML5/Javascript pour le frontend, qui appelle une API JSON codée en PHP pour le backend. Nous suivons donc les spécifications de crawling AJAX de Google (http://code.google.c...cification.html) pour être indéxé.Donc par exemple, lors du crawl d'une page album (http://player.qobuz....m/0634904052065), Google va être redirigé vers une page generée en PHP (http://player.qobuz....m/0634904052065 à charger avec javascript désactivé) qui utilise la même API JSON pour récupérer et afficher les mêmes informations que voient les visiteurs qui ont du Javascript.- Par ailleurs ces informations sont affichées en suivant les specifications MicroData (http://schema.org/MusicRecording and http://schema.org/MusicPlaylist) et OpenGraph (http://ogp.me/). Exemple de parsing des richsnippets par Google qui ne montre aucune erreur : http://www.google.co...904052065&view=- Le site est toujours aussi bien crawlé (http://cl.ly/19290Z3z1w0Q192w2i0o) et indexé (http://cl.ly/023E1P0G0P3W30452p1U). Par contre, la plupart des keywords qui donnaient un positionnement en première page sont maintenant passés en 4ème page ou au-delà.- Seul le sous-domaine player.qobuz.com a été impacté, notre site principal (www) n'a subi aucun dégât SEO.

Edited by matthieudeparis
Link to comment
Share on other sites

Y'a-t'il eu des modifications algorithmiques à cette période ? Oui sûrement, Google communique sur plusieurs centaines de modifs par an, soit une par jour en moyenne et plusieurs dans chaque mise en production (apparemment on en détecte plus d'une MEP par semaine). Panda 3.2 est intervenu vers le 18 janvier.

Après, de quoi s'agit-il ? Avec les éléments que tu fournis, cela ressemble à une pénalité. Est-ce manuel ou algorithmique ? Il n'y a que Google qui puisse te le dire. Donc la tactique consiste à chercher ce qui peut clocher, sans bénéficier de réelles indications utiles (c'est pas cool, je sais) et de faire une demande de réinclusion derrière.

En même temps, tu ne fournis pas assez d'éléments pour vérifier que ton diagnostic technique est exhaustif et précis : il n'y a rien qui ressemble plus à une pénalité qu'un problème technique.

J'ai quand même une question à ce stade : quel mécanisme exact utilises-tu pour montrer ton contenu à Google ? En clair fais tu cloaking, même considéré comme légitime par toi ? Que se passe-t'il pour un utilisateur qui n'accepte pas les cookies ni le javascript ?

Par ailleurs, j'ai bien peur qu'à terme, demander l'indexation de pages aussi vides que cells que tu présentes te conduit forcément à finir dans un filtre quelconque de Google. Même si ce n'est pas cela qui a été sanctionné là, il va falloir envisager une stratégie différente.

Link to comment
Share on other sites

Bonjour,

Navré pour cette perte de position, mais j'aurai effectivement tendance à penser qu'une intervention manuelle a été effectuée...je ne suis pas référenceur, je donne juste quelques pistes de réflexion et me risque à une réponse...

1) Je remarque en effectuant une recherche https://www.google.fr/search?q=site%3Aplayer.qobuz.com+&ie=utf-8&oe=utf-8&aq=t que peu d'aperçus sont disponibles (note que je ne sais pas si c'est normal, cela ne devrait pas dans la mesure où vous avez suivi les recommandations concernant la navigation ajax cela dit je n'en sais rien).

J'avais travaillé sur un porjet Gaia, il me semble que nous avions des aperçus...

2) Dans les résultats suivants (un exemple mais ils sont nombreux) :

The Essential Jim Reeves The Essential Jim Reeves

The Essential Jim Reeves The Essential Jim Reeves

En description du lien dans la recherche, serait-ce sur-roptimisé ? (d'ailleurs, toutes les descriptions sont +/- identiques hormis les éléments propres à la page - nom de l'artiste, titres...- le ratio (contenu dynamique/statique) n'est peut-être pas suffisament satisfaisant pour passer la barre du duplicate et votre notoriété grandissante (selon vos stats) aurait alerté la hache ? ...supposition...

3) templates jquery : si un pro du référencement peu répondre à l'impact qu'il peuvent avoir sur les moteurs en terme de duplicate(Externalisation p-ê : http://encosia.com/jquery-templates-composite-rendering-and-remote-loading/ )

Intervention qui n'est sans doute pas d'un grand secours, mais le 3) m’intéresse particulièrement :)

Link to comment
Share on other sites

Bonjour,

Est-ce que vous n'avez pas eu la main lourde sur le nombre de pages artistes insérées dans le sitemap?

J'ai déjà fait la même et j'ai été blacklisté pour ça.

Edited by remia
Link to comment
Share on other sites

  • 2 weeks later...

Bonjour

et merci beaucoup - un peu tardivement - pour vos éclairages.

Je retiens qu'une pénalité peut être aussi algorithmique ; un filtre duplicate content ou un filtre Panda sont-ils considérés comme des pénalités à proprement dit et finalement quelle est la différence de concept entre un filtre DC et un filtre Panda ?

Ce que je retiens aussi de cette aventure c'est qu'après avoir octroyé un nb important de visites à ce player sans qu'il y ait eu d'autre optimisation seo que le suivi mot pour mot des specs Google - mais aucune sur optimisation, voire optimisation - google pénaliserait ce sous-domaine : un peu comme un commerçant qui appellerait la police après vous avoir rendu trop de monnaie...

Enfin le cas d'école est intéressant : comment se fait-il quaprès une pénalité un site soit encore copieusement crawlé ?

merci

Link to comment
Share on other sites

Le principe d'un "filtre" dans un moteur de recherche, c'est de prendre les résultats qui seraient normalement classés plus haut par l'algorithme de base, et de les enlever (filtre antispam, filtre duplicate content) parce que ces pages parasitent les SERPs, ou de les déclasser (pénalité algorithmiques).

Toutes les pénalités algorithmiques ne sont pas des filtres, et tous les filtres ne sont pas des pénalités. Par exemple, le filtre duplicate content, ce n'est pas une pénalité.

Pour compliquer la terminologie, je me suis rendu compte que Google n'aime pas appeler les filtres algorithmiques des "pénalités". Pour eux, quand un site se fait "dégommer" par son algorithme, c'est l'effet de l'algorithme, pas d'une pénalité. Dans leur vocabulaire, pénalité veut plus volontiers dire : intervention manuelle du service qualité, ce qui est somme toute statistiquement assez rare. Du point de vue du webmaster, pénalité manuelle ou algorithmique c'est un peu le même effet : il avait du trafic avant, et après il en a brutalement beaucoup moins.

Panda est-il un filtre ? En un sens oui, clairement, car son impact déclasse des sites qui, auparavant, auraient brillé dans les SERPs.

Par rapport au crawl : cela arrive souvent avec les pénalités automatiques (même si ce n'est pas systématique). Le site est réévalué automatiquement régulièrement, et pour le réévaluer, Google continue de télécharger les pages... C'est même ce genre de détail qui permet de distinguer un changement algorithmique d'une chute de pagerank, qui elle, se voit souvent au niveau du crawl.

Link to comment
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
 Share

  • Similar Content

    • By fbern
      bonjour



      dans ses recommandations, Google préconise de bloquer grâce au robots.txt les publicités présentes sur son site.

      http://support.google.com/webmasters/bin/answer.py?hl=fr&answer=35769



      Quelle est la directive à utiliser pour lui bloquer les publicités Adsense ?



      d'autre part - et pardon si ma question est idiote - mais il y a des liens d'affiliation sur notre site- cela n'équivaut-il pas à des liens achetés ? comment se fait-il que google ne pénalise pas ces liens là (pure curiosité).



      Merci comme d'habitude aux professionnels seo de ce forum



      fbern

    • By Dan
      Webmaster Hub a le plaisir de mettre à disposition de ses membres une nouvelle rubrique Outils à dater de ce jour.

      Cette rubrique est amenée à se développer rapidement mais propose dès sa création quelques outils originaux, à savoir:
      Un visualisateur (ou vérificateur) d'entêtes HTTP permettant l'analyse détaillée des entêtes HTTP d'URLs (pages ou éléments de pages web). Sa particularité la plus intéressante est le suivi des redirections (limité à 8 pour éviter les boucles infinies) . Cet outil sera très utile à tous ceux qui utilisent des redirections ou réécritures d'URLs, en suivant les conseils donnés dans les articles du volet publications du Hub.
      Plus spécifiquement les articles: Le fichier .htaccess
      Mod_rewrite, ou la réécriture des URL "à la volée"
      La réécriture d'URL récursive

      [*]En partenariat avec Yooda, un formulaire de soumission automatique dans les moteurs et les annuaires qui fera gagner un temps considérable et augmentera l'efficacité de votre travail de référencement.
      [*]Toujours chez Yooda, un analyseur et éditeur de fichier robots.txt, qui vous permet d'analyser le fichier robots.txt de votre site, et de l'éditer pour le corriger si nécessaire.

      Si vous voulez être tenu au courant dès la parution des autres outils en développement, n'oubliez pas d'éditer votre profil pour souscrire à la lettre mensuelle d'information du Hub.

      Cordialement,

      Les admins du Hub
    • By Cliquedur
      Bonjour à tous,

      J'ai fait des recherches sur le hub, mais ne pense pas avoir trouvé de réponse correspondant exactement.
      Maintenant, mon cerveau malade me joue souvent des tours sur des évidences

      Voilà : d'un site www.domaine1.com, nous passons à la même version, mais sur un nouveau nom de domaine, www.domaine2.com. Le deuxième adresse devient l'adresse principale à référencer.
      Nous avons le temps de laisser les deux versions en ligne, mais je veux
      - rediriger les visites pour domaine1 vers domaine2
      - transférer le référencement acquis du domaine1 vers le domaine2

      J'ai pensé à la redirection 301, mais Dan ayant signalé que yahoo! n'était pas forcément friand de cette technique, nous pensions laisser les deux versions en ligne, référencer la nouvelle adresse, et faire en sorte que le domaine1 soit désindéxé au profit du 2.
      Maintenant, pas question de laisser deux versions miroirs ... alors quelle est d'après vous la meilleure démarche ?

      Suffirait-il de faire pointer les dns du 1 vers le 2, de mettre une simple redirection ... ? et de placer une redirection 301 sur le 2 (en bloquant l'indexation du domaine1 avec une version alternative du robots.txt ?

      Bref, mon message doit montrer que c'est bien confus dans ma tête

      Bref, je suis un peu perdu

      Merci d'avance pour votre réponse, et bravo pour la qualité du forum.
    • By Cliquedur
      Bonjour,

      Je cherche une réponse concernant le choix de réécriture / redirection à faire dans cas d'un site dont tous (6) les noms de domaines ont été "sauvagement" soumis à Google (entre autres).

      Disons que l'adresse principale est www.domaine-principal.com, et que les 5 autres sont :
      www.domaine-2.fr, www.domaine-3.com, www.domaine-4.com, www.domaine-5.com et www.domaine-6.com.

      Tous les noms de domaine du site pointent vers l'adresse principale, pour un hébergement unique.
      Mais il est nécessaire de faire "le ménage", car google présente le site en faisant une rotation des urls avec des classements anarchiques, chose que je n'ai jamais vue encore. L'idée est que seule l'url principale apparaisse au final dans les résultats, et de ne pas perdre le peu de référencement aquis.

      Quelle serait, d'après-vous, la meilleure méthode par .htaccess : redirection permanente ? Réécriture ?

      Dan, tu m'as parlé de gérer tout cela par le .htaccess et des fichiers robots.txt, c'est bien cela ?

      Merci et à bientôt,
    • By Webmestre
      Bonjour,
      Je dois mettre en ligne la nouvelle version d'un site. Les nouvelles pages seront placées dans de nouveaux dossiers.
      Afin de ne pas ramener l'interaute sur une erreur 404 au cas ou il cliquerait sur un lien vers une ancienne page à partir d'un moteur de recherche, je pensais mettre dans chacune des ancinennes pages le script ci-dessous et placer un robots.txt interdisant la visite des anciens dossiers. Y-a-t-il d'autres solutions (je pense aux redirection 301 / 302 mais je n'en comprends pas bien le principe) ?
      Le but est à terme de faire disparaitre ces pages des moteurs pour pouvoir ensuite enlever ces dossiers du serveurs.

      <script Language="javascript">
      if (parent.frames.length==0) parent.location.href="default.htm"
      </SCRIPT>
×
×
  • Create New...