Aller au contenu

Plusieurs dizaines de sites disparus de l'index de google hier


Sujets conseillés

Bonjour,

je gère une cinquantaine de sites de taille petite et moyenne qui sont généralement des vieux domaines (5 à 10 ans), avec un bon Page rank (autour de 4).

Hier, un tiers d'entre eux ont disparu de l'index de Google. Est-ce que d'autres webmasters ont expérimenté le même problème ?

Je ne pense pas que ce soit mes sites (d'ailleurs très peu sont à moi) qui ont été visés en particulier, car ils sont tous sur des IP différentes, avec des whois différents, et surtout totalement clean par rapport aux google guidelines (voir par exemple : music-law.com, lesmeilleurs.fr, objectifgrandesecoles.com, democratie-electronique.org).

J'ai déjà eu ce problème par le passé (à plus petite échelle) et je n'ai jamais vraiment pu trouver de solution, à part la redirection 301. J'ai demandé la réinclusion dans Google avec leur formulaire (google.fr/support/webmasters/bin/answer.py?answer=35843), mais je n'ai jamais eu de réponse.

Si quelqu'un a un conseil, je suis preneur :-)

ps. mon opinion sur ce blacklistage est que google réduit progressivement le nombre de sites indexés car la croissance des pages sur le net lui oblige à consommer beaucoup de ressources, sans pour autant améliorer significativement la qualité des résultats. Je ne sais pas pourquoi mes sites, qui étaient des authority sites il y a quelques années, sont désindexés.

Modifié par centreurope.org
Lien vers le commentaire
Partager sur d’autres sites

S'il n'y a aucune modification sur les sites depuis plusieurs années, c'est sans doute pénalisant pour le référencement. Mais de là à désindexer...

Lien vers le commentaire
Partager sur d’autres sites

J'ai tendance à partager l'avis de Charles : ce serait quand même un peu fort de café de désindexer un site sous prétexte qu'il n'est pas mis à jour. Je n'ai encore jamais entendue une chose pareille.

Lorsque tu as rencontré ce problème les premières fois, as-tu essayé de modifier les pages des sites concernés ? Si oui, y-a t'il eu réindexation ?

Lien vers le commentaire
Partager sur d’autres sites

J'ai juste regardé lesmeilleurs.fr 254 erreurs html au validateur peut-être que tout simplement le robot google ne sait plus ou ne perd plus de temps a visiter des sites avec un tel codage...

C'est une supposition enfin pour ma part je n'ai rien remarqué de tel.

Lien vers le commentaire
Partager sur d’autres sites

Bonjour,

après expérience, le codage d'un site n'entre en aucune manière dans l'indexation d'un site, son référencement ou son positionnement.. ce sont des "légendes urbaines" inventées et colportées par les fanatiques du xhtml et des css... dont j'étais également.. :blush:

Lien vers le commentaire
Partager sur d’autres sites

Quand les sites ne sont plus mis à jour, cela espace les visites des robots, et ils ne finissent plus que par pinguer la page d'accueil. Plus de crawl interne.

Quand le site recommence à être MAJ, les robots passent et voient du changement puis repassent de plus en plus souvent en racourcissant les delais entre 2 visites... jusqu'a visite journalière. Les crawls internes reprennent eux aussi.

Si tu n'as rien changé sur tes sites, 2 idées me viennent à l'esprit :

- as tu eu des moments ou ton serveur etait down, des breaks dans la location des NDD ou un break de l'utilisation des DNS ?

- Le serveur est il utilisé par d'autres personnes ? Il me semble que parfois, pour faire plus rapidement du ménage, les tris se font par IP. J'avais lu l'histoire d'un gars qui avait une 50 aine de site en farm et il s'est fait flusher par les IP, avec comme dégats collateraux les autres petits sites du serveur qui n'y etaient pour rien.

Generalement cela revient après un petit moment, sinon on fait une resoumission.

Modifié par Wefficient
Lien vers le commentaire
Partager sur d’autres sites

Encore heureux ! Parce que dans le principe, ce n'est pas parce qu'un site est codé avec les pieds, que son contenu n'est pas intéressant (et inversement).

Certe mais c'est toujours mieux d'avoir un site qui soit proprement code - je ne dis pas forcement W3C mais au moins proprement code.

Lien vers le commentaire
Partager sur d’autres sites

euh, si tu veux contrôler le rendu graphique de tes documents, ne le laisse pas faire par les agent-logiciels (Opéra, FireFox, etc.), donc respecte les standards web.

En effet, si les DOCTYPE ne sont pas renseignés et respectés, les navigateurs passent en mode Quirks, ce qui signifient qu'ils font leur sauce et advienne que pourra du rendu graphique ; m'enfin pour le fun http://openweb.eu.org/.

Lien vers le commentaire
Partager sur d’autres sites

bonjour,

merci, c'est vraiment sympa d'avoir autant de réponses intéressantes !

- A priori, la désindexation ne vient pas du fait que les sites sont peu/pas mis à jour, puisque j'en ai deux ou trois plus jeunes qui ont également disparu mais où le contenu a davantage bougé ces derniers temps.

- Pour le code qui serait sale, je ne pense pas non plus que ça soit la raison, mais on ne sait jamais car tous les sites qui sont sortis utilisent le même template. Mais a priori ce n'est pas ça car mon beau-frère utilise le même template pour une trentaine de sites et aucun n'a été désindexé. De même pour le robots.txt, je ne pense pas que ce soit la cause, mais sait-on jamais.

- ce n'est pas un pb de serveur, car les sites sont en grande majorité sur des mutus chez des hébergeurs différents. Pas un pb de dns non plus.

- Par le passé des sites qui ont été désindéxés sont revenus dans l'index. Mais d'autres ne sont jamais revenus, donc je ne peux pas attendre sans rien faire. Voilà comment j'espère m'en tirer :

- Je vais changer le template de mes sites (j'ai reçu des templates de la part de ericfreelance très chouettes après avoir fait un appel d'offre sur le hub, mais je n'ai jamais eu le temps de les utiliser)

- je vais régler les problèmes sur les robots.txt

- je ne vais demander la réinclusion pour quelques-uns seulement car jusqu'à présent ça n'a rien donné et je sais que google n'aime pas les webmasters qui gèrent de nombreux sites

- je ne vais pas faire de 301 vers de nouveaux sites car ça enlèverait toutes les chances de voir revenir mes sites

merci de vos remarques et toute autre suggestion est la bienvenue :-)

david

Lien vers le commentaire
Partager sur d’autres sites

Trouve si possible des sites à fort PR qui pointent chez toi....

Google te fera ainsi un peu plus confiance et évitera ce genre de désagrément

Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...