Bonjour à tous.
Il y a quelque temps de cela, je commençais à peine à référencer mon site sur les moteurs de recherche, mon site était très bien placé sur MSN et beaucoup, beaucoup moins bien sur Google. En me rendant compte que mon site engendré du duplicate content, j'ai mis en place un fichier robots.txt et changer les meta de toutes mes pages (et oui, à l'époque j'était un bleu de chez bleu, et j'avais mis la même chose partout).
Quelques mois plus tard, je grimpe en flèche sur Google et tombe dans l'oubli chez MSN. Je remarque que le nombre de page indexé par MSN à nettement diminué (bin oui avec le robots.txt j'ai moins de page en double).
Pourtant, lorsque je regarde les premiers résultats de ma requête sur MSN, je remarque que ces sites ont un nombre impressionant de page avec les même meta, même contenu ou presque.
Ma question est la suivante : est-ce que la chasse au Duplicate Content est une spécialité exclusive de Google (MSN ne le prenant pas en considération) ?