Aller au contenu

Duplicate content


rat-du-net

Sujets conseillés

Bonjour,

Les membres de mon site peuvent envoyer des photos et les visiteurs peuvent visualiser les photos les unes apres les autres.

Le probleme est que pour visualiser deux photos par exemple, j'ai deux url differentes et que le contenu de la page est identique mis a part la photo.

Comment faire pour que les pages n'apparaissent pas en duplicate content ?

faut il que je mette un lien en javascript par exemple pour empecher google d'indexer les autres pages avec uniquement la photo differente ?

comme ca, il n'indexera qu'une seul page par membre.

et si c'est la solution, comment faire pour retirer toutes les pages que google a deja indexé et mis en duplicate content ??

Lien vers le commentaire
Partager sur d’autres sites

Pour empêcher l'indexation des pages, le mieux est de la faire par le fichier robots.txt ou par une balise meta robots dans le code de la page.

Javascipt peut aussi permettre de bloquer les robots si l'URL de la page n'apparait pas en clair dans le code source. Mais Googlebot s'avère capable de suivre les liens en javascript si l'URL y figure en clair. Prudence donc.

Pour supprimer des pages de google, tu peux procéder comme expliqué ici... en passant par ce formulaire. Mais encore une fois l'URL ne sera supprimée que si le robots.txt ou la meta robots l'indiquent.

Tu peux aussi décider de garder toutes tes pages indexées. Mais pour éviter le "duplicate content", il faudra que le contenu des pages soit différent. Une photo différente ne suffit pas. Il faut des title différents, des metas description différentes et idéalement du contenu texte différent.

Lien vers le commentaire
Partager sur d’autres sites

pour faire un robot.txt, ca risque d'etre dur vu que les membres peuvent ajouter jusqu'a 50 photos et il y a de nouveaux inscris tous les jours et certains retire des photos, d'autres en ajoutent pas evident donc

sinon, j'ai un titre et des meta differentes mais ca ne suffit pas.

je vais donec essayer de mettre un meta robot qui empeche d'indexer les autres pages et faire un fichier texte avec les pages actuellement dans google pour les retirer.

C'est vrai que du contenu different aurait été vraiment bien car sa m'aurait permis d'avoir enormement de pages indéxés en plus

Lien vers le commentaire
Partager sur d’autres sites

C'est vrai que du contenu different aurait été vraiment bien car sa m'aurait permis d'avoir enormement de pages indéxés en plus

<{POST_SNAPBACK}>

Puisque tu as des metas différentes, tu peux essayer d'afficher ta meta description dans le texte de chaque page. Ca devrait suffir.

Lien vers le commentaire
Partager sur d’autres sites

ouais, mais en fait, j'ai les commentaires aussi donc imaginons que la personne ait 10 photos et 30 commentaires sur sa fiche

vu que j'affiche 5 commentaires par fiche ca fait 6 pages x 10 photos

donc 60 pages pour un seul profil n'ayant pas ennorment de photos et pas enormement de commentaires.

si j'arrive a faire indexer toutes les pages, j'arriverais a faire indexer au moin 100 000 pages

Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...