Aller au contenu

Pages auto générées


Mixtim

Sujets conseillés

Bonsoir.

En l'occurrence il s'agirait plutôt de technique de non référencement.

Si le sujet n'est pas lancé dans la section adéquate, merci de m'en excuser mais il est bien question d'url et de moteurs ;)

Je m'explique.

Ayant partiellement découvert les joies du fichier .htaccess, je me suis évertué à les appliquer.

Un des systèmes que j'utilise et que j'ai en grande partie rewrité génère des pages de profil.

Hélas, l'ami Google s'abreuve de ces pages que je voudrais pourtant ne plus voir apparaître dans ses bases.

Après réécriture, ces pages profil sont toutes de la forme /profil[iD].html (exemple : /profil31.html)

Ce que je souhaiterais savoir, c'est s'il existe une méthode afin de rendre ces pages invisibles aux moteurs ou bien de les rediriger toutes vers une page unique (pour en fait les désindexer). Donc première question : serait-il possible via un fichier .htaccess, par exemple, d'effectuer ce type de redirection à l'attention uniquement des moteurs (l'Internaute, lui, ne doit pas être concerné), sachant pourtant qu'il y a une variable à chaque fois...

En fait, ce que je désirerais c'est ce que permet par exemple le contenu d'un fichier robots.txt, mais avec un joker.

Par exemple que l'on puisse stipuler un Disallow qui serait du type Disallow: /profil*.html

Mais il ne me semble pas que ce soit et correct et possible.

En vous remerciant :)

Lien vers le commentaire
Partager sur d’autres sites

Bonjour,

Tu peux en effet interdire aux robots des moteurs de recherche l'accès à ces pages dans le .htaccess. Pour ça, il te faut identifier les robots par leurs adresses IPs ou leurs user agents: http://www.webmaster-hub.com/publication/article5.html

Mais c'est une solution qui me semble un peu lourde pour ce que tu veux faire. N'as-tu pas tout simplement la possibilité d'ajouter une balise méta robots interdisant l'indexation dans le code de tes pages "profil":

<meta name="robots" content="noindex, follow">

Lien vers le commentaire
Partager sur d’autres sites

Salut,

tu peux mettre sinon :

Disallow: /profil

dans ton robots.txt, cela empêchera la visite des robots de toute page dont l'url commence par profil ;)

Modifié par Phobos
Lien vers le commentaire
Partager sur d’autres sites

En fait, ce que je désirerais c'est ce que permet par exemple le contenu d'un fichier robots.txt, mais avec un joker.

Par exemple que l'on puisse stipuler un Disallow qui serait du type Disallow: /profil*.html

Mais il ne me semble pas que ce soit et correct et possible.

Bonjour,

Si ton robots.txt contient les lignes:

User-agent: *
Disallow: /profil

il interdit à tous les robots de visiter toutes les URL commençant par /profil, donc, bien entendu, toutes les URL de type /profil*.html. Cela devrait convenir, sauf si tu as d'autres URL commençant par /profil, comme, par exemple, des /profil12345.php.

Jean-Luc

P.S. Phobos est trop rapide ;-)

Modifié par Jeanluc
Lien vers le commentaire
Partager sur d’autres sites

Bonsoir Messieurs :P

Merci pour vos solutions.

Jan, j'avais bien sûr pensé au "noindex" mais le souci, c'est que le système qui génère les profils fait partie intégrante d'un script dont la fonction ne se borne pas à la création desdits profils. Dans ce cas précis, le recours au noindex est plus problématique car cela aurait des conséquences sur d'autres parties.

La méthode que tu me préconises, je pourrai l'appliquer une fois que je serai parvenu à restructurer l'outil en question et que j'aurai pu séparer ce qui devrait l'être. Et vu comme il est codé, ça ne va pas être de la tarte ! Tant niveau html que php.

Phobos et Jeanluc, eh bien soit ! Je vais tenter alors.

Merci encore de votre réactivité.

Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...