Aller au contenu

Déclaration du fichier robots.txt


equids

Sujets conseillés

Salut à tous,

je voudrais savoir si, sur un site qui n'a pas de page à "cacher" aux moteurs, il est nécessaire de placer un fichier robots.txt ?

Si c'est le cas, que doit il comprendre ? être une page vide ?

Ou du style :

User-agent: *
Allow: /

Merci

Modifié par equids
Lien vers le commentaire
Partager sur d’autres sites

Bonjour,

Premièrement, un site peut parfaitement se passer de robots.txt.

Mais c'est une bonne idée de mettre un robots.txt qui autorise l'accès à toutes les adresses:

User-agent: *
Disallow:

Je préfère cette version à celle que tu indiques parce que la directive Allow n'est pas standard et qu'il vaut donc mieux l'éviter.

Le seul bénéfice d'un robots.txt qui n'interdit rien est d'éviter de remplir le log d'erreurs Apache avec des lignes qui disent que robots.txt n'a pas pu être lu (une telle ligne est ajoutée à chaque fois qu'un moteur de recherche vérifie l'existence de ce fichier).

Jean-Luc

Lien vers le commentaire
Partager sur d’autres sites

Merci de ta réponse,

j'ai copié/collé le code que Google donnait dans son Webmaster Tools.

Tous les moteurs ne comprennent pas l'argument "Allow" c'est ça ?

Lien vers le commentaire
Partager sur d’autres sites

C'est bien ça. Je suppose que Google se préoccupe uniquement de l'effet du fichier pour ses robots! ;)

Maintenant dans ce cas de robots.txt qui autorise la visite de toutes les adresses, c'est sans conséquence. C'est critique dans certains robots.txt plus complexes. Le pire est que, parmi les moteurs qui acceptent "Allow", ils ne suivent pas tous les mêmes règles pour gérer les cas d'URL qui sont à la fois concernées par un "Allow" et par un "Disallow". :wacko:

Jean-Luc

Lien vers le commentaire
Partager sur d’autres sites

Quand on désire donner l'accès à tout, on peut aussi mettre

User-agent: *
Disallow: /repertoire_bidon

et accessoirement on peut ainsi repérer dans ses logs les "indélicats" (ceux qui vont essayer d'aller lire ce qui est interdit)

:rolleyes:

Lien vers le commentaire
Partager sur d’autres sites

Bonjour,

Premièrement, un site peut parfaitement se passer de robots.txt.

Mais c'est une bonne idée de mettre un robots.txt qui autorise l'accès à toutes les adresses:

User-agent: *
Disallow:

Je préfère cette version à celle que tu indiques parce que la directive Allow n'est pas standard et qu'il vaut donc mieux l'éviter.

Le seul bénéfice d'un robots.txt qui n'interdit rien est d'éviter de remplir le log d'erreurs Apache avec des lignes qui disent que robots.txt n'a pas pu être lu (une telle ligne est ajoutée à chaque fois qu'un moteur de recherche vérifie l'existence de ce fichier).

Jean-Luc

Pour ma part je préfère systématiquement déclarer un fichier robots.txt. On m'a dit la même chose mais bizarrement l'indexation sur Google ne se faisait pas sans.

Lien vers le commentaire
Partager sur d’autres sites

Pour ma part je préfère systématiquement déclarer un fichier robots.txt. On m'a dit la même chose mais bizarrement l'indexation sur Google ne se faisait pas sans.

Si l'indexation s'est produite alors qu'un fichier robots.txt venait d'être ajouté, c'est certainement un hasard...

Il y a des millions de sites indexés sans robots.txt (je dirais même, au pif, qu'il doit y avoir plus de site sans robots.txt qu'avec).

Il faut bien reconnaître que, dans la plupart des cas, le fichier robots.txt ne sert pas à grand chose. :rolleyes:

Lien vers le commentaire
Partager sur d’autres sites

Je ne suis pas tout à fait d'accord avec toi Remi.

Le fichier robots.txt sert au minimum à :

  • économiser de la bande passante (les bots le recherche systématiquement à chaque passage sur ton site)
  • déclarer ton sitemap à l'ensemble des moteurs l'exploitant

++

Patrick

Lien vers le commentaire
Partager sur d’autres sites

Je n'ai pas dit qu'il ne faut pas mettre de robots.txt...

Je tentais d'expliquer pourquoi beaucoup de sites n'en ont toujours pas : parce que pour eux, l'intérêt est quasi-nul.

Même pour nous, on peut se poser des questions...

Cacher un répertoire non-linké (genre archives), c'est évident qu'il faut éviter...

A une époque, on l'utilisait pour bloquer certains robots. Mais maintenant, ils sont si nombreux...

Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...