hebmaster Posté 25 Juin 2006 Partager Posté 25 Juin 2006 Bonjour , sur un fichier .htaccess j'ai placé cette ligne de code : ErrorDocument 404 /erreur.php Alors il redirige toute les pages qui n'existe pas vers erreur.php Et parmis ces pages le fichier : robots.txt comment dire au serveur de ne pas rediger le fichier robots.txt (qui n'existe pas sur mon espace d'hebegement) vers erreur.php Lien vers le commentaire Partager sur d’autres sites More sharing options...
Jeanluc Posté 25 Juin 2006 Partager Posté 25 Juin 2006 Bonjour, A proprement parlé, le serveur ne redirige pas vers la page /erreur.php, mais il affiche le contenu de la page /erreur.php. La nuance est que le serveur renvoie bien un code 404 au navigateur et au robot qui le visite. Il n'y a donc aucun risque que la page /erreur.php soit traitée par un robot comme si elle était le fichier /robots.txt. Si malgré tout, cela t'ennuie, ajoute un fichier /robots.txt contenant uniquement ceci: User-agent: *Disallow: Jean-Luc Lien vers le commentaire Partager sur d’autres sites More sharing options...
hebmaster Posté 25 Juin 2006 Auteur Partager Posté 25 Juin 2006 Ce code n'interdit pas l'acces a mon site (je parle pour les robot) ? User-agent: *Disallow: il fait quoi exactement ce code ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
Jeanluc Posté 25 Juin 2006 Partager Posté 25 Juin 2006 (modifié) Il dit aux robots qu'ils peuvent visiter tout ton site. Donc c'est exactement comme s'il n'y avait pas de fichier robots.txt, sauf qu'il n'y aura plus de 404, évidemment. Jean-Luc Modifié 25 Juin 2006 par Jeanluc Lien vers le commentaire Partager sur d’autres sites More sharing options...
hebmaster Posté 25 Juin 2006 Auteur Partager Posté 25 Juin 2006 (modifié) ok merci beaucoup ...et désolé je comprend rien dans le langage utilisé dans le robots.txt , c'est pour cela je pose trop de question Modifié 25 Juin 2006 par hebmaster Lien vers le commentaire Partager sur d’autres sites More sharing options...
captain_torche Posté 26 Juin 2006 Partager Posté 26 Juin 2006 En gros, pour faire simple : User-agent: * Applique le disallow suivant à tous les user-agent (* = tout, User-agent: identifiant du robot de moteur de recherche) Disallow: Liste des pages à ne pas indexer. Si elle est vide, c'est qu'il faudra tout indexer. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Dan Posté 26 Juin 2006 Partager Posté 26 Juin 2006 Et si tu as des doutes quant-à la syntaxe, tu peux toujours regarder le fichier robots.txt de n'importe quel site... par exemple celui du Hub: http://www.webmaster-hub.com/robots.txt (il est archi simplifié, mais permet d'éviter les erreurs 404 qu'on aurait en son absence.) Dan Lien vers le commentaire Partager sur d’autres sites More sharing options...
Jeanluc Posté 26 Juin 2006 Partager Posté 26 Juin 2006 Et si tu as des doutes quant-à la syntaxe, tu peux toujours regarder le fichier robots.txt de n'importe quel site... ... sauf que, sur un site sur deux, le robots.txt, n'est pas conforme au standard ou est rempli de lignes inutiles, obsolètes ou néfastes. Par contre, pour le robots.txt du Hub, il n'y a rien à redire: il est court et parfait ! Jean-Luc Lien vers le commentaire Partager sur d’autres sites More sharing options...
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant