TrocWeb Posté 24 Septembre 2007 Partager Posté 24 Septembre 2007 (modifié) Bonjour une question me reste sans réponse (ou un floue) la commande User-Agent: * Disallow: du robots.txt permet a tous les robots de récolter des informations ? ou faut-il préciser des commandes supplémentaires ? Pour justement autorisé ou appeler ces robots à indexer mes pages ? Cordialement TrocWeb Modifié 24 Septembre 2007 par TrocWeb Lien vers le commentaire Partager sur d’autres sites More sharing options...
captain_torche Posté 24 Septembre 2007 Partager Posté 24 Septembre 2007 Logiquement, la commande "User-Agent : *" s'adresse à tous les robots (l'étoile est un joker). La ligne "Disallow : ", n'interdit ... rien (vu qu'il n'y a rien derrière les deux points). Ton robots.txt est correct. Lien vers le commentaire Partager sur d’autres sites More sharing options...
TrocWeb Posté 24 Septembre 2007 Auteur Partager Posté 24 Septembre 2007 Merci pour votre réponse rapide TrocWeb Lien vers le commentaire Partager sur d’autres sites More sharing options...
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant