TrocWeb Posted September 24, 2007 Posted September 24, 2007 (edited) Bonjour une question me reste sans réponse (ou un floue) la commande User-Agent: * Disallow: du robots.txt permet a tous les robots de récolter des informations ? ou faut-il préciser des commandes supplémentaires ? Pour justement autorisé ou appeler ces robots à indexer mes pages ? Cordialement TrocWeb Edited September 24, 2007 by TrocWeb
captain_torche Posted September 24, 2007 Posted September 24, 2007 Logiquement, la commande "User-Agent : *" s'adresse à tous les robots (l'étoile est un joker). La ligne "Disallow : ", n'interdit ... rien (vu qu'il n'y a rien derrière les deux points). Ton robots.txt est correct.
TrocWeb Posted September 24, 2007 Author Posted September 24, 2007 Merci pour votre réponse rapide TrocWeb
Recommended Posts
Please sign in to comment
You will be able to leave a comment after signing in
Sign In Now