Jump to content

Recommended Posts

Posted (edited)

Bonjour

une question me reste sans réponse (ou un floue)

la commande

User-Agent: *

Disallow:

du robots.txt permet a tous les robots de récolter des informations ?

ou faut-il préciser des commandes supplémentaires ? Pour justement autorisé ou appeler ces robots à indexer mes pages ?

Cordialement

TrocWeb

Edited by TrocWeb
Posted

Logiquement, la commande "User-Agent : *" s'adresse à tous les robots (l'étoile est un joker).

La ligne "Disallow : ", n'interdit ... rien (vu qu'il n'y a rien derrière les deux points).

Ton robots.txt est correct.

Please sign in to comment

You will be able to leave a comment after signing in



Sign In Now
×
×
  • Create New...