karnabal Posté 4 Juillet 2007 Partager Posté 4 Juillet 2007 Bonjour, Je souhaite savoir pourquoi, outre les cas de blacklistage, certains sites ne présentent aucune page en cache dans les moteurs de recherche. exemple : -http://www.ericcourt#de.com" (remplacer le # par a). Lien vers le commentaire Partager sur d’autres sites More sharing options...
sparh Posté 4 Juillet 2007 Partager Posté 4 Juillet 2007 Il y a une balise meta qui permet d'empêcher les robots de mettre la page en cache... mais elle est souvent utilisé par les tricheurs... Lien vers le commentaire Partager sur d’autres sites More sharing options...
karnabal Posté 5 Juillet 2007 Auteur Partager Posté 5 Juillet 2007 Je les ai bien parcourue, je ne vois pas où se trouve ladite meta. Peux-tu me dire quelle partie du code source est concernée ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
Théo B. Posté 5 Juillet 2007 Partager Posté 5 Juillet 2007 (modifié) Il a ça dans son robots.txt : User-Agent: *Disallow: / Son site n'est donc, normalement, pas indexé (?). Modifié 5 Juillet 2007 par Théo B. Lien vers le commentaire Partager sur d’autres sites More sharing options...
karnabal Posté 5 Juillet 2007 Auteur Partager Posté 5 Juillet 2007 Ah ! Je n'avais effectivement pas pensé au fichier robots.txt, ce n'est donc pas une indication située au niveau des pages. Merci. Lien vers le commentaire Partager sur d’autres sites More sharing options...
amauryk Posté 5 Juillet 2007 Partager Posté 5 Juillet 2007 tu peux même entrer ce genre de commande dans le .htaccess Lien vers le commentaire Partager sur d’autres sites More sharing options...
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant