Aller au contenu

Google propose de traiter les paramètres d'URL (? &)


slender

Sujets conseillés

Dans les webmaster's tools, il est maintenant possible de définir jusqu'à 15 paramètres d'URL trouvés par Google lors de ses crawls. Ces paramètres peuvent être configurés (ignorés ou acceptés) permettant une exploration plus efficace et une réduction des duplicates. A lire ici ou dans vos tools à la rubrique paramètres.

Lien vers le commentaire
Partager sur d’autres sites

Oui, c'est bien, on va pouvoir traquer les clics sur les liens publicitaires avec des paramètres par exemple, en générant une autre adresse mais sans qu'elle soit une nouvelle page pour Google.

Vous allez dire que je suis inquiet mais je me demande si le lien sera pris en compte comme s'il était fait directement vers la page officielle, si la balise meta rel="canonical" sur la page officielle n'est pas une méthode plus simple, et si en fin de compte, google ne nous demande pas faire son travail à sa place pour nettoyer son index sans trop se fatiguer...

Lien vers le commentaire
Partager sur d’autres sites

C'est clair que, pour Google, cela permet d'éviter des crawls inutiles. Pour le webmaster, c'est autant d'économisé en trafic, ce que ne permet pas de faire rel="canonical" (puisque, avec cette meta, il faut quand même venir lire la page).

L'idée est excellente, sauf que c'est spécifique à Google. Une solution plus universelle serait de passer par robots.txt pour donner ce genre d'info, par exemple, via une nouvelle directive qui pourrait être "SkipQuery: userid".

Jean-Luc

Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...