Aller au contenu

dbourrion

Membre
  • Compteur de contenus

    2
  • Inscrit(e) le

  • Dernière visite

Réputation sur la communauté

0 Neutre
  1. Merci pour vos réponses et suggestions. L'arborescence d'exposition est là : http://catalogue.univ-angers.fr/OPD01/ Quelque chose m'échappe : avant d'exporter tout notre catalogue (les bots ne peuvent y entrer, il faut que nous sortions les notices), nous avions fait cette opération sur un sous-ensemble de notre catalogue (5% environ) qui a été lui immédiatement "scanné" dans son entier. Pourquoi est-ce que cela ne marche pas avec un volume plus important ? Pour la popularité, elle ne peut pas être importante puisque ces données apparaissent seulement au grand jour maintenant.
  2. Bonjour à toutes et tous. Je travaille dans une Bu et nous avons exporté tout notre catalogue (un catalogue de bibliothèque n'est en général pas crawlable) en une arborescence web que les bots peuvent crawler, justement. Ce catalogue est là : http://catalogue.univ-angers.fr/ Cette arborescence est exposée sur un serveur apache, avec un sitemap propre et ok selon Google Webmasters Tools. Et les bots Googe ont bien trouvé et le sitemap, et l'arborescence, puisqu'ils indexent les pages en question. Mais (car il y a un mais) seule une toute petite part de l'arborescence a été indexée (17000 URLs là où nous en exposons 400000), d'une part ; et les bots passent très rarement, d'autre part (les statistiques de Google Webmasters Tools montrent une activité très très pépère de la part des bots). Donc (vous me voyez venir) : comment puis-je faire pour accélérer la cadence et donner un peu de coeur à l'ouvrage aux bots ? Merci par avance de votre aide et de vos conseils.
×
×
  • Créer...