Aller au contenu

Chercher dans la communauté

Affichage du résultat pour les tags 'crawl'.



Plus d'options de recherche

  • Rechercher par étiquette

    Saisir les étiquettes en les séparant par une virgule.
  • Recherche par auteur

Type du contenu


Forums

  • Le coin des fondateurs (accès restreint)
  • Accueil
    • Annonces de Webmaster Hub
    • Webmaster Hub se présente
    • Les nouveaux membres se présentent
    • Revues de presse
    • Le salon de Webmaster Hub
    • La tribune de Webmaster Hub
  • Publications et Redirections
    • Référencement et Publicité
    • Droit, Finances et Administration
    • Les techniques de l'Internet
    • Noms de domaines et hébergement
    • La tribune du Hub
  • Création et exploitation de Sites Internet
    • Les langages du Net
    • Les fondations d'un site
    • Accessibilité et Ergonomie Web
    • E-commerce
    • Administration & Droit
    • Systèmes de publication
  • Promotion de Sites Internet
    • Techniques de Référencement
    • Techniques de Promotion
  • Informatique & Internet
    • PC-Gyver
    • Les Navigateurs
  • Les services de Webmaster Hub
    • Infogérance serveurs dédiés
    • Partenariat et échanges de liens
    • Offres et demandes de prestations de service

Blogs

  • Dan's Blog
  • Blog de Webadev
  • Toulouzheing
  • Phoblog
  • boutiques
  • KaRaK
  • Nicolas Blog
  • Americas - Info
  • Spidetra Blog
  • Rat de bibliothèque
  • Une bonne blog... de Bourinho
  • Blog e-Business et Emarketing
  • La piscine
  • Vincent
  • Blog de Georges
  • Dessiner le web
  • Web shopping
  • Toulouse
  • Webmarketing, what else ?
  • SpeedAirMan's blog
  • Le Blog de Dadou
  • illustration et delires graphiques d'un infographiste...
  • paolo
  • CQJD News
  • magie

Calendriers

  • Calendrier du Hub

3 résultats trouvés

  1. bonjour on peut renvoyer des 304 à Google, connaissez vous un bon tuto fiable d'implémentation : par ex : comment faire pour que la 304 ne soit renvoyé qu'au robot et pas aux clients, quelles sont les méthodes de détection que l'on peut mette en place pour detecter qu'un contenu n'a pas été modifié. Toutes vos bonnes pistes sont les bienvenues ? Merci
  2. bonjour je dois débrancher une partie d'un catalogue d'albums de musique pendant 2 jours pour raison technique: cela représente environ 350 000 fiches d'albums. Je crois qu'il faut renvoyer une 503 au crawlers pendant cette phase technique. Je me demande si ces 503 ne risquent pas d'affecter les autres fiches (au moins autant) qui réponde elles bien en 200. en gros est ce que le crawler après avoir exploré un certain nombre de 503 ne risque pas de passer son chemin au dépend des pages qui répondent bien ? Merci à tous
  3. http 304

    bonjour, avez vous déjà généralisé l'envoi aux crawlers des moteurs de recherche un code http 304 pour les contenus qui n'avaient pas été modifiés ? N'y a t-il pas un risque de ne plus être crawlé ? (cela pourrait aussi être une façon de cloaker les moteurs ?) Faut-il assortir le dispositif d'autres mécanismes ? Merci à tous les pros du forum !
×