Aller au contenu

Remi

Hubmaster
  • Compteur de contenus

    936
  • Inscrit(e) le

  • Dernière visite

Messages postés par Remi

  1. Gagné...

    Je n'ai regardé qu'une dizaine de pages mais j'ai déjà trouvé deux trucs à moi (et c'est pompé sur un site où j'ai clairement exposé les conditions de ré-utilisation). :evil:

    Bon, je vais te donner les adresses en privé mais j'attends un peu, parce que si tu es black-listé par Google, je ne suis pas certain d'être intéressé par un lien vers mon site. :P

  2. Regardez le tableau comparatif de janvier à février sur le nombre de liens provenant de moteurs de recherche :

    Tu parlais de 80% de ton trafic en provenance de Google Images.

    Dans le tableau de janvier, je vois en gros 5%. :unsure:

    Ton problème me semble surtout être sur le Google normal.

    Mais bon, si j'ai bien compris :

    Tu as eu 9 heures où le site ne répondait pas du tout,

    suivi d'un ou deux jours où tu renvoyais gaiement une 404 aux demandes,

    et tu serais totalement tombé à cause de cela ?

    C'est possible sur le Google normal (parce là le robot en 2 jours peut avoir lu une très grosse partie du site) mais cela m'étonne un peu.

    En tous cas, ce n'est pas l'indisponibilité seule qui a fait tant de mal, ce seraient plutôt les 404.

    Dans tous les cas, il faut attendre à mon avis.

    Sinon, sur les photos, Arlette a raison.

    (je vais regarder si je trouve des photos à moi... ;) )

  3. Sans vouloir jouer l'oiseau de mauvaise augure, s'il s'agit bien de Google Images, il me semble que c'est beaucoup plus aléatoire que cela et les temps de réaction sont plus longs.

    D'ailleurs, cela m'étonne un peu que 2 jrs de 404 te fasse sortir instantanément de Google Images.

    Tu as l'habitude de voir le robot images tous les jours ?

    Et si oui, il aurait essayé de tout lire en 2 jours ??

    D'autant plus que si c'était une panne SQL, les accès direct aux images devaient être up...

  4. Comment as-tu fait pour déterminer cela avec tant de précision ?

    En regardant sur un site qui publie régulièrement quelles pages ont un PR affiché...

    Ce n'est bien entendu pas "précis" mais cela donne une idée. Il y a encore 2 ou 3 ans, le gap était d'un mois ou deux. Cela pousse à croire que le PR que Google affiche est de plus en plus ancien.

    En tous cas, les mises à jour de PR, ce n'est plus ce que c'était...

    Il fut un temps où ça mettait de l'ambiance. C'était le bon temps... :P

  5. Il y a tout de même des bots qui "inventent" des urls mais c'est vrai que Google ne le fait pas, Yahoo avait toutefois un truc casse-pieds pour détecter les rewritings qui ratissent trop large mais je ne sais pas s'il est toujours actif.

    A côté de cela, il y a tout un tas de bots bizarres, c'est toujours difficile de savoir si c'est un bot qui part en figure libre, une tentative de hack, un testeur de retour sur les fausses urls... Leur passe-temps favori semble être de mélanger les répertoires et de tester des urls du style (fr/fr/fr/fr/fr/fr/nomdelapage.htm). Je ne sais pas trop quel est le but recherché...

  6. Le problème dure depuis 20 jours déjà, je doute que cela se résolve sans aucune action

    Si... je crois que cela va se résoudre tout seul.

    C'est déjà arrivé ce genre de choses, même de façon localisée.

    Ils doivent avoir des sortes de cache pour leurs résolutions DNS et de temps en temps il y a un raté, un vieux remonte à la surface mais il finira par disparaître.

  7. Tu es sûr de toi là ? Parce dans ton adresse, on a 3 profondeurs de sous-domaines : www sous-domaine de fr sous-domaine de sousdomaine, sous-domaine de monsite.

    Je ne pense pas qu'il y ait des niveaux dans les sous-domaines car un sous-domaine est une ligne dans les DNS : le sous-domaine est résolu en bloc qu'il y ait des points dedans ou pas.

    Dans cet esprit, il est sans doute préférable de faire un fr.sousdomaine.domaine que fr-sousdomaine.domaine qui a le défaut de complexifier.

    (ceci dit, les deux sont trop compliqués, mais ça c'est une question de choix... :P )

  8. Est ce normal qu'un nom de domaine soit enregistré au nom d'une personne et qu'il ne puisse pas y accéder ?

    Oui, il y a un cas où cela se produit.

    Si on ne renouvelle pas un NDD, il y a un certain nombre de jours (généralement 30+30+7) où le NDD reste enregistré à notre nom sans que que l'on puisse y accéder (du moins sans mettre une liasse sur la table...)

    Il faut regarder le "status" du NDD pour voir si c'est le cas.

  9. (n'est-il pas vrai que pour une même version il y ait plusieurs... version ?!).

    IE est le seul navigateur à ne pas incrémenter le sous-numéro de version à chaque mise à jour... à part IE5, pour lequel il y avait de grosses différences entre 5.0/5.1 et 5.5 (et beaucoup de différences entre IE5 PC et IE5 Mac)(heureusement tout cela est de l'histoire ancienne). Il n'y a donc officiellement qu'un seul 6, un seul 7, un seul 8. A ma connaissance, il n'y a pas de différences de rendu pour une même version.

  10. - Votre comptable a raison de vous conseiller l'adhésion à un CGA: pour la réduction d'imposition .... et pour le risque moindre de contrôle fiscal.

    Mmmh... la réduction d'imposition, au dessus de 34000, on n'y a pas droit...

    (du moins, pour moi qui suis en libéral, c'est ainsi)

    Il n'empêche que l'adhésion à un CGA est une bonne chose. On est sûr que tout sera bien fait.

  11. Le taux de rebond n'est intéressant à surveiller que pour certains types de sites. De plus en plus, on apprécie de tomber directement sur la page désirée. Je suppose d'ailleurs que Wikipedia a un très fort taux de rebond.

    Quant au temps moyen passé sur le site, la donnée n'est pas mesurable quand le visiteur ne visite qu'une page. Globalement, c'est un indicateur qui est amusant mais qui ne sert pas à grand chose. Le nombre moyen de pages lues est plus intéressant, mais là aussi tout dépend du type de site.

  12. Je crois que tu peux oublier AwStats.

    Il est communément admis que les solutions reposant sur l'analyse des log sont globalement beaucoup trop généreuses par rapport aux solutions basées sur les marqueurs tel que Google Analytics.

    C'est peut-être vrai pour l'utilisateur qui ne veut pas se casser la tête et utiliser un système tout prêt.

    Un AwStats correctement paramétré est aussi fiable et il permet de *tout* analyser...

  13. Ce n'est pas vraiment les blocs positionnés en absolute qui sont en cause.

    C'est en réalité toute la masse de Javascript. Les liens sur les vidéos sont créés par le JS, tout comme l'apparition des commentaires. Debugger le JS/Ajax est assez long...

    Il faudrait déjà voir si le système utilisé est censé marcher sur autre chose que IE, s'ils n'utilisent pas des fonctions spécifiques à IE (on voit encore des choses comme ça...) :blush:

  14. Je n'ai pas dit qu'il ne faut pas mettre de robots.txt...

    Je tentais d'expliquer pourquoi beaucoup de sites n'en ont toujours pas : parce que pour eux, l'intérêt est quasi-nul.

    Même pour nous, on peut se poser des questions...

    Cacher un répertoire non-linké (genre archives), c'est évident qu'il faut éviter...

    A une époque, on l'utilisait pour bloquer certains robots. Mais maintenant, ils sont si nombreux...

×
×
  • Créer...