Aller au contenu

Remi

Hubmaster
  • Compteur de contenus

    936
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Remi

  1. Gagné... Je n'ai regardé qu'une dizaine de pages mais j'ai déjà trouvé deux trucs à moi (et c'est pompé sur un site où j'ai clairement exposé les conditions de ré-utilisation). Bon, je vais te donner les adresses en privé mais j'attends un peu, parce que si tu es black-listé par Google, je ne suis pas certain d'être intéressé par un lien vers mon site.
  2. Tu parlais de 80% de ton trafic en provenance de Google Images. Dans le tableau de janvier, je vois en gros 5%. Ton problème me semble surtout être sur le Google normal. Mais bon, si j'ai bien compris : Tu as eu 9 heures où le site ne répondait pas du tout, suivi d'un ou deux jours où tu renvoyais gaiement une 404 aux demandes, et tu serais totalement tombé à cause de cela ? C'est possible sur le Google normal (parce là le robot en 2 jours peut avoir lu une très grosse partie du site) mais cela m'étonne un peu. En tous cas, ce n'est pas l'indisponibilité seule qui a fait tant de mal, ce seraient plutôt les 404. Dans tous les cas, il faut attendre à mon avis. Sinon, sur les photos, Arlette a raison. (je vais regarder si je trouve des photos à moi... )
  3. Sans vouloir jouer l'oiseau de mauvaise augure, s'il s'agit bien de Google Images, il me semble que c'est beaucoup plus aléatoire que cela et les temps de réaction sont plus longs. D'ailleurs, cela m'étonne un peu que 2 jrs de 404 te fasse sortir instantanément de Google Images. Tu as l'habitude de voir le robot images tous les jours ? Et si oui, il aurait essayé de tout lire en 2 jours ?? D'autant plus que si c'était une panne SQL, les accès direct aux images devaient être up...
  4. C'est effectivement l'un des trucs les plus désagréables du net : tu veux voir un site et y'a un espèce de machin hideux qui vient t'en empêcher...
  5. Tu peux utiliser par exemple n'importe quel blog (on a les dates de parution), de préférence avec un bon PR (6 ou +) pour être sûr...
  6. En regardant sur un site qui publie régulièrement quelles pages ont un PR affiché... Ce n'est bien entendu pas "précis" mais cela donne une idée. Il y a encore 2 ou 3 ans, le gap était d'un mois ou deux. Cela pousse à croire que le PR que Google affiche est de plus en plus ancien. En tous cas, les mises à jour de PR, ce n'est plus ce que c'était... Il fut un temps où ça mettait de l'ambiance. C'était le bon temps...
  7. Le PR affiché est toujours assez ancien. D'après mes observations, celui qui vient de s'afficher daterait d'il y a 6 mois ! C'est l'une des raisons pour laquelle il ne faut pas trop chercher de lien avec une variation récente de trafic.
  8. Merci pour l'info... Moi, ça a pas mal bougé.
  9. Il y a tout de même des bots qui "inventent" des urls mais c'est vrai que Google ne le fait pas, Yahoo avait toutefois un truc casse-pieds pour détecter les rewritings qui ratissent trop large mais je ne sais pas s'il est toujours actif. A côté de cela, il y a tout un tas de bots bizarres, c'est toujours difficile de savoir si c'est un bot qui part en figure libre, une tentative de hack, un testeur de retour sur les fausses urls... Leur passe-temps favori semble être de mélanger les répertoires et de tester des urls du style (fr/fr/fr/fr/fr/fr/nomdelapage.htm). Je ne sais pas trop quel est le but recherché...
  10. Sur 200 000 fans ( ), c'est sans doute normal qu'il y en ait un certain nombre qui se désinscrivent chaque jour. Le pourcentage est très faible.
  11. Si... je crois que cela va se résoudre tout seul. C'est déjà arrivé ce genre de choses, même de façon localisée. Ils doivent avoir des sortes de cache pour leurs résolutions DNS et de temps en temps il y a un raté, un vieux remonte à la surface mais il finira par disparaître.
  12. Je ne pense pas qu'il y ait des niveaux dans les sous-domaines car un sous-domaine est une ligne dans les DNS : le sous-domaine est résolu en bloc qu'il y ait des points dedans ou pas. Dans cet esprit, il est sans doute préférable de faire un fr.sousdomaine.domaine que fr-sousdomaine.domaine qui a le défaut de complexifier. (ceci dit, les deux sont trop compliqués, mais ça c'est une question de choix... )
  13. Oui, il y a un cas où cela se produit. Si on ne renouvelle pas un NDD, il y a un certain nombre de jours (généralement 30+30+7) où le NDD reste enregistré à notre nom sans que que l'on puisse y accéder (du moins sans mettre une liasse sur la table...) Il faut regarder le "status" du NDD pour voir si c'est le cas.
  14. Une petite remarque en passant : même si j'ai bien compris que ce n'était pas ce que tu recherchais, AWStats peut très bien tenir compte des paramètres de l'URL après le ? C'est dans le fichier de configuration : il suffit de mettre à ON l'option. Ces outils de statistiques, tout est dans le paramétrage...
  15. IE est le seul navigateur à ne pas incrémenter le sous-numéro de version à chaque mise à jour... à part IE5, pour lequel il y avait de grosses différences entre 5.0/5.1 et 5.5 (et beaucoup de différences entre IE5 PC et IE5 Mac)(heureusement tout cela est de l'histoire ancienne). Il n'y a donc officiellement qu'un seul 6, un seul 7, un seul 8. A ma connaissance, il n'y a pas de différences de rendu pour une même version.
  16. Oups, effectivement j'ai confondu avec la réduction pour frais de compta. J'avais euh... complètement oublié que, grâce à l'adhésion à une AGA, on avait une base non majorée. Désolé...
  17. Mmmh... la réduction d'imposition, au dessus de 34000, on n'y a pas droit... (du moins, pour moi qui suis en libéral, c'est ainsi) Il n'empêche que l'adhésion à un CGA est une bonne chose. On est sûr que tout sera bien fait.
  18. Qu'est ce que vous montre Google Analytics que l'on ne peut pas voir avec Awstats ?
  19. Le taux de rebond n'est intéressant à surveiller que pour certains types de sites. De plus en plus, on apprécie de tomber directement sur la page désirée. Je suppose d'ailleurs que Wikipedia a un très fort taux de rebond. Quant au temps moyen passé sur le site, la donnée n'est pas mesurable quand le visiteur ne visite qu'une page. Globalement, c'est un indicateur qui est amusant mais qui ne sert pas à grand chose. Le nombre moyen de pages lues est plus intéressant, mais là aussi tout dépend du type de site.
  20. IE8 permet d'émuler IE7 (accès par F12) et pour IE6, moi je garde un portable en IE6... ;-) Ceci dit IE6 est tombé à 5% environ.
  21. C'est peut-être vrai pour l'utilisateur qui ne veut pas se casser la tête et utiliser un système tout prêt. Un AwStats correctement paramétré est aussi fiable et il permet de *tout* analyser...
  22. Ce n'est pas vraiment les blocs positionnés en absolute qui sont en cause. C'est en réalité toute la masse de Javascript. Les liens sur les vidéos sont créés par le JS, tout comme l'apparition des commentaires. Debugger le JS/Ajax est assez long... Il faudrait déjà voir si le système utilisé est censé marcher sur autre chose que IE, s'ils n'utilisent pas des fonctions spécifiques à IE (on voit encore des choses comme ça...)
  23. On ne sait pas où se situe l'action... J'aime beaucoup le : Il faut un plugin pour savoir
  24. Je n'ai pas dit qu'il ne faut pas mettre de robots.txt... Je tentais d'expliquer pourquoi beaucoup de sites n'en ont toujours pas : parce que pour eux, l'intérêt est quasi-nul. Même pour nous, on peut se poser des questions... Cacher un répertoire non-linké (genre archives), c'est évident qu'il faut éviter... A une époque, on l'utilisait pour bloquer certains robots. Mais maintenant, ils sont si nombreux...
×
×
  • Créer...