Aller au contenu

zapman

Hubmaster
  • Compteur de contenus

    221
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par zapman

  1. Après un an de tests auprès d'une petite centaine d'utilisateurs, nous venons de mettre en ligne la version 1.0 de RankSpirit. Ce logiciel d'analyse d'audience fonctionne selon une logique proche de celle des outils existants, mais présente aussi quelques particularités techniques : - le journal des visites n'est pas enregistré sur un serveur étranger au site, mais sur le site lui-même. Cela permet d'éviter les ralentissements provoqués par l'indisponibilité momentanée d'un site externe. - RankSpirit est un logiciel conçu pour fonctionner sur le poste de l'utilisateur. La consultation des données ne se fait donc pas en ligne, mais "off line", ce qui peut être considéré comme un avantage ou comme un inconvénient selon vos besoins. - Les données sont consultables en temps réel. - Ce programme peut être transporté et utilisé sur une clef USB. Les besoins des différents webmasters sont très variables d'un site à l'autre. RankSpirit ne prétend pas être une solution "universelle" qui conviendrait à tous. - Il est optimisé pour les sites à fréquentation basse ou moyenne (moins de 2000 visiteurs uniques/jour) - Il offre une grande simplicité d'utilisation et une extrême simplicité de mise en place (l'installation est entièrement automatisée et ne prend que quelques minutes) - Il est conçu pour les webmasters souhaitant un suivi très précis des parcours des visiteurs (on peut suivre jusqu'aux parcours individuels) - Il permet de travailler sur n'importe quelle période (on entre les dates de début et de fin) - Il est utilisable sur un site HTML - il n'offre pas, pour le moment, la possibilité de découper les stats en "chapitres" L'utilisateur type de ce produit est donc le webmaster débutant qui a besoin d'un produit simple à utiliser mais d'une grande précision pour suivre le démarrage de son site. RankSpirit ne s'adresse pas vraiment, pour le moment, aux sites comportant des milliers de pages et recevant des dizaines de milliers de visiteurs/jours. Les thèmes de présentation des données sont les suivants : - Pays (géolocalisation) - Equipements des internautes (navigateurs, OS et écrans) - Liens et moteurs (visites des robots, referrers et mots clés utilisés lors des recherches) - Graphique (nbre de pages vues, de visiteurs, de visites et de visites significatives) - Heures des visites - Pages (pages d'entrée, de sortie et durées moyennes sur chaque page) - Parcours type (pour chaque page) - Parcours individuels (en faisant un clic droit sur n'importe quel tableau de données) La version de demo est entièrement opérationnelle et peut être utilisée sans restriction pendant 3 mois. Les utilisateurs qui participent activement à son amélioration (suggestion ou debuggage) se voient proposer une licence gratuite. J'essaye d'être extrèmement réactif aux mails des utilisateurs. N'hésitez pas à me faire part de toutes vos remarques. Les liens : - Présentation générale et téléchargement - Comment ça marche - Les "Plus" - La "FAQ"
  2. "Hasard" est le nom que nous donnons aux choses que nous ne savons pas encore expliquer J'ai bonne espoir de réduire la part que nous attribuons au hasard dans la façon dont Google gère le Duplicate Content. Mais il reste encore du boulot ! La prochaine série de pages comprendra des modifications dans le début du texte plutôt que vers la fin. Puisque l'hypothèse des "coefficients de similarité" ne résiste pas à l'expérimentation, il faut vérifier si Google ne se contente pas d'examiner le début des pages et s'il ne prend pas sa "décision" au bout de X caractères. Je suis content que ce sujet revienne sur le tapis, car j'aurais bien besoin de l'aide de quelques autres membres du Hub pour faire d'autres tests de recherches. Le mot-clé est "akurb1tz" (avec un i à la place du 1). Personnellement, je ne suis pas sûr d'avoir parfaitement interprêté tous les résultats donnés dans ma "page de résultats" Vos suggestions seraient bienvenues !
  3. Je le trouve très bien, en ce qui me concerne. Tu as su éviter toutes les erreurs classiques des débutants. Je n'ai rien vu qui pourrait poser problème pour son indexation et son interface est sobre et claire comme je les aime. Bravo ! Continue à t'inscrire dans des annuaires, développe tes échanges de liens et utilise tous les supports papier de la société pour promouvoir le site avec une petite phrase du genre "Visitez notre site Web : http://www......"
  4. Voilà ce que dit la théorie : 1- Noindex et nofollow sont deux ordres distincts qui devraient avoir des effets distincts. Le premier interdit l'indexation de la page, le second demande aux robots de ne pas suivre les liens contenus dans la page. 2- L'ordre "none" équivaut à "noindex nofollow" 3- "index" et "follow" ne sont pas des ordres normalisés. Par défaut, les robots considèrent qu'ils peuvent indexer et suivre les liens de la page. Ces deux ordres sont donc inutiles et sans effet 4- dans le même esprit, l'ordre "all" est lui aussi inutile et sans effet Je ne pourrais pas jurer que Google suit cette théorie à la lettre, mais il me semble que Laurent n'a pas trop le choix : sa priorité est de ne pas voir certaines pages indexées. L'ordre "noindex" répond bien à cette priorité.
  5. Seul le fou est sûr de lui. Je vais donc être fou et te répondre oui. Mais que vaut le "oui" d'un fou ?
  6. Tout d'abord, bravo pour l'exposé particulièrement clair de ton problème. C'est l'option <META NAME="Robots" CONTENT="noindex"> que tu devras choisir pour tes pages "version partenaire" Une autre option, qui fonctionnerait également très bien, consisterait à lister l'ensemble de tes pages partenaires dans le fichier frobots.txt, mais personnellement, je préfère la première option. Quant à récupérer le PageRank de tes pages, c'est une autre affaire. La seule option que je vois, consiste à ajouter, sur chacune de tes pages partenaires, un lien vers sa page soeur. Ca ne te permettra pas de récupérer l'intégralité du PageRank, mais au moins une partie. Tu pourrais inclure à chaque fois un lien ayant la forme suivante : Voir la version originale de "titre de la page" Dans l'idéal, ce lien devrait être placé assez haut dans ta page partenaire.
  7. Si tu n'as pas le temps ou l'envie de passer plus de quelques heures à référencer ton site, les services dont tu parles valent mieux que rien. Mais si tu es prêt à te retrousser les manches et a t'y mettre pour de bon, tu obtiendras de bien meilleurs résultats en t'inscrivant toi-même dans des annuaires que tu auras sélectionné et en sollicitant des échanges de liens avec d'autres webmasters. Je vais me faire un peu de promo en citant 2 de mes pages qui devraient t'aider : - L'inscription dans les annuaires - Comment établir ses échanges de liens Dans tous les cas, accepte l'idée que référencer un site demande un gros boulot. Ca peut prendre des mois de travail intensif si tu veux vraiment faire ça à fond et construire un site à succès, mais tout dépend de ton ambition et du secteur sur lequel tu cherches à te positionner. La lecture du Hub et de ses publications (http://www.webmaster-hub.com/publication/) est parfaite pour commencer à comprendre les règles du jeu. Allez, courage !
  8. Liste de listes d'annuaires anglophones La plupart sont américains, mais je crois que la dernière liste comporte aussi quelques annuaires anglais.
  9. Absolument ! Et la réponse est on ne peut plus claire : certaines pages qui ne présentent qu'une concordance de 40% à 50% avec la page d'origine semblent tomber dans le filtre alors que d'autres qui ont une concordance de 80% à 90% y échappent. Accessoirement, cette expérimentation semble également répondre à une question de Modibo sur L'ordre de suivi des liens, je m'explique : - toutes les pages dupliquées se pointent les une les autres à l'aide d'une liste de liens, identique sur toutes les pages - l'ordre des liens figurant dans cette liste est le suivant : de la page 90% à la page 40% - dans les résultats, les pages 90% et 80% semblent échapper au filtre, alors que toutes autres tombent dedans (on s'attendrais plutôt à ce que ce soient les pages 40%, 50% et 60% qui s'en sortent !) - j'en déduis (peut-être à tort ?) que les premiers liens de cette liste ont plus de poids que les derniers, ce qui fait que les pages 90% et 80% récupèrent un PageRank (ou quelque chose d'approchant) plus fort que les suivantes, ce qui fait que ces pages sont celles que Google et MSN retiennent. Merci, Yep, pour tes remarques qui m'ont permis d'améliorer la clarté de mon article. Rien ne vaut un oeil extérieur pour détecter les imprécisions.
  10. J'ai fait une page résumant tout ce que j'ai pu trouver sur le Duplicate Content. D'autre part, j'ai créé une série de 14 pages destinées à expérimenter ce phénomène et à vérifier ou infirmer les rumeurs qui courrent à son sujet. Tout ça est encore très récent et je n'ai pas encore effectué une analyse fine des résultats (dont certains semblent difficiles à interpréter). Pour le moment, je peux au moins affirmer que : - le pourcentage de 70% de ressemblance, souvent cité comme "limite" pour déclencher le Duplicate Content ne repose sur aucun fondement est n'est absolument pas vérifié par l'expérimentation - l'individualisation des balises <TITLE> et <DESCRIPTION> est absolument capitale pour éviter le duplicate content. - en cas de duplicate content, les pages ayant le plus de backlinks sont celles qui sont finalement retenues par Google et MSN. >>> Page d'expérimentation du Duplicate Content <<<
  11. Pour ma part, je doute fort que les blacklistages soient tous manuels comme tu le dis plus haut. Je pense que la plupart sont automatiques. En regardant ton code, je me demande si les liens du type : <a class="txt" href="./recherche-Hôtels-Gites.html">..</a> n'ont pas été considérés comme des liens cachés. Pour peu que les bots de Google gère les points et les > comme des espaces, ils peuvent considérer que ta page est bourrée de liens cachés. C'est peut-être une théorie stupide, je ne sais pas. En attendant, il serait bien que tu réussisses à obtenir quelques bons backlinks supplémentaires, en provenance de sites "sérieux". J'ai des exemples qui montrent que ça aide toujours en cas de crise. Par ailleurs, je pense que plus tu parviens à augmenter ton trafic, plus tu auras de chance de sortir rapidement de la sandbox. Bonne chance, en tout cas.
  12. Qu'entends-tu par là ? Sur le fond, le fait que les moteurs ne prennent pas en compte les mêmes paramètres n'étonnera personne. Plusieurs posts de ce forum on déja signalé que Google se fichait de la balise title pour le classement des pages (même s'il l'utilise bel et bien dans la présentation des résultats de recherche). Que Yahoo fasse la même chose n'est donc pas surprenant. Pour le reste, j'appuis les propos de KaRaK à 100% concernant Google : soumission inutile, backlinks indispensables.
  13. Pleinement d'accord avec Americas : je ne crois pas trop à un référencement de qualité en "pack" fonctionnant à la manière d'une baguette magique. Tant qu'à dépenser de l'argent pour ça, choisit un référenceur qui te fera un travail personnalisé.
  14. C'est justement parce que cette belle théorie n'est pas (et ne sera jamais) tout à fait respectée que Google a mis en place le principe de l'URL canonique. Que ce soit par la faute des hackers ou par la simple maladresse de certains webmasters, les duplicatas de pages existeront toujours.
  15. Dans le premier cas que tu décrit, il y a une similitude de 100% entre 2 pages. Dans le deuxième cas, il y a "une certaine similitude" entre 2 pages. Le terme de Duplicate Content est couramment utilisé dans les 2 cas et ne peut pas être qualifié d'"incorrect" dans un cas ou dans l'autre. Après tout, sa traduction littérale correspond à "contenu dupliqué", et c'est bien de ça qu'il s'agit dans les deux cas. Cela dit, ta distinction est pleine d'intérêt car elle rappelle qu'on peut aboutir à un problème de Duplicate Content pour deux raisons bien distinctes. Le premier des cas que tu cites est associé au doux nom de "Canonical URL" ou "URL canonique". Annuaire-info consacre une page très intéressante à ce terme. En voici un petit extrait : Dans le deuxième cas que tu cites, tu dis : A ma connaissance, le fait que Google retire purement et simplement une page de l'index n'est jamais associé aux "pages similaires". Cela ne peut se produire que lorsque 2 pages sont absolument identiques et qu'il attribue une URL canonique à ce groupe de pages. En cas de pages similaires mais non identiques, Google va classer les doublons en "résultats complémentaires" : les pages sont toujours indexées mais ne figurent plus dans les résultats, sauf si on fait une recherche sur la partie de texte qu'elles sont seules à contenir. Je ne suis pas certain que ce problème soit plus facile à contourner que celui des URLs canoniques, car il peut arriver qu'un site à fort PR vole du contenu (recopie sans autorisation et sans citer sa source) à un site à faible PR, auquel cas Google va citer le voleur au lieu de citer l'auteur qui se retrouvera classé en "résultats complémentaires". Que peut faire la victime, dans ce cas ? Même lorsque le copieur cite sa source, il peut figurer dans les résultats à la place de l'auteur. Il est regrettable que Google ne gère pas ce type de problème qui semble pourtant simple à résoudre !
  16. Voici ce que nous dit GoogleGuy (18 aout 2004) Source : http://googleguy-fr.blogspot.com/2004/08/q...-100-liens.html
  17. Jusqu'au mois de février, mon site était construit de façon archi-classique, avec des tableaux. La première colonne (à gauche) comportait le menu du site, c'est à dire une longue liste de liens internes. En mars, j'ai utilisé les CSS pour ma mise en page. Du point de vue du visiteur, rien n'a changé, mais cela m'a permis de rejeter mes menus en fin de code. Du coup, le contenu original de mes pages et les liens externes qu'il propose, sont remonté dans le code de mes pages. Depuis début avril, mes positions dans Google sont monté d'un petit cran et ma fréquentation a grimpé de 15%. Comme toujours, en matière de référencement, il faut examiner chaque situation avec une immense prudence avant de conclure que telle cause produit tel effet. La hausse de mes fréquentations est peut-être due à d'autres facteurs que la refonte de mon code. D'autres témoignages viendront peut-être confirmer le mien. Mais si cette relation de cause à effet est confirmée, cela démontre que Google accorde bien un "poids" plus important aux débuts des pages qu'à leurs fins. J'ajoute un bémol à cette réflexion : sur le principe, nous ne sommes pas censé nous préoccuper de la façon dont les crawlers travaillent. Analyser correctement le code d'une page est LEUR problème, pas le notre (et je suis convaincu que Matt Cutts me donnerait raison !). Notre boulot devrait théoriquement se limiter à produire un code propre, léger et sans bug. La façon dont les crawlers de Google travaillent aujourd'hui ne sera peut-être pas la même demain. Vouloir suivre ces évolutions se révèlerait probablement épuisant. Si tu dois revoir ton code pour améliorer ton référencement, travaille d'abord sur sa propreté et sur sa cohérence et ne gaspille pas trop de temps à faire de l'optimisation sur la base de théories provisoires et quasi-impossibles à prouver
  18. Yahoo ? J'ai un doute... Il me semble que Voila est l'un des derniers à l'utiliser.
  19. Ouh lala ! Belle bévue en effet J'ai de la chance que le ridicule ne tue pas !! Je n'avais pas testé la dernière version de cette page sur FireFox/Mozilla et paf ! Ca prouve en tout cas que les propos qu'elle contient sont parfaitement justifiés Merci beaucoup pour cette remarque, Régis Pour l'avenir, tu retiendras qu'il faut faire ce que je dit, et pas ce que je fais
  20. RankSpirit est un petit nouveau sur le marché des stats. Il est encore en version beta et je doute qu'il y ait beaucoup de réponses venant d'utilisateurs puisqu'ils ne sont qu'une petite centaine pour le moment. La version 1.0 devrait être prête dans quelques semaines et fera l'objet d'une annonce officielle sur ce forum (elle est en phase de test actuellement). La taille des logs sur le FTP ne devrait jamais dépasser 1 ou 2 Mo, à moins d'avoir affaire à un site trés actif et dont le webmaster ne relève pas souvent les données. Au moment de cette "relève", le fichier log est recopié sur le disque dur du webmaster et effacé du FTP. L'écriture des logs ne peut provoquer qu'un infime ralentissement du serveur. Aucun système de stats ne peut de toute façon fonctionner sans une écriture des données observées dans un fichier quelconque ! La meilleure façon de savoir si ce logiciel te convient est de l'essayer ! (la version beta est parfaitement opérationnelle). Son utilisation est gratuite pendant 3 mois et son installation ne dure que quelques instants. Merci en tout cas pour ton intérêt. N'hésites pas à poser d'autres questions si tu en as.
  21. Faire valider ses pages par W3C Validator pour être sûr que le code ne contient pas d'erreur. La mauvaise gestion des accents fait partie des choses qui sont vérifiées par ce validateur de page. La propreté du code n'est pas la seule chose à vérifier pour être sûr que ton site soit référençable. Voici une petite liste des aspects techniques élémentaires à respecter. Par ailleurs, le forum Webmaster-Hub / Techniques de référencement te permettra d'en savoir beaucoup plus sur ce sujet.
  22. Bienvenue sur ce forum Le site que tu cite en exemple (rankspirit) est construit avec de simples tableaux et n'est géré qu'en partie par du CSS. La construction (mise en page) en tableau est simple à réaliser, mais elle n'est pas idéale. Une mise en page entièrement en CSS présenterait de nombreux avantages : - possibilité de faire évoluer la présentation sans devoir refaire toutes les pages - possibilité de proposer plusieurs présentation (au choix) aux visiteurs - possibilité de faire figurer tous les liens de l'index à la fin du code de la page (même s'il continue de s'afficher en haut et à gauche). Cela permettrait de modifier la façon dont les moteurs prennent en compte tous les liens qui figurent dans la page : les liens de l'index perdraient du "poids" par rapport aux liens qui figurent dans les articles (ce qui est souhaitable). Comme il a déjà été dit plus haut, le CSS est utilisable aussi bien en HTML qu'en XHTML. Pour en savoir un peu plus sur tout ça, je te conseille la visite du Site du zéro que je trouve excellent pour la découverte du (X)HTML et du CSS Question éditeur, je citerais aussi "Golive" qui fait partie des classiques. Tu devrais enregistrer l'adresse de ton site dont ton profil, cela nous permettrait d'aller y fair un tour
  23. A la place d'Yvan2, j'aurais mis : A lire : L'ensemble de ce forum Ta question, ludodoludujodu, est extrêmement vaste (sans doute plus que tu ne le supposes ) Commence par passer une dizaine d'heures à lire les posts de ce forum et les articles proposés dans les publications. Cela te permettra ensuite de poser des questions un peu plus précises auxquelles nous nous ferons tous une joie de répondre. Allez, courage !
  24. Ce qu'il y a de formidable avec ce genre de question, c'est qu'elles obligent à pousser la recherche plus loin. Je viens de passer plusieurs heures à chercher une confirmation de ces 70% que nous sommes nombreux à utiliser comme valeur de référence : rien du tout (ça me donne envie de faire des expérimentations par moi-même !). Le seul document que j'ai pu trouver qui parle de cette valeur est une étude rédigée par Mike Dahlin et ses élèves (Université du Texas) qui se contente de proposer cette valeur comme seuil de décision pour le Duplicate Content. Si quelqu'un trouve une expérimentation sur ce sujet, je suis preneur ! Tu as parfaitement raison. Il sagissait d'une coquille que j'ai corrigé. Merci ! Cela dit, le fait de mettre "true" ou "false" ne fait une différence que lorsqu'une page fait une redirection sur une autre page faisant une redirection. Un cas plutôt rare ! C'est fait. Merci ! Et merci à Jean-Luc pour son outil. J'ai ajouté un lien pour ça.
  25. Les scripts que j'ai font appel à des bases de données pour enregistrer les stats et ça fait un peu lourdingue à proposer dans cet article. APPEL A CANDIDATURE : Si quelqu'un a un script simplifié (voire même simpliste) qui enregistre les trâces des clic dans un fichier texte (tout ça en exploitant le "ON Click") ça serait cool.
×
×
  • Créer...