Aller au contenu

zapman

Hubmaster
  • Compteur de contenus

    221
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par zapman

  1. Excellentes remarques, Leonick ! J'ai ajouter l'URL et le titre de la page en début de texte, pour régler le point N°1 Je pense avoir aussi corrigé le problème des virgules. Peux-tu refaire un test ? Ou simplement me donner l'URL d'une page présentant ce type de problème ? Merci.
  2. Bonjour Mica67, Ce que tu essayes de faire n'est pas vraiment simple. Il va falloir t'accrocher ! Voilà quelques exemples et explications concernant les mises en page avec menus fixes : http://www.rankspirit.com/pseudo-frames/alan2_zapman2.htm Tu peux aussi télécharger les kits proposés sur la page http://www.rankspirit.com/kit-css-gratuit.php pour t'en inspirer ou pour les utiliser tels quels.
  3. Je viens d'ajouter un message dans le sujet épinglé qui concerne l'orthographe. Ca concerne un nouvel outil de vérification orthographique et grammaticale, dédié aux sites Web. Il s'agit d'une simple interface avec le vérificateur baptisé "Le Patron". Je trouve ce vérificateur excellent, mais il n'était pas adapté à la vérification de pages Web. J'ai proposé aux créateurs de "Le Patron" de construire une interface permettant d'utiliser leur système avec des pages Web. Ils ont accepté avec gentillesse et enthousiasme (c'est épatant comme les canadiens sont toujours sympas !) Cet outil est encore en version beta, merci de me donner vos avis. http://www.rankspirit.com/verif-ortho.php
  4. Je suis moi-même plutôt mauvais en orthographe et en grammaire. Ne trouvant pas l'outil dont j'avais besoin pour faire une vérification de tout mon site, j'ai créé une petite interface avec le système "Le Patron". Voilà : -> http://www.rankspirit.com/verif-ortho.php
  5. Comme Thick l'a déjà dit, les "champs sémantiques" établis par les moteurs sont radicalement différents du type de classement que propose les annuaires. Pour ce que l'on sait (et Cariboo pourrait sans doute être plus précis que moi), chaque mot est "plus ou moins" rattaché à plusieurs champs sémantiques. Dans ton exemple, "moto d'occasion" pourrait être à 100% dans "moto", à 30% dans "vehicule", à 100% dans "occasion", à 5% dans "échange", etc.. J'ai essayé de faire un petit topo simplifié de ce concept sur ma page SiteRank, TrustRank et sémantique Ce qu'il est important de comprendre, c'est que les théories qui pourraient permettre d'améliorer les classements grace à la sémantique ne manquent pas. Il en existe des centaines. Ce qui bloque aujourd'hui, c'est la puissance de calcul à mettre en oeuvre pour appliquer ces théories. Le moteur qui sortira vainqueur de ce challenge sera celui qui aura réussi à mettre en pratique une théorie vraiment efficace et peu gourmande en temps de calcul. En ce qui me concerne, et compte tenu de la pertinence de certains des résultats de Google, je suis absolument convaincu qu'il utilise déjà certaines techniques - peut-être simplistes - relevant de la sémantique pour améliorer ses classements. Et je suis tout aussi convaincu qu'il en utilisera de plus en plus. Si les échanges de liens "de même thématique" ne sont pas déjà importants, ils le seront de toute façon dans un avenir assez proche. Alors autant faire en sorte que ton classement des prochains mois ou des prochaines années reste un bon classement. Mais tout ça est très spéculatif. D'un point de vue pratique, je ne saurais dire mieux que Thick : "Rajoute un max de pages à contenu original et pertinent. Fais une campagne d'échanges de liens (pas d'inscription automatique dans les annuaires). Ce sont les seuls conseils que je peux donner à l'heure actuelle." Un bon contenu et des bons liens : il n'y a que ça de vrai !! [hors sujet] Montrer son site à sa copine est un très mauvais plan drague. Je te le déconseille [/hors sujet]
  6. D'accord, rien de vraiment nouveau dans tout ça. C'est juste que je n'avais envisagé la problématique sous l'angle du parcours que suivent les robots. C'est intéressant de garder cette idée en tête. J'ajoute à ta liste l'idée de construire une page "tête de chapitre" qui commence déjà à placer quelques mots clés dans un résumé des contenus proposés au visiteur, et qui renvoie sur toutes les pages dont la thématique encadre le ou les mots clés qu'on souhaite promouvoir. Si ce résumé est un texte original (non repris dans les pages présentées) et que cette page comporte quelques liens externes pointant vers des pages fortement connexes avec la thématique du chapitre on obtient un très bon positionnement de cette tête de chapitre qu'on pourrait également baptiser "page portail". Toutes les pages "phares" de mon site correspondent à cette description.
  7. Ho, ho... l'idée d'anticiper/gérer "le parcours du bot" éveille mon intérêt. Pourrais-tu préciser ce que tu entends par là ?
  8. Rôle : mettre en commun les données collectées (et éventuellement pré-traitées) par les différents "spiders" de Google But : homogénéïser les réponses des différents "Datacenters" Google à travers le monde Fonctionnement : on n'en sait pas grand chose dans le détail, cette opération est interne au réseau Google. Ce que cela peut m'apporter : un classement mis à jour Pendant la durée de la Google Dance, les différents datacenters peuvent délivrer des résultats différents. Avant décembre 2005, cette "Dance" n'avait lieu que tous les 2 à 3 mois. Depuis cette date, elle semble quasi permanente, mais il peut arriver, pendant l'espace de quelques heures, que 2 datacenters différents délivrent des résultats différents. Pour en savoir plus : La Google Dance selon le Hub Google, comment ça marche ?
  9. J'avais la puce à l'oreille depuis quelque mois, aprés avoir constaté que Bush (à travers le site de la maison blanche) et Moore (à travers son site revendicatif) ne sortaient plus toujours premiers sur la recherche Miserable failure. J'ai donc pondu à ce moment là une page intitulée Est-ce la fin du Google bombing ? et me voilà tout content d'avoir eu raison en premier : - Comme vient de le faire remarquer Sebastien Billard sur son blog "les googlebombs désamorcées" , Matt Cutts, Ryan Moulton et Kendra Carattini ont publié un article expliquant que Google a commencé à minimiser l'impact des Google bombings, par des méthodes algorithmiques. - Depuis quelques jours, Nicolas Sarkozy et Isnogoud n'étaient plus associés l'un à l'autre par Google - Depuis ce matin, la recherche "miserable failure" ne donne plus le site de la maison blanche premier. Cela dit, et peut-être pour prouver qu'il garde son ironie, Google ne peut pas s'empêcher de proposer des photographies de Bush sur cette requête et notamment une belle illustration de lui en "GI Joke". S'il pensait pouvoir être un jour libéré de cette association peu flateuse, j'ai peur qu'il n'ait de quoi déprimer
  10. Ybet a raison : ça peut être nocif. Si les deux mille backlinks sont construits exactement de la même façon, avec la même adresse visée et le même texte de lien, tu peux être sûr que Google va pénaliser l'adresse visée pour les mots-clés contenus dans le texte de lien. C'est une forme de sandboxing dont les exemples ne manquent pas. On sait au moins qu'il compare le texte des liens dans ce but. Prudence, donc, avec les inscriptions massives automatisées qui donne parfois le résultat inverse de celui visé.
  11. [Hors sujet] Je fais une petite parenthèse parasite à ce sujet pour dire à Sébastien à quel point j'aime ce qu'il écrit. Cette synthèse sur le "text-appeal" est une merveille. Merci d'exister, Sébastien ! [/Hors sujet]
  12. C'est une estimation purement personnelle et empirique, Dudu. J'ai déjà essayé de trouver de chiffres solides là-dessus sans aucun succés. Je n'ai pu que trouver des témoignages qui annoncent un pourcentage allant de 0,75% à 12% selon les sources : http://www.quirksmode.org/blog/archives/20..._excellent.html http://forums.oscommerce.com/lofiversion/i...hp/t125809.html http://www.accessibiliteweb.com/evalenglish.htm Ca fait longtemps que je cherche une vraie étude sur le sujet. Si quelqu'un a ça , je suis preneur.
  13. Oui, mais bof... ça complique et ça alourdi les scripts pour 95% des utilisateurs pour apporter un maigre avantage à 5% des utilisateurs... je vais sûrement y travailler, mais là je crois qu'on est vraiment à chercher la petite bête.
  14. Le contenu n'a pas changé sur cette période, à part celui de cette page sommaire. Or, ce sont les pages pointées par la page sommaire (et seulement celles-là) qui ont reculé dans le classement. Pénalisation qui disparaissaient pour les recherches dans lesquelles on faisait varier les accents. Tous les symptomes de ce qu'on a l'habitude d'appeller "sandboxing" étaient bien réunis. Tu auras sans doute noté que tous les popups sont destinés à apparaître au centre de la fleur. Ils sont donc superposés et donc inexploitables sans javascript. Ma première version de cette page faisaient en sorte qu'ils soient invisibles pour les utilisateurs sans javascript puisqu'ils n'étaient pas utilisables pour eux. Je trouvais ça plus "propre", mais Google a trouvé ça suspect. Dans la version actuelle, ils sont bels et bien visibles tels quels (mais sans grande utilité) dans le bas de la page si tu désactives le javascript. Ton insolence est toute pardonnée (et même appréciée), mais peut-être n'as-tu pas remarqué que les pétals de la fleurs restent cliquables même lorsque le javascript est désactivé. Cette page est un sommaire et elle reste parfaitement exploitable sans les menu pop-ups qui ne font qu'ajouter le détail des différents chapitres. Comme je le dis à petit-ourson, je me suis posé dès le départ la question de l'accessibilité pour les visiteurs sans javascript qui trouveront sur cette page la liste cliquable de tous les thèmes du site (ce qui est après tout le but essentiel d'un sommaire !). J'aurais aussi bien pu faire ce type de présentation en Flash, mais elle aurait été réellement inutile pour les utilisateurs n'ayant pas le Flash. J'ai justement choisi le javascript parcequ'il me permettait de construire une page ayant une accessibilité (même minimum) pour tous. Tous les sites ont une page d'index. Interpréter la présence de cette page comme une manoeuvre destinée à donner un coup de pouce au positionnement est possible pour 100% des sites présents sur la toile. Pourquoi ne pénaliser que celui là ?
  15. Sortie confirmée sur tous les mots-clés qui étaient pénalisés. Pourvu que ça tienne ! Pour information, les modifications que j'ai fait pour tenter de mettre fin aux pénalisations datent de 2 jours, mais Google n'est repassé sur mon site qu'hier soir (heure française). Il semble donc réagir aussi rapidement dans le bon sens qu'il l'avait fait dans le mauvais sens. Je suis moi aussi surpris par la rapidité de ces réactions. Même si mes résultats de fréquentation viennent à confirmer ma sortie, je dois avouer que je garderais un peu de rancune vis-à-vis de notre seigneur Google pour cette sanction injustifiée et que je continuerais à trembler pour moi-même et pour les autres webmasters qui peuvent se trouver injustement sanctionnés. J'ai pris le temps de me creuser le citron pour essayer de comprendre les causes de ce qui m'arrivait et j'ai eu la chance de mettre rapidement le doigt sur le point qui coinçait. Sans ces efforts et cette chance, mon site serait toujours au fond des classements. Allez, 2 petites citations pour apporter un côté intellectuel à ce post : - une pour défendre le point de vue de Google : "J’aime mieux commettre une injustice que tolérer le désordre" [Johann Wolfgang Von Goethe] - une autre pour le mettre en garde : "Les révoltes et les violences naissent moins des misères que des injustices." [Jean-Paul Delevoye]
  16. Merci, vu ce qu'elle me coute, je suis content qu'elle te plaise ! Et, oui, bien sûr, je mettrais ce post à jour quand je serais sorti de cette fichue boîte à sable. Je viens de faire une recherche sur "créer son site web" qui semble me montrer que je suis à nouveau en 8ème position sur tous les datacenters. Si ça se confirme sur mes résultats de fréquentation, on pourra dire que ce passage par la sandbox aura été une visite éclair ! Je croise les doigts
  17. Vous avez toujours rêvé de visiter la Sandbox, cette contrée envoutante, mythique et mystérieuse dont certains vont jusqu'à nier l'existence ? Vous voulez sentir son sable chaud sous vos pieds, mais vous ne savez pas comment faire et votre honnêteté naturelle vous interdit de recourir aux techniques répugnantes du cloaking ou des pages satellites. Beurk, beurk...quelle horreur !! Ce post est fait pour vous ! Il raconte l'expérience d'un honnête cowboy qui eu droit a une belle traversée du désert (et dans le désert, il y a beaucoup de sable !) Comment j'ai fait J'ai commencé par construire un site tout ce qu'il y a de plus irréprochable : aucune technique de référencement "borderline" ou pouvant présenter la moindre ambigüité. 200 pages de contenu environ, un référencement naturel entièrement à la main, étalé sur deux ans. Même pas de publicité externe. Je crois qu'il était vraiment difficile de faire plus "clean". Au bout de 2 ans, j'ai mis en place une page de sommaire "graphique" utilisant des pop-up menus en javascript. Allez, je vous mets le lien, ça vous permettra de mieux comprendre les explications qui suivent : Sommaire de Rankspirit. Le lendemain de la mise en place de cette version du sommaire, Google sanctionne toutes les pages pointées par le sommaire et le site perd 60% de sa fréquentation. Que s'est-il passé ? (selon moi) Les pages ayant des pop-up menus en javascript comportent ce qu'on peut appeller des "contenus alternatifs". Ces contenus sont parfois affichés, parfois cachés. Dans ma page graphique, une quantité très importante de liens figuraient dans des blocs "div" ayant pour attribut "Display:none". Estimant que j'avais utilisé cette propriété pour cacher des liens aux yeux des internautes tout en les présentant aux moteurs, estimant que cette démarche était malhonnête, Google a pénalisé les pages visées par ces liens. Qu'est-ce qui me fait croire qu'il s'agit de la sandbox ? - Prenons un exemple : l'un des liens figurant dans les blocs cachés était : <a href="creer-son-site-web.php">Créer son site web</a> Suite à la pénalité, la classement de cette page sur l'expression "créer son site web" a reculé de plusieurs dizaines de pages alors que son classement sur "creer son site web" (sans accent) n'a pas bougé d'un iota. - Seules les pages figurant dans le sommaire ont reculé dans les classement. La partie anglophone du site (une trentaine de pages environs) a conservé toutes ses positions. - Les pages pénalisées ne le sont que pour les expressions qui figuraient dans les textes des liens. Je conserve un très bon classement pour l'expression "optimiser site web" qui ne figurait pas dans ces textes. On constate donc un rapport indiscutable entre le contenu de la page sommaire et la façon dont les pénalités ont été appliquées. Je rappelle que ces pénalités ont été appliquées le lendemain de la mise en ligne de cette page sommaire. Pourquoi tous les sites utilisants des popup menus en javascript ne sont-ils pas pénalisés de la même façon ? Avant l'aventure sauvage de ma page graphique, j'avais déjà intégré des pop-up menus à toutes les pages de mon site sans que cela n'ai eu de conséquence facheuse. Mais ces pages comportaient un contenu très important, indépendant des liens "cachés". J'attribue la sanction au fait que la plus grande partie du contenu de cette page était constituée de liens et que la plupart de ces liens étaient cachés. Pour un Google, soupçonneux à l'extrême, je me trouvais dans une situation doublement suspecte : - une page presque entièrement constituée de liens - une page dont le contenu semblait être conçu pour être visible par les moteurs mais invisible pour les visiteurs humains. Notons que ces deux caractéristiques risquent tout de même de se retrouver dans pas mal de pages d'index à travers le monde, pour peu que leurs auteurs utilisent aussi des pop-ups et une présentation assez graphique. Comment j'ai décidé de réagir ? En m'entêtant, bien sûr ! Je ne vais quand même pas laisser un robot influencer ma créativité graphique ?!?!? D'ailleurs, les directives Google disent clairement qu'il ne faut pas conçevoir ses pages en fonction des robots mais en fonction des visiteurs. Bon, je ne suis quand même pas tout à fait masochiste et j'ai fait deux modifications dont j'attends les résultats avec espoir : - j'ai modifié mon système de menu-sommaire pour que les blocs "div" qui étaient en "display: none" par défaut soient désormais visibles par défaut. Il sont simplement positionnés en bas de page et sont ensuite "remontés" et rendus invisibles par un script. Google ira-t-il jusqu'à interpréter mes scripts pour comprendre qu'ils rendent ces blocs invisibles ? J'en doute, mais seule l'expérience pourra dire si j'ai tort ou raison. - Au cas où, j'ai aussi modifié les pop-ups figurant dans le reste de mes pages. Désormais les liens masqués ne sont plus encodés sous forme de lien mais sous la forme <u>h**p://www.example.com --- texte du lien </u> Le code javascript du système de popup se charge ensuite de remplacer "<u>" par "<a href", "---" par ">" et "</u>" par "</a>". Résultat : ce contenu est toujours "masqué", mais il ne contient plus de liens aux yeux de Google. Moralité ? Comme toute expérience, celle-ci a bien entendu influencé ma façon de voir les choses et je suis désormais (subjectivement) convaincu que le principe même de la sandbox est une annerie s'il peut aboutir à ce type de résultat. Je ne vois pas comment ce genre de "dérapage" pourrait être évité. Même pour un observateur humain, il n'est pas immédiatement évident que les liens de ma page sommaire ne soient pas totalement invisibles mais soient en réalité un "contenu alternatif"; Sauf à se promener avec la souris au-dessus de la fleur, il ne constatera pas la présence de ces liens sur la page présentée. Je vois donc mal comment un robot - même sophistiqué - pourrait déterminer avec certitude quand une page est "clean" et quand elle est conçue pour truquer les résultats. D'un autre côté, il est évident que les tricheurs pullulent sur la toile et que Google doit absolument s'en protéger. Que certains contenus "douteux" soient mis de côté pour éviter qu'ils ne faussent les résultats, je le comprends parfaitement (je ne me serais pas offusqué de voir ma page de sommaire exclue des résultats de recherche). Mais que des "sanctions" soient en plus appliquées à l'encontre des sites soupçonnés, là je crois qu'il y a erreur, car ce principe générera inévitablement des injustices pénibles. Je ne manquerais pas de publier sous peu un billet d'humeur expliquant pourquoi Google a commis une erreur en choisissant l'option punitive que représente la sandbox et je lance ici mon premier argument : cette expérience m'a permis de mieux comprendre ce phénomène et son mode d'application. Il m'a permis de confirmer des hypothèses que j'avais lu ou établi par moi-même. Grace à cette expérience, je suis convaincu que j'ai désormais les compétences requises pour mettre au point un système de spamdexing efficace, déjouant les protections de Google. Même s'il se trouve (par hasard) que je ne suis pas du genre à me servir de ce type de compétence, était-ce là l'objectif de cette "punition" ?
  18. Si les webmasters comptaient vraiment le temps qu'ils consacrent au référencement naturel, je suis persuadé qu'ils constateraient qu'ils dépensent bien plus qu'ils ne le croient (car le temps, c'est de l'argent). Je suis convaincu que le référencement naturel présente un moins bon rapport investissement/résultats qu'une bonne campagne de liens sponsorisés. Mais... - ce rapport change sans aucun doute en fonction du type de produit vendu - l'investissement en temps est bien plus souple et modulable qu'un investissement monétaire - nous sommes tous d'accord sur le fait que les deux démarches amènent des résultats différents et complémentaires et que l'idéal est d'utiliser les deux en parallèle.
  19. Bonjour Michael, Pour le duplicate content, je pense que tes règles de rewriting devraient signaler une redirection 301. Lire à ce sujet http://www.webmaster-hub.com/index.php?showtopic=25803 Cela dit, et comme je le précise dans l'une de mes pages, je ne pense pas que ce type de duplicate content représente réellement un problème : Google va choisir l'une des adresses comme URL canonique et basculera automatiquement tout le PageRank sur la page concernée. Donc, même s'il est plus "propre" de procéder à des redirections, je ne pense pas que cela change quelque chose en termes de référencement. Je reviens juste sur le sujet original de ton poste pour te proposer mon diagnostique : tes backlinks sont trop peu nombreux et émanent de sites très "pauvres" (à quelques exceptions prés) On a beau dire et beau faire, l'inscription dans une centaine de "bons" annuaires est à mon point de vue une composante essentielle de toute démarche de positionnement. Dans la mesure du possible, sélectionne des annuaires de qualité et FAIS VARIER le texte des liens (c'est trés important pour éviter une pénalisation de la part de Google). Ces textes de liens doivent comporter les mots clés sur lesquels tu souhaites améliorer tes positions. Allez, courage !
  20. Voilà au moins un mois que j'obtiens une erreur quand j'essaye de ma connecter au hub depuis le poste de la maison. Au début, je me suis dit qu'il devait y avoir un problème temporaire de connection (je vis en Nouvelle-Calédonie et ce type de problème est fréquent). J'ai soupçonné un problème de serveur, puis un problème de navigateur. J'ai essayé sans succés à travers tous les navigateurs dont je dispose. Heureusement, j'arrive à voir le hub depuis mon poste du bureau, mais bon, c'est quand même embêtant car c'est le soir que je suis détendu et disponible pour lancer des sujets. Et là, ce matin, PAF !!, il me vient une illumination : je me rappelle qu'il y a environ un an, le Hub avait changé quelque chose au niveau de son hébergement et que Dan avait proposé une bidouille qui permettait de résoudre le nom de domaine. C'était un truc à enregistrer quelque part dans le registre, si je me souviens bien. Et je me demande si ce n'est pas cette bidouille qui me pose problème aujourd'hui, mais je suis bien incapable de me rappeler exactement de quoi il s'agissait et de corriger ça. Est-ce que quelqu'un comprend quelque chose à mon charabia et pourrait me venir en aide ?
  21. Je vais en rajouter une couche en disant que si le site pointé est intéressant pour tes visiteurs, tu a tout intérêt à mettre un lien vers lui, que la réciproque soit vraie ou non, et qu'il ait un PR de 0 ou de 10. Si le site pointé n'est pas intéressant pour tes visiteurs, ne propose pas et n'accepte pas d'échange de lien. Les échanges de liens sont censés être des échanges amicaux, pas des échanges commerciaux. Dans un échange amical, on ne négocie pas 6 contre deux fois 3 : on donne et on espère éventuellement qu'il y aura un retour. Si tu veux faire du commerce avec ton site, vend et achète des espaces publicitaires (présentés comme tels), au moins ça sera clair pour tout le monde. Vendre et acheter des liens que l'on présente aux internautes comme des liens non commerciaux n'est pas honnête. Si le fond d'une proposition n'est pas honnête, comment trouver un équilibre "honnête" dans sa mise en pratique ?
  22. Google ne les séparera pas si tu ne mets pas de tiret. Recherche "inurl:astuce" et tu constateras que Google ne trouve pas le site "astuce1.com" qui existe pourtant.
  23. Y aurait-il un nid de pingouins dans le coin ?
  24. Merci pour ces encouragements, Dudu. Désolé, mais non, nous n'avons pas encore prévu de version pour l'élite de la planète qui utilise Linux, Unix ou Mac OS (c'est aussi une demande que nous avons eu). La chose est faisable, mais demande un investissement qu'il ne serait pas raisonnable d'envisager à ce stade. "Ou en d'autres termes, pourquoi ne pas avoir une application 100% web ? Choix stratégique ?" Précisément. La consultation "off line" présente des avantages et des inconvénients qui font l'une des particularités de RankSpirit. Si tu nous fais l'honneur d'essayer cette application (sur un PC équipé de Windows !), tu réaliseras que cela différencie le produit d'une façon non négligeable. Nous verrons bien quelle partie de la clientèle y trouve son compte. Personnellement, je suis (évidemment) un inconditionnel "sinon je n'ai pas vu d'informations sur la désactivation éventuelle de Javascript." Le visiteurs ayant désactivé le Javascript ne seront pas comptabilisés. On se trouve donc dans le même cas de figure que GoogleAnalytics ou Xiti (pour ne citer qu'eux). Les retours que nous avons pu avoir sur ce point ne semblent pas démontrer qu'il s'agisse d'un défaut significatif. La seule alternative consisterait à proposer un script entièrement en PHP, qui ne serait pas compatible avec les sites HTML (en tout cas, pas de façon "simple"). Ce choix découle donc d'un compromis. A l'avenir, nous comptons proposer les deux options au choix, ce qui serait l'idéal. La version PHP nous permettra également d'avoir un suivi beaucoup plus précis des visites de robots. En attendant, ta remarque va aller directement dans la FAQ (Foire Aux Questions). Merci
×
×
  • Créer...