Aller au contenu

zapman

Hubmaster
  • Compteur de contenus

    221
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par zapman

  1. Bonjour Jerome. Voilà ce qui me vient en tête : 1- Vérifier que chaque page a bien un titre et une description différents (balise <TITLE>...</TITLE> et <DESCRIPTION>...</DESCTIPTION>) 2- Faire en sorte que chaque page puisse être atteinte en 3 clics maximum depuis la page d'accueil 3- Avoir une page "plan de site" qui facilitera l'indexation de l'ensemble des pages. Le cas échéant, mettre à jour le "sitemap" de Google 4- Faire en sorte que chaque page ait une contenu texte suffisant pour mériter une indexation dans Google. 5- Créer des backlinks enregistrant le site dans un maximum d'annuaires, en prenant soin de varier les textes des liens, les descriptifs, et surtout les adresses des pages pointées. L'idéal est de découper ton site en chapitre principaux (entre 5 et 15) et de référencer chaque tête de chapitre dans au moins 10 annuaires. J'ai jeté un oeil sur ton site de chaussure et j'ai constaté que de trés nombreuses pages comportent un contenu texte trés faible (si on enlève toute la partie structurelle). A toi de faire fonctionner ton imagination pour savoir comment étoffer cette partie du contenu. Google privilégie les pages riches en informations. De ce point de vue, "Les Brown&Belt : Le modèle Brown&Belt vous propose des chaussures sobres et habillées de couleur marron... " n'est pas trés attractif pour lui. Comment pourrait-il te classer compte tenu de ce texte ? Premier sur "chaussures" ? Premier sur "sobres" ? Premier sur "marron" ? Premier sur "Brown&Belt" ? Tu as peut-être ta chance pour "Brown&Belt", mais ça te rapportera combien de visiteurs ? J'ai déjà eu l'occasion de m'intéresser au référencement d'un site de vente en ligne. Si ça peut te rassurer, il était victime d'un problème exactement identique à celui que tu décris. Même motif, même punition ! La mise en application des points énoncés ci-dessus a permis un net progrès, mais certaines pages sont vraiment difficiles à faire entrer dans l'index et ça n'est finalement pas si étonnant.
  2. Son comportement me semble au contraire normal : - La recherche sur "Duplicate Content" ne renvoie qu'une seule copie de la page - La même recherche renvoie toutes les URLs lorsque l'on clique sur "relancer la recherche en incluant les pages ignorées" Ce comportement démontre que Google gère correctement le problème : le Hub n'est pas pénalisé par le procédé mais il n'est pas non plus "sur-représenté" dans les résultats. Quel que soit le nombre de duplicatas proposés par le site, une seule page figure dans les résultats, sauf si l'internaute demande à les voir toutes en incluant les pages ignorées. Si "en cliquant sur les liens proposés par google, on se retrouve toujours sur la même url", comme tu le fais remarquer, c'est parce que Google considère que cette URL est l'URL canonique et qu'elle représente à elle seule toutes les autres variantes. Haho, je n'ai pas été assez précis. Je voulais dire que le fait d'avoir un Duplicate Content interne (plusieurs pages du même site présentant un contenu identique) n'a jamais eu, à ma connaissance, de conséquence négative. Le piratage, sous quelque forme que ce soit et bien entendu toujours possible. Il n'y malheureusement pas grand chose à faire pour se protéger des initiatives telles que celles que tu cites. Et, histoire de pinailler, j'ajoute que les termes de "Googlewash" et "Googlewashing" ne me semble pas adaptés à la mésaventure de Matt Cutts. Ils sont généralement utilisés pour parler des définitions erronées diffusées sur le Net (faux dictionnaires). Selon le site BuzzWhack "googlewash: An effort by bloggers to change the meaning of a new word, term or phrase by peppering their Web logs with an alternate meaning. Result: A search using Google will turn up thousands of pages with the altered definition, while the pages carrying the original and intended usage get buried." --> googlewash: tentative visant à modifier la signification d'un mot, d'un terme ou d'une phrase nouvelle (néologisme) par l'utilisation répétée d'une expression incorrecte dans des blogs. Résultat : une recherche à l'aide de Google sur l'expression concernée produit des centaines de pages comportant la définition incorrecte, les pages comportant la bonne définition se retrouvant noyées parmis les autres. Je sais bien que le site threadwatch a utilisé ce mot dans le même sens que toi en titrant "Google's Matt Cutts' Blog GoogleWashed", mais je continue à penser qu'il s'agit d'un contresens. Mais peut-être que votre utilisation commune de ce terme dans ce sens est une tentative de GoogleWash ?
  3. Merci beaucoup, Jan d'enrichir cette discussion par tes arguments. J'adore les dicussions un peu "pointues" sur ce sujet. Oui, mais pas seulement. De trés nombreux sites présentent à l'internautes et aux moteurs des pages ayant plusieurs URLs ou des pages ayant des contenus quasi-identiques. C'est par exemple le cas quand un site propose une version imprimable de son contenu. Webmaster-Hub n'échappe pas à cette pratique : en faisant une recherche sur "Duplicate content inurl:webmaster-hub" , vous pourrez constater que le topic que nous sommes en train d'alimenter est présent plus d'une quinzaine de fois dans l'index de Google et ce parceque Webmaster-hub présente cette même page sous une quinzaine d'URLs différentes, ce qui est un cas assez féroce de Duplicate Content. Je ne crois pas pour autant que le Hub soit victime d'une "pénalité" ou d'un effet négatif quel qu'il soit pour cette raison. J'avoue encore une fois ne pas avoir fait d'expérimentation concernant la gestion des URLs canoniques, mais pour ce que j'en sais, le cas de figure que tu proposes n'aura pas la conséquence que tu supposes : Même si l'URL choisie par Google est celle qui a peu de backlinks, elle bénéficie, en tant qu'URL canonique, de tous les backlinks créés sur les autres pages. Globalement, le nombre total de backlinks pris en considération n'a absolument pas changé. L'effet est en réalité positif pour le site concerné car il se retrouve avec une seule page "boostée" au lieu d'avoir ses backlinks "étalés" sur plusieurs page identiques. On n'est jamais trop prudent, en effet, mais là ça me semble plus proche d'une douce paranoïa que de la prudence car si Google s'orientait dans cette direction, plusieurs millions de sites seraient injustement pénalisés de façon trés importante. Je les vois d'autant plus mal commettre une erreur de ce genre que la gestion actuelle des URLs canonique et du Duplicate Content me semble particulièrement au point et efficace. Pour tout dire, ce type de crise a déjà eu lieu lors d'une mise à jour baptisée "Allegra" en février 2005 mais elle était d'ampleur trés mesurée et Google a trés vite rectifié le tir. C'est sans doute à cette occasion qu'il a "peaufiné" sa gestion du Duplicate Content et il semble peu probable que les principes généraux de ce filtre soient beaucoup remis en cause à l'avenir (même si j'ai bien conscience de m'avancer beaucoup en disant ça). Depuis le temps que je me passionne pour ce sujet, j'attend toujours un exemple concret de "sites qui en ont fait l'expérience". Comme souvent, on met sur le dos du Duplicate Content tout un tas de choses qui n'ont rien à y voir. La seule mesure de prudence qui me semble réaliste est celle que je rappelle dans ma page sur le sujet : N'attribuez jamais le même titre et le même descriptifs (balises TITLE et DESCRIPTION) à plusieurs pages ayant des contenus distincts. Pour peu que vos pages aient le même header, le même footer et le même menu (ce qui est à la fois normal et fréquent), le fait d'avoir le même titre et le même descriptif pourrait amener Google à les croire quasi-identiques. Moins les pages sont riches en contenu texte, plus le risque est important.
  4. Là, il semble sagir d'un problème URL canonique (des pages trés exactement identiques peuvent être atteintes par 2 URLs différentes). Je n'ai pas fait d'expérimentations sur ce point mais la théorie affirme que Google regroupe les PR et/ou tout autre résultat de référencement sur l'URL qu'il choisit comme URL canonique (principale), sans perte d'aucune sorte pour le site concerné. Encore un fois, le comportement de Google ne s'apparente donc pas à une pénalité mais à une simple précaution pour éviter une sur-représentation du site dans les résultats. On peut indiquer à Google quelle URL choisir en faisant des 301 de toutes les autres URLs vers celle que l'on veut désigner comme URL principale Pour plus de détail : http://www.annuaire-info.com/google-url-canonique.html
  5. Quoi qu'il en soit, et contrairement à une fausse idée beaucoup trop répandue, Google n'applique PAS de pénalité pour cause de Duplicate Content. Il se débrouille juste pour que les sites de soient pas sur-représentés dans les résultats. Cela ne porte absolument pas préjudice aux sites concernés et remet juste les pendules à l'heure. Même si ta méthode entraine un phénomène de Duplicate Content, tu n'as donc pas à craindre de conséquences négatives. Tu trouveras plus de détail sur le http://www.rankspirit.com/duplicate-content.php , si le tu souhaites.
  6. Vérifie aussi que tu n'a pas un ou plusieurs BL (liens en provenance d'autres sites) qui pointe vers une adresse en quake2/quake2
  7. Du point de vue des moteurs, la situation proposée par ton registar se résume comme suit : - il existe 2 sites différents : *http://www.toto.com et *http://www.toto.fr - l'un de ces 2 sites (*http://www.toto.com) contient un bon contenu et bénéficie d'un bon référencement - l'autre site ne contient quasiment pas de contenu (à part le lien vers *http://www.toto.com) Avec une vraie redirection 301, il n'existe plus qu'un seul site auquel on peut accéder de 2 façons différentes. Cette redirection évite tout risque de "duplicate content" si elle est correctement effectuée. En termes de référencement, je ne pense pas que ces 2 options présentent la moindre différence. En termes de confort pour les visiteurs, je préfère nettement la deuxième options. Elle t'évitera de perdre les visiteurs fénéants (ou fatigués, ou distraits) qui n'auront pas envie de cliquer sur ton lien.
  8. Pourquoi difficile ? Jamais un annuaire ne m'a refusé une inscription au pretexte que le lien proposé ne pointait pas vers la page d'accueil. Comme l'on dit KaRaK et LovinSide, tu as (fortement) intérêt à varie les textes de tes liens pour améliorer ton référencement. Si tu enregistres ton site dans un grand nombre d'annuaires avec exactement le même texte de lien, tu risques une pénalité sur cette expression. Alors tant pis si tu t'"éparpilles". Les BL ayant pour texte "canapé" te feront grimper dans les recherches pour "canape" et vice-versa. Il y longtemps que Google gère ce genre de variations avec (un peu d') intelligence. Ton exemple sur "meuble" et "meubles" ne me semble pas déterminant. Mes sites bénéficient tous les jours de visiteurs saisissant leurs requêtes avec des fautes de frappe ou d'orthographe qui n'existent ni sur ces sites ni dans les BL qui pointent vers eux.
  9. La logique ne nous donne que 2 explications possibles : 1- Une armée de Google's guys fait l'inventaire des abbréviations (ainsi que les sigles et symboles numériques utilisés en tant que tels) et dresse une table d'équivalence exploitée dans les classements 2- Des robots analyse le contenu des pages, établissent la fréquence des relations entre des expressions et certaines abbréviations ou symboles, et les considèrent alors comme équivalentes Ajoutons que : 1- Bien malin qui pourra dire exactement comment ils parviennent à ce résultat 2- Quelle que soit la véritable méthode employée, elle est en tout cas assez efficace, et c'est finalement ce qui compte Ces évidences posées, nous voilà dans le domaine des conjonctures. En ce qui me concerne, je doute fort que l'armée de Google's guy soit plausible, compte tenu du boulot que ça représenterait avec toutes les langues gérées par Google et la vastitude des domaines dans lesquels ce type d'équivalences existent. Diverses théories d'analyse sémantique peuvent être des pistes pour expliquer comment Google pourrait établir des équivalences automatiques entre certains termes. A titre d'exemple et suite à l'inventions des "tags" (mots clés) utilisés dans les blogs, de très nombreux chercheurs travaillent actuellement pour essayer de créer des "tags" automatiques, pouvant être affectés à des ensembles de pages. Et d'un certain point de vue, une abbréviation pourrait bien être une sorte de "tag". Google a plusieurs fois déclaré de façon officielle qu'ils travaillaient sur la sémantique et qu'ils ont déjà mis en oeuvre certaines techniques liées à ce domaine. Voilà, ça me semble difficile d'aller beaucoup plus loin dans cette réponse à ta question, sans tomber dans un nuage d'hypothèses obscures.
  10. On peut aussi rouler à 180 avec des pneus lisses sous la pluie et s'en sortir sans dommages. Mais ce n'est pas trés conseillé.
  11. Définitivement non, ton site ne risque pas d'être globalement "sanctionné" parce que certaines de ses pages contiennent un contenu dupliqué. 1- Les pages en question seront - dans certains cas - déclassées au profit des pages comportant le contenu original. 2- Dans d'autres cas, elles "voleront" la place des pages comportant le contenu original 3- Dans quelques cas trés exceptionnels, l'originale et la copie seront toutes deux classées comme si elles étaient originales 4- Les pages de ton site qui contiennent un contenu unique et original seront classées normalement J'ajoute encore un point : les pages contenant un mixte de contenu original et de contenu copiée seront éventuellement déclassées pour les recherches portant sur le contenu copié mais seront classées tout à fait normalement pour les recherches portant sur le contenu original. Ce dernier point démontre bien que Google ne gère pas le Duplicate Content dans une logique de sanction mais avec pour seul objectif d'éviter une sur-représentation de certains contenus dans les résultats.
  12. Le terme de "blacklistage" (littéralement "mettre en liste noire") s'applique aux sites que Google "puni" en raison de pratiques illicites. Au début de sa lutte anti-spam, Google utilisait beaucoup cette stratégie radicale. Il l'abandonne peu à peu en raison des énormes inconvénients qu'elle comporte et se tourne de plus en plus vers des filtres trés sélectifs qui tentent d'empêcher la fraude sans chercher à "punir" les fraudeurs volontaires ou involontaires. Le mot "pénalise" est dangereusement simplificateur. Le but de Google est d'éviter une "sur-représentation" d'un site ou de son contenu. Il va donc tenter de ne faire figurer qu'une seule fois un contenu proposé en x exemplaires. Pour obtenir ce résultat, il peut : - éliminer toutes les pages doublons de ses résultats et n'en garder qu'une qu'il considère comme étant l'originale (c'est le principe de l'URL "canonique") - déclasser légèrement les pages concernées de façon à ce que la somme de leur représentation dans les résultats soit la même que si le contenu n'était présenté que sur une seule page La tâche n'est vraiment pas facile parce que les cas de figure sont incroyablement variés, mais globalement on peut considérer que l'algo de Google parvient à peu près au résultat recherché (j'ai bien dit "à peu près"). Il en résulte : - qu'il est vain de dupliquer un contenu en espérant augmenter sa visibilité de cette façon - qu'on ne risque pas grand chose à dupliquer un contenu si certaines raisons techniques ou de présentation incitent à la faire (même si beaucoup de gens affirment le contraire) Tu peux donc te concentrer sur l'intérêt que ta démarche présente pour tes visiteurs... et ne pas t'en faire sur la façon dont Google va gérer le résultat.
  13. C'est bien ce que je supposais. Je garderais donc mes regrets jusqu'à la mort, snif... Merci à Karnabal pour ce forum de graphistes que je ne connaissais pas.
  14. Soumettre son site au feu de la critique d'autres webmasters est un exercice parfois difficile mais qui peut permettre d'améliorer considérablement sa production. J'utilise parfois le sous-forum d'Alsacréations, consacré à ce but. Compte tenu de la qualité des interventions sur le Hub, je regrette beaucoup qu'il ne comporte pas, lui aussi, un sous-forum dédié à cet objectif (je suppose que la modération de ce type de sujet est un peu fastidieuse). Connaissez-vous d'autres forums de qualité où il est possible de faire critiquer un site ? J'ai pour le moment recensé : Alsacréations WebrankInfo ForumHardware 4Claverie Merci de vos suggestions
  15. Super, ce post : c'est clair et précis. Merci Zantar !
  16. J'ai donné un contre-exemple dans mon post précédent. Il ne s'agit donc pas nécessairement d'une marque/société. Personnellement, je ne crois qu'il y ait le moindre rapport (ou alors un rapport accidentel) entre le fait que la recherche concerne une marque et le fait qu'un site apparaisse en sitelink. C'est juste que les sites de marques comme Renault ou Citroën sont toujours des gros sites dont la pertinence sur les termes "Renault" et "Citroën" est tellement énorme qu'ils doivent de toute façon squatter les premières places. Sans doute, mais le site qui arrive à placer au moins 3 de ses URLs sur la première page des résultats a inévitablement une super cote aux yeux de Google. Une telle cote que l'une de ses URLs, au moins, mérite d'être en tête des résultats. Tout cela, bien sûr, en supposant que l'hypothèse énoncée dans mon post précédent soit juste.
  17. N'oublions pas les contre-exemples. Je suis aussi en train de faire une petite expérience sur le sujet : j'ai la conviction qu'en multipliant les backlinks sur au moins 3 pages différentes traitant du même thème (ou de thèmes voisins), on doit pouvoir obtenir ce genre de représentation dans Google. Les textes de ces backlinks (ancres) doivent évidemment être très voisins. Pour le moment, je n'ai réussi qu'à obtenir une double présence (du site RankSpirit) sur creer son site internet créer un site web créer son site web gratuitement etc. mais je ne perd pas espoir... Ben voilà, depuis le temps que je dis qu'il faut référencer les pages internes !
  18. Tu es deuxième sur la requête dos âdos Donc, pas de doute pour moi, ton classement est victime d'un filtre. J'utilise toujours des requêtes de ce type, en jouant sur les accents, pour détecter les pénalités de type "sandbox". Il est possible que cela vienne uniquement de ton absence de meta "Description". Google n'aime pas du tout ce genre d'impasse. Tu peux aussi vérifier qu'il n'y a pas de site "douteux" qui pointe vers le tien avec la mention "Dos-ados" en texte de lien. Tu peux utiliser Google tools pour ça. Ca te permettra aussi peut-être de comprendre ce qui cloche avec ton indexation.
  19. Allez, je vais ramener ma théorie de la Google Toolbar sur le tapis. Grâce à la "prime de fraicheur" appliquée aux nouveaux sites, Google génère des visites sur ces sites et peut mesurer - grâce à la Google Toolbar - le comportement des visiteurs : restent-ils ? consultent-ils plusieurs pages ? Cette épreuve du feu lui permet d'attribuer très vite une note de qualité au nouveau site, note qui entrera en ligne de compte dans le classement définitif. Ne tirez pas, S.V.P., je suis bien conscient de nager en pleine théorie conditionnellement hypothétique (ou peut-être hypothétiquement conditionnelle).
  20. Ca serait bien, en effet. Leur comparaison entre FF2 et IE7 est intéressante mais ne donne pas une vue globale du marché. En tant que webmaster, je trouverais plus intéressant de comparer (FF1+FF2) à IE7, dans la mesure ou FF2 n'est qu'une légère évolution de FF1 alors que IE7 est vraiment un navigateur différent de IE7 (je veux dire par là qu'il n'a pas du tout les mêmes bugs ) Ma courbe comparait (Mozilla+FF1+FF2) à IE6 et à IE7. En recoupant les diverses infos données par Xiti, j'en conclus qu'elle n'est peut-être pas si loin de la vérité, en tant que moyenne mondiale. Dommage que les chiffres de Xiti n'incluent pas les USA, premier pays au monde sur le Web. Les chiffres de thecounter.com et du blog d'Otto sont par contre nettement différents. C'est épatant de voir comme ces chiffres varient d'un pays à l'autre et d'un site à l'autre (en fonction du public qui le fréquente). Les chiffres d'Otto semblent correspondre à ceux de la France. Faut-il penser que ceux de thecounter.com réflètent le marché américain ? Xiti a publié une autre étude dans laquelle figurent les parts de marché globales de FireFox :
  21. Voilà les données de fréquentation d'un site international, consacré à la musique. L'échantillon est un peu faible (1000 visiteurs/jour) mais c'est ce que j'ai de mieux pour répondre à ta question. Ces données ont été recueillies à l'aide du logiciel RankSpirit. Si ces données sont fiables, - Mozilla/FireFox est, depuis 1 mois, le navigateur le plus utilisé dans le monde avec près de 36% de parts de marché, - Explorer 7 piétine à environ 22% depuis début janvier - Explorer 6 continue de reculer face à FireFox, au même rythme qu'avant l'introduction d'Explorer 7. Sa part de marché actuelle est de l'ordre de 33% - Safari et Opera voient leurs petites parts diminuer encore
  22. Voilà, c'est réglé. Tous les sites en UTF8 devraient être correctement gérés.
  23. Merci de ce retour, Loupilo. Je vais régler ça.
  24. Je viens de régler ces différents détails. Ca devrait bien fonctionner sous FF, à présent et les guillemets ne devraient plus poser de problème. Merci beaucoup, Leonick, pour ce debugging précis et détaillé. Si quelqu'un pouvait me faire un test approfondi avec IE7 en tant que navigateur par défaut (pas en "standalone"), ça serait sympa.
×
×
  • Créer...