Aller au contenu

Jan

Hubmaster
  • Compteur de contenus

    2 304
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Jan

  1. Bonjour Dan, Ah, les réseaux sociaux... Ca pourrait être marrant de relire les forums des concours. On rigolait bien. Jan
  2. Bonjour à toutes et à tous, Ou plutôt re-bonjour. Après presque 15 ans sans bouffer la moindre cigogne, je repasse par le Hub pour voir comment le webmastering a évolué. Mais cette fois je suis plus fort que l'addiction Je suis plus que jamais là en amateur. Finies les pages codées à la main sous notepad et optimisées au poil de c... pour plaire aux moteurs de recherche. Aujourd'hui je démarre un petit blog sous wordpress. Moins rigolo que notepad, mais surtout moins chronophage. Le positionnement dans Google me semble être devenu compliqué. Je suis là pour apprendre. Au plaisir.
  3. Bonjour Je ne serai pas aussi catégorique: de nombreux cas de perte de positionnement ont été rapportés suite à changement de registar. Théorie fumeuse: Changement de registar = Changement de business => perte du bénéfice lié à l'ancienneté
  4. Bonjour, - Eviter le contenu identique sur http://www.ojapon.com/ et http://www.french-penpals.com/ - Enlever le contenu dupliqué dans les profils des membres (texte d'intro: "Welcome etc..."). Chaque page doit être aussi spécifique que possible. Avec cet objectif: obliger tes membres à saisir des descriptions "about me" plus longues (imposer une longueur mini) - Eviter les liens internes vers http://www.ojapon.com/index.php si http://www.ojapon.com/ est l'URL que tu veux favoriser: encore du contenu dupliqué! - Résoudre l'éventuel problème (à vérifier par une analyse plus approfondie) que peut poser à Google le fait que ton texte soit en anglais, alors que la plupart des profils sont en français
  5. Bonjour, Personnellement, j'ai arrêté il y a bien longtemps de regarder et même d'afficher le PR de la toolbar. Il n'a aucune valeur et peut même t'induire en erreur. La popularité d'un site est simple et rapide à déterminer par quelques tests très basiques, comme site: dans google, la vérification des backlinks ou le positionnement d'un site sur ses mots-clés. Beaucoup plus fiable que le PR affiché dans la toolbar.
  6. Si je peux me permettre, faire les 2 en même temps serait préférable. C'est à dire faire un site facile à référencer dès sa conception. Référencer des "bouzes" (je ne parle pas de ton site hein) au look superbe, ça fait vivre les référenceurs, mais c'est une galère qui coute cher en rustines. Comme dit l'autre, il faut faire ses sites pour les visiteurs... mais ne pas oublier le plus important d'entre eux: Googlebot
  7. Bonjour, Il faut avant tout commencer par règler le gros problème de "duplicate content" sur ton site (plusieurs URLs qui renvoient la même page): />http://www.google.fr/search?hl=fr&source=hp&q=site:aleaweb.fr.nf&btnG=Recherche+Google&meta=&aq=f&oq= Je parle de toutes ces pages aleaweb.fr.nf/index.php?choix=... Fais en sorte que leurs contenus soient (suffisamment) différents. Ensuite, il faudra attaquer les autres optimisations.
  8. Bonjour :P

    Long time no see.

  9. Non, au contraire. Face à 2 pages identiques, Google va en choisir une, et (au mieux) relèguer l'autre dans les profondeurs de son classement de sorte que cette dernière ne recevra jamais aucun trafic de Google. Dans ces conditions autant en interdire l'indexation, non? Quel intérêt d'avoir une page dans Google si elle n'en retire aucun bénéfice en terme de trafic? Et au moins ça évite de faire prendre des risques à la page que l'on veut pousser dans les SERPS.
  10. Le NDD des nouveaux sites n'a à mon avis aucune importance. Tu peux même utiliser des sous-domaines du domaine principal: tv.people.com et cinema.people.com Pour éviter tout risque de problème sur le domaine principal lié au duplicate, le mieux est d'interdire l'indexation par Google des nouveaux sites.
  11. Il n'y aura pas de pénalisation des sites à proprement parler. Mais entre 2 pages au contenu identique, Google fera un choix: il n'en fera ressortir qu'une dans ses résultats sur les mots-clés de la page. L'autre sera sans doute indexée, mais dans l'index complémentaire, c'est à dire qu'elle sera invisible sur la recherche sur ses mots-clés. Laquelle des 2 pages Google va-t'il choisir? A priori, du moins au début, celle du site le plus ancien. Si tu veux privilégier celle du site récent, il faudra lui procurer des backlinks puissants.
  12. Bonjour et bienvenue sur le Hub. Ta façon d'envisager le référencement est tout à ton honneur et sans aucun doute efficace sur le long terme. Pour rebondir sur le titre du topic, imaginer qu'il existe un secret, l'arme absolue du référencement, est une erreur. Il y a plutôt des secrets, ou plus exactement des stratégies et des techniques qui marchent sur le long terme, d'autres sur le court-terme mais qui souvent ne sont pas pérennes, et d'autres qui ne marchent pas du tout voire sont contre-productives. Bref, il n'y a pas une façon unique de référencer un site, mais une multitude de façons en fonctions des sites, des objectifs du webmaster et des risques qu'il est prêt à prendre. Il serait risqué de montrer ici un exemple spécifique (on ne sait jamais qui peut lire nos propos ), mais je tenterai d'illustrer mon propos par le suivant: "Vous devez référencer un site événementiel. L'événement auquel est consacré le site aura lieu dans 3 mois. Il durera 15 jours. Une fois l'événement terminé, le site deviendra sans intérêt puisque de toutes façons le public cessera de s'intéresser à l'événement". Un tel cahier des charges oblige à obtenir des résultats rapidement mais permet de s'affranchir des risques de pénalités ou de déclassement qui interviendraient dans 6 mois. Si l'on met de côté l'aspect éthique de la chose, on peut tout à fait imaginer qu'une génération automatique de pages au contenu scrapé peut aider. Ce n'est qu'un exemple parmi d'autres de solution, peu perenne, mais potentiellement efficace dans ce cas précis.
  13. Bonjour, Difficile de se faire une idée sur un tel cas sans voir le site concerné. L'impact des pages multilingues que tu as ajoutées dépend du "dosage" et de la façon dont l'ajout de ces pages a modifié la structure (de liens) du site. On peut imaginer plusieurs raisons susceptibles d'expliquer des pertes de positions suite à l'ajout des pages multilingues. Par exemple: - Dilution du "link juice" passé aux pages en français du fait de l'ajout de liens vers les pages multilingues => perte de position des pages en français - Suite à l'ajout (brutal et massif?) de pages multilingues, Google a "un doute" (sans doute temporaire) sur le caractère français du site => il le classe moins bien sur google.fr - Duplicate content (partiel) entre tes pages fr et non-fr Il serait utile que tu regardes si la chute de tes pages sur leurs mots-clés est identique dans google.com et google.fr
  14. Bonjour, Les backlinks en provenance de sites aux thématiques voisines ou d'annuaires t'aideront, mais il y a aussi à faire sur le site que tu dois référencer lui-même, en espérant que tu aies la possibilité d'intervenir sur le contenu et le code. En effet, toutes les pages ont le même titre et les mêmes meta description et keywords: http://www.google.fr/search?hl=fr&rls=...rcher&meta= Certaines manquent de contenu original ou suffisamment différencié d'autres pages du site (pages générées sur un template depuis une base de données). Ceci peut conduire tes pages dans l'index complémentaire de Google, ce qui les rend invisibles dans les premières positions de Google sur leur mots-clés. C'est d'ailleurs visiblement déjà le cas. 488 de tes 498 pages sont dans l'index complémentaire de Google. Compare: - http://www.google.fr/search?hl=fr&rls=...rcher&meta= (toutes les pages du site connues de Google = 498 pages) - http://www.google.fr/search?hl=fr&rls=...rcher&meta= (le /* est un hack qui marche actuellement pour ne ressortir que les pages qui ne sont pas dans l'index complémentaire = 10 pages) Les premières choses à faire sont de mettre des titres et metas spécifiques sur chaque page, et d'étoffer le contenu des pages qui en manquent.
  15. Bonjour, Ton site est indexé sous ses urls sans www: http://www.google.fr/search?q=site%3Asumca.fr -> ok http://www.google.fr/search?q=site%3Awww.sumca.fr -> 0 résultat
  16. Ta page en question n'est pas 100% dupliquée mais à 50% à http://spartaclop.free.fr/topic/index.html L'autre 50% est dupliquée à http://charte.francetv.fr/Navigation/navChap1.htm A l'arrivée, 0% d'originalité aux yeux de Google, aucune raison pour Google de la faire ressortir dans ses SERPS. Il l'indexe http://209.85.129.104/search?sourceid=navc...ure-de-France-3 mais l'a probablement reléguée dans son index complémentaire. Tout ça est très classique (duplicate content -> index complémentaire -> zéro trafic Google -> étonnement ) A titre de curiosité, tes pages sont-elles les originales ou des copies (cette question non pour émettre un jugement de valeur sur tes sites, ça ne me regarde pas, mais à titre de curiosité par rapport aux filtres de Google).
  17. Cherche aussi l'origine de ton problème de ce coté-là: http://www.lepost.fr/article/2008/03/19/11...6_monsanto.html
  18. Au risque de me répéter:
  19. Nicolas a raison. Google connait ta page: http://www.google.fr/search?hl=fr&rlz=...rcher&meta= En revanche il ne la classe pas dans ses 10 premiers résultats sur Richard Doll Monsanto parce qu'elle n'est pas optimisée pour cette recherche. En plus tu as un "duplicate content" interne: http://www.google.fr/search?q=site:noslibe...29&filter=0
  20. Bonjour, Comme le dit Arlette, ça peut revenir. Il ne faut pas agir dans la panique. Mais j'agirais quand même Le fait que tu ais supprimé 2 pages importantes du site, que tu mettais volontairement ou pas "en avant" par des liens sur toutes les pages du site peut-être de nature à déstabiliser temporairement Google. Mais je n'y crois pas trop. Je crois plus à l'hypothèse d'Americas. Par ailleurs, de larges passages de http://www.el-annuaire-gratuit.com/contact.php (la fin) sont identiques à -http://www.concordefinance.com/defiscalisation_mentions_legales.php Quant à ton plan http://www.el-annuaire-gratuit.com/plan.php il me semble trop similaire à ta page d'accueil. Je pense aussi que le grand nombre de liens qui y figurent sous les rubriques "les départements" et "les pays" peut être interprété comme une tentative de spamdexing par Google (il est chatouilleux). Ta page top ref, elle, n'est pas (encore?) indexée. Si c'est encore le cas après 3 semaines, c'est que quelque chose y déplait à google: similarité avec une autre page, ou tout simplement volonté de Google de dévaluer les pages top référant, traditionnellement spamées à coup de "fake referers". Dans ce cas, je la supprimerais complètement.
  21. Il y a au moins un cas célèbre: le googlewash réalisé par la DarkSeoTeam sur le blog de Matt Cutts par recopie de son contenu: http://www.google.fr/search?hl=fr&rlz=...rcher&meta= Google a corrigé le tir en quelques jours à l'époque. Quant aux Googlewash par redirection 302, il sont carrément innombrables.
  22. Un problème d'URL canonique entraine un problème de "contenu dupliqué". 2 URLs distinctes renvoient le même contenu. La théorie voudrait effectivement que Google ne garde que la page originale, la première à avoir été publiée (ou crawlée) ou celle qui possède le plus de liens. Ceci dans le but d'éliminer les "scrapers", sites faits de copie pirates que Google considère comme "pollueurs" de son index. Dans la pratique, comme le dit Magic, il arrive que Google garde la copie et déclasse l'original, comme ça se produit aussi avec les redirections 302. Dans le cas d'un duplicate content interne, comme celui de Lordzener, ça peut sembler sans importance. Qu'importe l'URL choisie par Google, après tout les 2 font partie du site. Sauf que: - Si Google fait le mauvais choix, à savoir qu'il choisit l'URL qui a très peu de backlinks (parfois un seul) au détriment de l'URL que souhaitait faire indexer le webmaster (et qui a donc en général plus d'un backlink, interne ou externe), la page indexée par Google peut à terme finir dans son "index complémentaire" faute de backlinks, et perdre ainsi toute visibilité dans Google. - Si l'on considère que les sites "scrapers" sont une menace de première importance pour la pertinence de Google, et que le filtrage du "contenu dupliqué" est l'un seul moyen qu'a Google de les combattre, on ne peut exclure qu'une des prochaines releases du filtre pénalise (volontairement ou pas) les sites qui auront trop d'urls en duplicate content. On n'est jamais trop prudent avec le duplicate content. Beaucoup de sites en ont fait l'expérience depuis plusieurs années (4?). Lordzener, il est préférable de régler le problème.
  23. Je parlais de dicodunet. Le contenu de ta page d'accueil y est en partie dupliqué. Si tu n'y as pas inscrit ce texte, c'est l'annuaire qui l'aura aspiré
  24. Salut, Tes malheurs sont sans doute liés à un problème de mauvaise gestion des URLs (URL canonique/ duplicate content). Il y a l'URL "/", l'URL "index.php" vers laquelle pointent tes pages internes, et l'URL "accueil.php" qui n'existe plus mais que google connait encore: http://www.google.fr/search?q=%22Kokimi+es...29&filter=0 Les 3 ont le même contenu, et ça perturbe visiblement (temporairement?) google qui ne connait que celle qui n'existe plus Par ailleurs, par le lien donné plus haut, on voit que tu as visiblement commis l'imprudence d'inscrire ton site dans un annuaire spammy en y copiant le contenu de ta page. Résultat: Lien sans valeur voire nuisible + contenu dupliqué => à éviter.
×
×
  • Créer...