Aller au contenu

Jan

Hubmaster
  • Compteur de contenus

    2 304
  • Inscrit(e) le

  • Dernière visite

Réputation sur la communauté

1 Neutre

1 abonné

À propos de Jan

  • Date de naissance 22/12/1963

Pour me contacter

  • Mon Site
    https://ppp2022.com

Information du profil

  • Genre
    Homme
  • Localisation
    Toulouse
  • Société
    Sans rapport avec mon activité sur le web, qui est purement perso.

Visiteurs récents du profil

46 869 visualisations du profil
  1. Bonjour Dan, Ah, les réseaux sociaux... Ca pourrait être marrant de relire les forums des concours. On rigolait bien. Jan
  2. Bonjour à toutes et à tous, Ou plutôt re-bonjour. Après presque 15 ans sans bouffer la moindre cigogne, je repasse par le Hub pour voir comment le webmastering a évolué. Mais cette fois je suis plus fort que l'addiction Je suis plus que jamais là en amateur. Finies les pages codées à la main sous notepad et optimisées au poil de c... pour plaire aux moteurs de recherche. Aujourd'hui je démarre un petit blog sous wordpress. Moins rigolo que notepad, mais surtout moins chronophage. Le positionnement dans Google me semble être devenu compliqué. Je suis là pour apprendre. Au plaisir.
  3. Bonjour Je ne serai pas aussi catégorique: de nombreux cas de perte de positionnement ont été rapportés suite à changement de registar. Théorie fumeuse: Changement de registar = Changement de business => perte du bénéfice lié à l'ancienneté
  4. Salut, le bad boy de référencement ;)

    J'espère que tu vas bien. Moi, je reviens sur le Hub (on revient toujours aux fondamentaux).

  5. Bonjour, - Eviter le contenu identique sur http://www.ojapon.com/ et http://www.french-penpals.com/ - Enlever le contenu dupliqué dans les profils des membres (texte d'intro: "Welcome etc..."). Chaque page doit être aussi spécifique que possible. Avec cet objectif: obliger tes membres à saisir des descriptions "about me" plus longues (imposer une longueur mini) - Eviter les liens internes vers http://www.ojapon.com/index.php si http://www.ojapon.com/ est l'URL que tu veux favoriser: encore du contenu dupliqué! - Résoudre l'éventuel problème (à vérifier par une analyse plus approfondie) que peut poser à Google le fait que ton texte soit en anglais, alors que la plupart des profils sont en français
  6. Bonjour, Personnellement, j'ai arrêté il y a bien longtemps de regarder et même d'afficher le PR de la toolbar. Il n'a aucune valeur et peut même t'induire en erreur. La popularité d'un site est simple et rapide à déterminer par quelques tests très basiques, comme site: dans google, la vérification des backlinks ou le positionnement d'un site sur ses mots-clés. Beaucoup plus fiable que le PR affiché dans la toolbar.
  7. Si je peux me permettre, faire les 2 en même temps serait préférable. C'est à dire faire un site facile à référencer dès sa conception. Référencer des "bouzes" (je ne parle pas de ton site hein) au look superbe, ça fait vivre les référenceurs, mais c'est une galère qui coute cher en rustines. Comme dit l'autre, il faut faire ses sites pour les visiteurs... mais ne pas oublier le plus important d'entre eux: Googlebot
  8. Bonjour, Il faut avant tout commencer par règler le gros problème de "duplicate content" sur ton site (plusieurs URLs qui renvoient la même page): />http://www.google.fr/search?hl=fr&source=hp&q=site:aleaweb.fr.nf&btnG=Recherche+Google&meta=&aq=f&oq= Je parle de toutes ces pages aleaweb.fr.nf/index.php?choix=... Fais en sorte que leurs contenus soient (suffisamment) différents. Ensuite, il faudra attaquer les autres optimisations.
  9. Bonjour :P

    Long time no see.

  10. Non, au contraire. Face à 2 pages identiques, Google va en choisir une, et (au mieux) relèguer l'autre dans les profondeurs de son classement de sorte que cette dernière ne recevra jamais aucun trafic de Google. Dans ces conditions autant en interdire l'indexation, non? Quel intérêt d'avoir une page dans Google si elle n'en retire aucun bénéfice en terme de trafic? Et au moins ça évite de faire prendre des risques à la page que l'on veut pousser dans les SERPS.
  11. Le NDD des nouveaux sites n'a à mon avis aucune importance. Tu peux même utiliser des sous-domaines du domaine principal: tv.people.com et cinema.people.com Pour éviter tout risque de problème sur le domaine principal lié au duplicate, le mieux est d'interdire l'indexation par Google des nouveaux sites.
  12. Il n'y aura pas de pénalisation des sites à proprement parler. Mais entre 2 pages au contenu identique, Google fera un choix: il n'en fera ressortir qu'une dans ses résultats sur les mots-clés de la page. L'autre sera sans doute indexée, mais dans l'index complémentaire, c'est à dire qu'elle sera invisible sur la recherche sur ses mots-clés. Laquelle des 2 pages Google va-t'il choisir? A priori, du moins au début, celle du site le plus ancien. Si tu veux privilégier celle du site récent, il faudra lui procurer des backlinks puissants.
  13. Bonjour et bienvenue sur le Hub. Ta façon d'envisager le référencement est tout à ton honneur et sans aucun doute efficace sur le long terme. Pour rebondir sur le titre du topic, imaginer qu'il existe un secret, l'arme absolue du référencement, est une erreur. Il y a plutôt des secrets, ou plus exactement des stratégies et des techniques qui marchent sur le long terme, d'autres sur le court-terme mais qui souvent ne sont pas pérennes, et d'autres qui ne marchent pas du tout voire sont contre-productives. Bref, il n'y a pas une façon unique de référencer un site, mais une multitude de façons en fonctions des sites, des objectifs du webmaster et des risques qu'il est prêt à prendre. Il serait risqué de montrer ici un exemple spécifique (on ne sait jamais qui peut lire nos propos ), mais je tenterai d'illustrer mon propos par le suivant: "Vous devez référencer un site événementiel. L'événement auquel est consacré le site aura lieu dans 3 mois. Il durera 15 jours. Une fois l'événement terminé, le site deviendra sans intérêt puisque de toutes façons le public cessera de s'intéresser à l'événement". Un tel cahier des charges oblige à obtenir des résultats rapidement mais permet de s'affranchir des risques de pénalités ou de déclassement qui interviendraient dans 6 mois. Si l'on met de côté l'aspect éthique de la chose, on peut tout à fait imaginer qu'une génération automatique de pages au contenu scrapé peut aider. Ce n'est qu'un exemple parmi d'autres de solution, peu perenne, mais potentiellement efficace dans ce cas précis.
  14. Bonjour, Difficile de se faire une idée sur un tel cas sans voir le site concerné. L'impact des pages multilingues que tu as ajoutées dépend du "dosage" et de la façon dont l'ajout de ces pages a modifié la structure (de liens) du site. On peut imaginer plusieurs raisons susceptibles d'expliquer des pertes de positions suite à l'ajout des pages multilingues. Par exemple: - Dilution du "link juice" passé aux pages en français du fait de l'ajout de liens vers les pages multilingues => perte de position des pages en français - Suite à l'ajout (brutal et massif?) de pages multilingues, Google a "un doute" (sans doute temporaire) sur le caractère français du site => il le classe moins bien sur google.fr - Duplicate content (partiel) entre tes pages fr et non-fr Il serait utile que tu regardes si la chute de tes pages sur leurs mots-clés est identique dans google.com et google.fr
×
×
  • Créer...