Aller au contenu

Le-juge

Hubmaster
  • Compteur de contenus

    1 727
  • Inscrit(e) le

  • Dernière visite

Messages postés par Le-juge

  1. Salut Netwee,

    Il y a toujours de legeres difference entre les resultats d'un utilisateur a un autre. Meme si il ne sont pas connecte a leurs comptes google. Cela a rappor avecles quelques parametres clients que GG va aller checker sur ton pc. (http://www.seo-muscle.com/seo-relevancy-parameters/)

    Il y a pas mal de chance aussi pour que ce soit une difference de Data center.

    Quant au non classement sur le .com, c'est aussi normal, le .fr "protege" les sites en francais. Quant tu cherches ton site sur le .com tu te forottes a beaucoup plus de concurrents voila tout

  2. Dans ces conditions autant en interdire l'indexation, non? Quel intérêt d'avoir une page dans Google si elle n'en retire aucun bénéfice en terme de trafic? Et au moins ça évite de faire prendre des risques à la page que l'on veut pousser dans les SERPS.

    Je suis plutot de l'avis de Jan, a savoir que si c'est pour faire du duplicate content.. je ne vois pas bien l'interet de generer du contenu. Par contre je modererais en disant qu'interdire l'indexation en fonction du site qu'on veut pousser ca peut vite devenir compliquer a gerer

  3. L'anciennete d'un site et sa fraicheur sont 2 choses differentes.

    L'anciennete du site dit depuis combien de temps l est sur le web. Sa fraicheur pred en compte la date a laquelle les infos du site on ete publies.

    PLus le site est ancien et plus il aura de chance d'avoir des positions. Maintenant montrer sur un site ancien des information a jour monter que le site est pertinent aussi.

    Pour savoir l'age d'un site il te suffit de faire un simple whois a priori

  4. Non mon besoin n'est pas d'avoir un audit de temps en temps

    le besoin c'est un suivi hebomadaire mais avec la possibilite d'utiliser l'outils pour faire des audits one shot pour les pitch clients ainsi que des benchmark (qui sont les 20/30 sites les pus visibles sur le web.

    Quand j'y travaillais 1ere-Poz avait un outils du genre (qui tournait sous yooda pro) avec une plateforme developpee Par Mr apocalx (pour ceux qui connaissent)

    Idem chez NetBooster, ils avaient une plateforme en interne tres performante.

    Brioude internet aussi avait quelquechose du genre il me semble

  5. Je ne parles pas du contenu meme si j'ai des doutes sur comment un mec a pu rediger 900 articles sans se repeter ni rien, je veux dire le meme gars? payer au SMIC en plus? Tu sais combien il me demande ici les copywriters?

    Bref le fait de partir d'entree de jeu avec 90 sites deja rien que ca! ca renifle pas bon!

    Je veux dire rien que l'intention d'arriver sur le web avec une galaxie de sites traitant tous des meme 3 sujet, de se dire qu'on va les linker entre eux, mais tout en faisant gaffe a pas avoir les memes ip. pour faire en sorte que google ne voient pas que c'et la meme compagnie quand il fait un whois.

    la Strategie toute entiere tiens de l'exploitation borderline de toute les guidelines de moteurs de recherches.

  6. Non,

    Il vaut mieux optimiser l'existant que de commencer avec quelquechose de neuf a mon avis.

    Idem ca ne sert a rien de mettre 4 fois le meme lien dans ton post avec les mots cles qui vont bien, Google n'en prendra qu'un seul en compte (verifie) et de plus tu risque fort de te faire modere (c'est ce que je ferais moi si j'etais modo)

×
×
  • Créer...