Aller au contenu

thick

Membre+
  • Compteur de contenus

    3 093
  • Inscrit(e) le

  • Dernière visite

Messages postés par thick

  1. Le problème est qu'un sous domaine ne bénéficie pas de la popularité du domaine principal.

    La 301 va permettre un transfert, mais tu éparpilles tes forces. Même Webrankinfo ne peut pas prétendre obtenir des résultats égaux sur ses différentes sections désormais en sous-domaines.

    Lorsque tout est relié directement au domaine principal, tu entraînes toute ta synergie en un seul ensemble. C'est tout de même plus économique à mon avis.

    Au final, je n'effectuerai pas cette transition par rapport à on objectif. Si la division était pour des raisons de divergence sur la thématique, je ne dis pas non. Pour des raisons SEO, je trouve bien au contraire que c'est diviser pour moins bien régner.

  2. Désolé d'insister, mais plus j'y pense et plus tu en dis trop ou pas assez. Si tu restreins aux objectifs, il faut rester entre ces bornes.

    Par contre, tout s'imbrique dans un cahier des charges et les commentaires de ce sujet tendent à prouver qu'il est difficile de parler des objectifs sans citer le reste. En l'occurrence, la discussion à propos d'un formulaire n'a pas lieu d'être si on reste dans le cadre des objectifs.

  3. Involontairement, je crois que tu dévies des objectifs stricts vers le cahier des charges. Cela dit, j'ai peut-être la déformation professionnelle qui voit les objectifs de manière très analytique.

    Ce n'est pas bien grave de déborder comme tu le fais.

    Par rapport à l'identification du visiteur, tu peux aussi aller plus loin (prospect, fournisseur, client, employé, ...)

  4. Au final, les conditions changent pour tout le monde.

    Patrick a tout à fait raison car je n'éprouve pas de difficulté à positionner une page aujourd'hui.

    La quête des backlinks a toujours été un point épineux. En bref, c'est chiant aujourd'hui autant qu'hier :D

    Y a vraiment que sur le référencement organique que je vois une énorme dégradation, mais la phase active d'apport de popularité continue de porter ses fruits.

    Désolé si j'ai émis un soupçon de pessimisme. Ce n'était pas mon intention.

    Ce qu'il faut garder à l'esprit est qu'il n'y a pas besoin d'être excellent en référencement car les autres sont tout simplement nuls. En effectuant un minimum de travail dans les règles de l'art, il est possible d'atteindre de belles performances.

    Pour ainsi dire, je n'ai jamais connu au site qui a bénéficié d'optimisation réf et qui n'a pas largement bénéficié de cet apport.

  5. Pas de faute, mais trop standard pour se démarquer; ce qui équivaut tout de même à un facteur ralentissant.

    Les comparateurs sont une solution, mais je ne la recommande pas tant que la boutique n'est pas absolument parfaite à tous points de vue. C'est trop coûteux pour permettre l'erreur.

    Plutôt, je ne pensais à de l'éditorial sur d'autres sites. Ça peut être des blogs ou ce que je préfère appeler des magazines Web dans ce contexte. Il y a des choix à faire pour créer en interne et publier chez autrui. Tout comme l'investissement doit être jaugé en fonction de la maîtrise (ou pas) du contenant.

    De plus, l'émulsion que je mentionne plus haut est vitale pour réussir dans le commerce en ligne. C'est tellement crucial que j'en vois trop qui se lancent dans cet aspect sans véritable stratégie. C'est l'échec garanti. Il s'agit de créer une animation autour des plateformes communautaires, mais surtout pas sans une préparation soignée.

  6. ThierryB introduit la bonne notion. En effet, c'est assez réducteur de parler de "référencement". Il vaut mieux évoquer la notion de "visibilité" qui implique beaucoup plus de canaux que strictement les résultats de recherche des moteurs.

    Il faut s'intéresser au Social Media Optimization et personal branding. J'en parle couramment sur mon blog.

  7. Le robots.txt est la première chose qu'un crawler va chercher sur un site. Comme suggère Capitaine Torche, si le robots.txt est absent, cela va générer une grande quantité de 404 qui sont visibles dans les logs serveurs.

    Ma recommandation est de toujours mettre ce fichier, même si c'est pour tout autoriser. Ca prend 3 secondes à faire et va soulager le serveur et faciliter le passage des robots d'indexation.

    Puis, il y a toujours les robots spammeurs à interdire. Même s'ils respectent moyennement l'interdiction, ça ne coûte pas plus cher d'ajouter quelques lignes. Pour ma part, j'ai pompé celui du Hub pour avoir la liste des crawlers à interdire ;)

  8. Pour moi, c'est vraiment de l'optimisation standard (trop standard) au niveau du catalogue. On reprend les mots clés cibles en dynamique dans les endroits clés du code source. Le problème est que ce n'est pas du tout subtil.

    Je verrais plutôt une mise en place de visibilité déportée sur d'autres plateformes, ainsi que la mise en oeuvre d'articles qui serviront d'appui au catalogue.

    Au niveau des liens, il faut arrêter les annuaires pour s'engager dans d'autres stratégies d'apport de popularité.

    Bref, c'est du référencement de base, mais pour sortir du lot il est nécessaire de franchir quelques étapes supplémentaires.

    Tout cela dépend du budget disponible ou des compétences couplées à du temps.

  9. Tu as des Private Label Products. Cela peut être des ebooks ou des logiciels qui ont une licence spéciale, permettant après achat d'en disposer pour la revente.

    C'est un système très courant aux USA, mais encore anecdotique en France (pourtant énorme marché).

    On en retrouve même sur Amazon.

    Exemple:
    />http://www.amazon.com/Everyday-losing-Watchers-Dieting-ebook/dp/B0028N668W

    Fournisseur
    />http://www.tradebit.com/filedetail.php/6904082-101-everyday-tips-for-losing-10-pounds

    Et d'autres choisissent de le distribuer gratuitement (normalement contre inscription emailing ou autre)
    />http://www.completelyfreeebooks.com/extra/ebayinfo/101_diet_tips.html

  10. Le problème que soulève Olivier a.k.a. MagiX est plus profond qu'il n'y paraît. Comme j'ai indiqué plus haut, l'endroit du code source où se situe le lien est crucial, mais le mal d'aujourd'hui concerne la mort du référencement organique ou linkbait comme disent les américains.

    En effet, il ne suffit plus de générer du contenu intéressant afin de susciter des liens naturels. Le nofollow avait déjà bien tué cette pratique puisque les endroits enclins à partager un lien de manière spontanée sont quasiment tous en nofollow.

    Maintenant, Twitter a achevé d'enterrer le référencement organique puisque préfèrent poster les liens sur la plateforme de micro-blogging. Pour achever le tout, nous avons vu l'apparition de ces infâmes "raccourcisseurs d'URLs", dont certains renvoient une saloperie de 302.

    Puisque tout le monde est désormais dans le même bain, l'équilibre subsiste, mais la donne a changé. Ceux qui restent sur des bases acquises il y a quelques années en termes de netlinking risquent d'être déçus au niveau des résultats.

  11. Le plus important pour un lien n'est pas qu'il soit unilatéral, triangulaire au perpendiculaire :D

    Ce qui va déterminer une véritable valeur au lien est le fait qu'il soit cliqué.

    Exactement comme dit Arlette, il faut raisonner en termes de visiteurs humains.

    Ensuite, un autre facteur primordial concerne l'environnement du lien. S'il est placé dans un endroit de prédilection du code source, c'est autrement plus valorisant.

    Ce n'est qu'en paramètre de troisième niveau que je place l'intérêt d'avoir un lien unilatéral.

  12. La vitesse de chargement des pages serait un paramètre de plus en plus valorisé par Google après la mise à jour de leur infrastructure (index y compris) à la fin du mois de janvier.

    Tout ce que tu peux passer en statique est préférable. Des détails importent comme construire des liens absolus plutôt que relatifs.

    Puis le serveur que tu as derrière ton site est un paramètre vital. La bécane qui pousse le Hub n'a rien à voir avec ton mut et ses zillions de sites hébergés sous le même toit.

  13. Quoiqu'il en soit, GWT permet d'exporter les BL au format CSV ... Toujours ça qui n'est pas à faire !

    Oui cette console est un bienfait d'après moi. J'apporte plus de valeurs aux exports de mots clés ou BLs depuis GWT, plutôt que ces foutus rapports de référencement qu'on pratique depuis si longtemps.

    Le problème n'est pas l'export, mais plutôt l'analyse.

    Prenons l'exemple d'une analyse de concurrence pour dénicher les bons BLs qu'ils ont récoltés. Évaluer la valeur d'un lien n'est pas sorcier, mais cela requiert un minimum d'expertise. Un stagiaire peut totalement s'en charger, mais il va falloir le former auparavant. C'est en négation complète avec les profils de stagiaire que je vois apparaître sur les petites annonces car la demande exige quelqu'un qui maîtrise déjà les tenants et aboutissements du métier.

    Pour moi, il y a une différence entre prendre une personne lambda pour la former ou vouloir un profil déjà qualifié dans le métier pour lui coller un statut stagiaire sur la tronche. Le deuxième cas démontre une tendance évidente à économiser de l'argent en abusant du stagiaire.

×
×
  • Créer...