Aller au contenu

thick

Membre+
  • Compteur de contenus

    3 093
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par thick

  1. Il y a eu un cash de la base de données. Dan a restauré, mais les derniers posts on sauté
  2. Ouf! J'ai failli poster le premier en disant "rien compris" Je reviens par ici soulagé de voir que le problème est résolu.
  3. Le problème est qu'un sous domaine ne bénéficie pas de la popularité du domaine principal. La 301 va permettre un transfert, mais tu éparpilles tes forces. Même Webrankinfo ne peut pas prétendre obtenir des résultats égaux sur ses différentes sections désormais en sous-domaines. Lorsque tout est relié directement au domaine principal, tu entraînes toute ta synergie en un seul ensemble. C'est tout de même plus économique à mon avis. Au final, je n'effectuerai pas cette transition par rapport à on objectif. Si la division était pour des raisons de divergence sur la thématique, je ne dis pas non. Pour des raisons SEO, je trouve bien au contraire que c'est diviser pour moins bien régner.
  4. _AT_Le-juge : celui d'une agence réf avec qui je bosse parfois. C'est super pratique et pas trop compliqué à mettre en place.
  5. Désolé d'insister, mais plus j'y pense et plus tu en dis trop ou pas assez. Si tu restreins aux objectifs, il faut rester entre ces bornes. Par contre, tout s'imbrique dans un cahier des charges et les commentaires de ce sujet tendent à prouver qu'il est difficile de parler des objectifs sans citer le reste. En l'occurrence, la discussion à propos d'un formulaire n'a pas lieu d'être si on reste dans le cadre des objectifs.
  6. Je ne peux pas t'aider car je n'utilise pas cette extension.
  7. Involontairement, je crois que tu dévies des objectifs stricts vers le cahier des charges. Cela dit, j'ai peut-être la déformation professionnelle qui voit les objectifs de manière très analytique. Ce n'est pas bien grave de déborder comme tu le fais. Par rapport à l'identification du visiteur, tu peux aussi aller plus loin (prospect, fournisseur, client, employé, ...)
  8. A mon avis, le principe serait de squatter le mot clé se rapportant au nom de domaine puisque ce genre de trafic est loin d'être negligeable. Reste le souci éthique pour ne pas tomber dans le cybersquatting
  9. Je pense que tu peux cibler plus large en parlant carrément du cahier des charges à déterminer pour n'importe quel projet Web : Objectif Public Visé Message Perspectives Interlocuteurs Langues Ressources Specifications techniques Structure Aspect et qualité Présentaton Contraintes Libertés Interactivité Maintenance Délai Budget
  10. Au final, les conditions changent pour tout le monde. Patrick a tout à fait raison car je n'éprouve pas de difficulté à positionner une page aujourd'hui. La quête des backlinks a toujours été un point épineux. En bref, c'est chiant aujourd'hui autant qu'hier Y a vraiment que sur le référencement organique que je vois une énorme dégradation, mais la phase active d'apport de popularité continue de porter ses fruits. Désolé si j'ai émis un soupçon de pessimisme. Ce n'était pas mon intention. Ce qu'il faut garder à l'esprit est qu'il n'y a pas besoin d'être excellent en référencement car les autres sont tout simplement nuls. En effectuant un minimum de travail dans les règles de l'art, il est possible d'atteindre de belles performances. Pour ainsi dire, je n'ai jamais connu au site qui a bénéficié d'optimisation réf et qui n'a pas largement bénéficié de cet apport.
  11. Pas de faute, mais trop standard pour se démarquer; ce qui équivaut tout de même à un facteur ralentissant. Les comparateurs sont une solution, mais je ne la recommande pas tant que la boutique n'est pas absolument parfaite à tous points de vue. C'est trop coûteux pour permettre l'erreur. Plutôt, je ne pensais à de l'éditorial sur d'autres sites. Ça peut être des blogs ou ce que je préfère appeler des magazines Web dans ce contexte. Il y a des choix à faire pour créer en interne et publier chez autrui. Tout comme l'investissement doit être jaugé en fonction de la maîtrise (ou pas) du contenant. De plus, l'émulsion que je mentionne plus haut est vitale pour réussir dans le commerce en ligne. C'est tellement crucial que j'en vois trop qui se lancent dans cet aspect sans véritable stratégie. C'est l'échec garanti. Il s'agit de créer une animation autour des plateformes communautaires, mais surtout pas sans une préparation soignée.
  12. le .htaccess est un peu particulier. Tu as des publications très complètes sur le Hub qui pourront t'aider à en savoir plus. Sinon, le code pour rediriger site.com vers www.site.com pourrait être : RewriteCond %{HTTP_HOST} !www.site.com$ RewriteRule (.*) http://www.site.com/$1 [QSA,L,R=301]
  13. Exactement! Nous sommes en présence du cas typique d'un site qui fait son possible pour suivre les recommandations de base pour l'opti SEO, mais il est nécessaire aujourd'hui de s'armer avec des moyens supplémentaires qui vont générer l'émulsion nécessaire pour engendre le succès commercial.
  14. Si je devais lancer un site de petites annonces, j'irais tout simplement crawler ailleurs afin de générer une base attractive. Ensuite, réduire conséquemment les annonces de provenance extérieure en fonction de la montée en charge des soumissions en interne.
  15. ThierryB introduit la bonne notion. En effet, c'est assez réducteur de parler de "référencement". Il vaut mieux évoquer la notion de "visibilité" qui implique beaucoup plus de canaux que strictement les résultats de recherche des moteurs. Il faut s'intéresser au Social Media Optimization et personal branding. J'en parle couramment sur mon blog.
  16. Le robots.txt est la première chose qu'un crawler va chercher sur un site. Comme suggère Capitaine Torche, si le robots.txt est absent, cela va générer une grande quantité de 404 qui sont visibles dans les logs serveurs. Ma recommandation est de toujours mettre ce fichier, même si c'est pour tout autoriser. Ca prend 3 secondes à faire et va soulager le serveur et faciliter le passage des robots d'indexation. Puis, il y a toujours les robots spammeurs à interdire. Même s'ils respectent moyennement l'interdiction, ça ne coûte pas plus cher d'ajouter quelques lignes. Pour ma part, j'ai pompé celui du Hub pour avoir la liste des crawlers à interdire
  17. Je plussoir Jean-Luc Ce site est horriblement suroptimisé pour un manque flagrant de contenu pertinent. La popularité est proche du néant. En gros, tout est à faire...
  18. Pour moi, c'est vraiment de l'optimisation standard (trop standard) au niveau du catalogue. On reprend les mots clés cibles en dynamique dans les endroits clés du code source. Le problème est que ce n'est pas du tout subtil. Je verrais plutôt une mise en place de visibilité déportée sur d'autres plateformes, ainsi que la mise en oeuvre d'articles qui serviront d'appui au catalogue. Au niveau des liens, il faut arrêter les annuaires pour s'engager dans d'autres stratégies d'apport de popularité. Bref, c'est du référencement de base, mais pour sortir du lot il est nécessaire de franchir quelques étapes supplémentaires. Tout cela dépend du budget disponible ou des compétences couplées à du temps.
  19. Tu as des Private Label Products. Cela peut être des ebooks ou des logiciels qui ont une licence spéciale, permettant après achat d'en disposer pour la revente. C'est un système très courant aux USA, mais encore anecdotique en France (pourtant énorme marché). On en retrouve même sur Amazon. Exemple: />http://www.amazon.com/Everyday-losing-Watchers-Dieting-ebook/dp/B0028N668W Fournisseur />http://www.tradebit.com/filedetail.php/6904082-101-everyday-tips-for-losing-10-pounds Et d'autres choisissent de le distribuer gratuitement (normalement contre inscription emailing ou autre) />http://www.completelyfreeebooks.com/extra/ebayinfo/101_diet_tips.html
  20. Le problème que soulève Olivier a.k.a. MagiX est plus profond qu'il n'y paraît. Comme j'ai indiqué plus haut, l'endroit du code source où se situe le lien est crucial, mais le mal d'aujourd'hui concerne la mort du référencement organique ou linkbait comme disent les américains. En effet, il ne suffit plus de générer du contenu intéressant afin de susciter des liens naturels. Le nofollow avait déjà bien tué cette pratique puisque les endroits enclins à partager un lien de manière spontanée sont quasiment tous en nofollow. Maintenant, Twitter a achevé d'enterrer le référencement organique puisque préfèrent poster les liens sur la plateforme de micro-blogging. Pour achever le tout, nous avons vu l'apparition de ces infâmes "raccourcisseurs d'URLs", dont certains renvoient une saloperie de 302. Puisque tout le monde est désormais dans le même bain, l'équilibre subsiste, mais la donne a changé. Ceux qui restent sur des bases acquises il y a quelques années en termes de netlinking risquent d'être déçus au niveau des résultats.
  21. Ca m'a l'air propre au premier abord. Juste un détail : le tag Google Analytics se place en fin de code source, juste avant la balise de fermeture du body </body> Parmi les petits trucs qui sont impératifs : robots.txt et redirection site.com vers www.site.com
  22. Le plus important pour un lien n'est pas qu'il soit unilatéral, triangulaire au perpendiculaire Ce qui va déterminer une véritable valeur au lien est le fait qu'il soit cliqué. Exactement comme dit Arlette, il faut raisonner en termes de visiteurs humains. Ensuite, un autre facteur primordial concerne l'environnement du lien. S'il est placé dans un endroit de prédilection du code source, c'est autrement plus valorisant. Ce n'est qu'en paramètre de troisième niveau que je place l'intérêt d'avoir un lien unilatéral.
  23. Conseils pleins de bon sens comme Patrick sait en donner. J'extrapole juste sur le premier point. Pour moi, j'ajoute thématique similaire ou complémentaire
  24. Tu veux une garantie qu'il est impossible de te donner ! En tout cas, je me m'avancerai pas à propos d'un site dont je ne supervise pas l'optimisation. Si tu fais ce qu'il faut, même pas besoin de poser la question car il est évident que ça va être bénéfique.
  25. La vitesse de chargement des pages serait un paramètre de plus en plus valorisé par Google après la mise à jour de leur infrastructure (index y compris) à la fin du mois de janvier. Tout ce que tu peux passer en statique est préférable. Des détails importent comme construire des liens absolus plutôt que relatifs. Puis le serveur que tu as derrière ton site est un paramètre vital. La bécane qui pousse le Hub n'a rien à voir avec ton mut et ses zillions de sites hébergés sous le même toit.
×
×
  • Créer...