Aller au contenu

karnabal

Hubmaster
  • Compteur de contenus

    2 290
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par karnabal

  1. Tu peux parfaitement faire un site designé et accessible, c'est loin d'être incompatible. Méthode SWFObjet ou sIRF pour les contenus en flash, DHTML pour les effets dits "Ajax"... même les menus déroulants bien conçus peuvent se dégrader très bien. J'ai l'impression que pour toi accessibilité ne rime plus avec beauté.
  2. Salut et sois le bienvenu sur le Hub ! Pourquoi n'échangerais-tu pas photo ou vidéo contre SEO ? Voilà un moyen simple de parvenir à l'optimisation de ton site.
  3. Pour un référencement optimum soit passer par un professionnel, soit apprendre le référencement (commencer par se documenter). Il y a pratiquement tout à faire sur ton site (et sans doute autour de celui-ci/netlinking). N'hésite pas à consulter les hubiens si tu as des questions précises mais là, je crains que tu n'as pas du tout la bonne approche.
  4. 'lo Régis Merci pour la source. Les exemples cités par Vanessa Fox ne sont pas vraiment ce qu'on peut appeler des liens brouillés (je pars bien sûr du principe qu'un lien brouillé l'est sciemment et dans le but de bloquer les bots), il s'agit simplement de liens en JS. Je crois qu'on est tous d'accord depuis le début, non ?
  5. En somme, il n'y a aucun intérêt pour ton site de voir cette page indexée. Pour la supprimer es-tu déjà allé dans l'interface d'administration de ton compte d'hébergement ?
  6. Pour le JS de type onclick cela est le cas depuis un moment même. Lorsqu'on brouille bien son lien je t'assure qu'il est impossible pour un moteur de le reconstituer et de crawler par celui-ci la page qu'il y a au bout. Il faut garder à l'esprit que le but de l'outil de recherche reste de crawler rapidement du coup il ne va pas chercher à dépenser non plus trop de ressources pour deviner quelle URL répond bien. Après, c'est sûr que si on décompose ainsi - par exemple - 'http://','www','nomdusite','.tld', on peut sans doute s'attendre à voir le lien suivi. En conséquence de quoi, il est toujours possible de faire du PR sculpting/Bot herding, si on s'y prend correctement.
  7. Par siloing il semble que l'on comprend plutôt "découpage thématique". Si on parle d'orienter les bots des moteurs de recherche, là l'expression consacrée est bot herding, et c'est justement le bot herding qui s'effectue, initialement, grâce au nofollow ; mais pas seulement. On peut guider/bloquer les robots à l'aide de Javascript notamment, donc rien de compliqué Laurent (JS permettant généralement de concaténer l'URL du lien).
  8. Ce qui semble faire consensus - hors considérations propres au référencement - si on possède un domaine avec un sous-domaine (autre que www), on n'ajoute pas les www. Si le domaine n'a pas de sous-domaine (autre que www), alors dans ce cas on lui acolle le sous-domaine www. Exemple : -http://bidule.machin.tld mais -http://www.machin.tld +1 pour la redirection.
  9. Tu ne nous expliques tes raisons de ce choix, quelles sont-elles ?
  10. Une redirection même permanente ne transmettra pas non plus toute la popularité, mais c'est largement mieux que rien. Tu peux poser la question sur le forum d'Overblog, mais je doute que tu puisses créer une telle redirection, mais qui sait, reviens ici pour nous dire ce qu'il en est. L'utilisation du terme "blog pro" ne semble pas très juste mais je pense voir ce que tu décris : une plateforme qui te permette essentiellement d'avoir plus de liberté (c'est notamment pour cela que c'est préférable à une solution du type de celle d'Overblog). Pour cela je te conseille de prendre un hébergement de type Plan chez OVH, un nom de domaine, et d'installer WordPress afin de bénéficier d'un système de blog puissant et hautement personnalisable.
  11. Présenter le contenu d'un site à plat n'est franchement pas une bonne idée, et pas que du point de vue SEO. Un lien vers une méthode SEO (siloing) qui justifie le découpage thématique d'un site. Tu peux te documenter un peu plus, je te donne ce lien à titre d'illustration. Parles-en à ton client !
  12. Un lien vers une méthode SEO (siloing) qui justifie le découpage thématique d'un site. Découper le site par thématique facilite le travail d'optimisation.
  13. Personne n'a fait état d'une quelconque proportion concernant le travail lié à l'écriture. Tu as des référenceurs qui n'écrivent jamais les contenus des sites pour lesquels ils travaillent. C'est d'ailleurs souvent le cas pour les consultants SEO. Le travail d'écriture se fait chez le client (typiquement via le service marketing) ou par le biais d'une boîte spécialisée.
  14. Quel travail a été effectué sur la structure du site (orientation du crawl) ? Sur les niveaux de profondeur ?
  15. Ton site n'est pas vraiment optimisé (wording de mauvaise qualité, pas de hiérarchisation de l'information au niveau des pages/Hn, peu de popularité...), je pense qu'il est normal que rien ne bouge côté positions. Reste à voir par ailleurs quelle méthode tu utilises pour constater les effets de ton travail car j'ai comme l'impression que tu ne surveilles qu'une poignée d'expression génériques. Durée moyenne d'un cycle de crawl, 15 jours-3 semaines.
  16. On référence un site simplement en créant un lien vers une des pages de celui-ci, depuis une page déjà connue par les moteurs de recherche. Toutes les pages crawlées sont donc référencées et susceptibles de donner lieu à des positions, que le site possède une ou plusieurs catégories thématiques. C'est ce qu'il se passe pour Wikipedia. Pour positionner les pages d'un site il y a de nombreuses optimisations possibles. En gros on traite les aspects techniques, sémantiques, et ceux lié à la popularité (netlinking). C'est la même chose pour un site à une ou plusieurs catégories thématiques. Je ne pense pas que les sites que tu as consultés soient représentatifs de la façon dont les référenceurs travaillent.
  17. Je sens comme un scepticisme moqueur dans ton commentaire. La pertinence ce n'est pas le webmaster qui la détermine mais bien l'outil de recherche. Prends aussi en compte le fait qu'il y a une notion graduelle, c'est pour cela que j'ai utilisé l'expression "pas suffisamment". Dans l'ordre : 1ère place, minisitelinks, sitelinks. Réjouis-toi d'avoir fait la moitié et travaille à l'obtention d'un sitelinks du cran au-dessus.
  18. Ce n'est pas grave, c'est filtré. S'il peut être important de produire des contenus différents - et je considère uniquement le référencement du site qui fait l'objet du communiqué de presse - c'est particulièrement si le texte contient un backlink, celui-là paraîtra alors plus naturel, notamment si l'anchor text est différent. On peut ainsi attendre qu'il soit mieux pris en compte par le moteur de recherche. Sinon, je ne vois pas d'impact en matière de référencement tel que semble l'entendre le Kid (référencement naturel d'un site donné et non visibilité globale).
  19. On peut ajouter aussi : présentations, réunions physiques ou conférence call, reporting, expérimentations...
  20. Tout simplement parce que Google estime que ton site n'est pas suffisamment pertinent sur la requête.
  21. Si j'ai quelque chose à dire à quelqu'un je ne me gêne généralement pas pour lui dire directement. Il fallait comprendre qu'un bon webmaster/référenceur est avant toute chose un webmaster/référenceur objectif. Je n'imagine pas une seconde qu'un professionnel digne de ce nom ne voyant pas les pages de son site placées favorablement dans les Serps mette en doute, de par ce seul fait, la qualité d'un moteur de recherche.
  22. Je connais peu de bons webmasters d'aussi mauvaise foi ! La notion de qualité est très subjective, les moteurs ne se basent pas directement dessus pour attribuer les positions. Par ailleurs, il faut garder à l'esprit que ce sont des informations qui sont indexées et présentées dans les Serps, pas des sites en tant que tels. Sur la plupart des outils de recherche on propose généralement l'accès à un document, et pas à un site. Je pense que cette mise au point sera utile aux plus néophytes d'entre nous.
  23. Je pense que tu focalises un peu trop sur l'importance (limitée du point de vue du référencement) des mots-clés présents dans un nom de domaine. Cela semble se faire au détriment d'une communication simple et percutante : plusieurs noms pour un même service, alors qu'un nom unique éventuellement associé à différents TLD semble dans la plupart des cas représenter le meilleur choix.
  24. Vu pour le sitelinks. Tu peux peut-être améliorer ça via Google Webmaster Tools. Pour le deuxième point, cela s'explique par le fait que Google accorde de l'importance aux liens intratexte qui peuvent lui sembler plus naturel. Par ailleurs on peut penser qu'ainsi tes pages de catégories seront plus crawlées et bénéficieront aussi de plus de linkjuice. Ajoutons à cela que si tu joues intelligemment sur les anchor texts tu feras profiter tes pages de catégorie d'un peu plus de sémantique.
×
×
  • Créer...