Aller au contenu

Sebastien

Hubmaster
  • Compteur de contenus

    2 598
  • Inscrit(e) le

  • Dernière visite

Réputation sur la communauté

0 Neutre

À propos de Sebastien

  • Date de naissance 23/07/1976

Pour me contacter

  • Mon Site
    http://www.sebastien-billard.fr/seo/

Information du profil

  • Genre
    Homme
  • Localisation
    Lille
  • Société
    3 Suisses France
  1. Pour les exégètes, Google France vient d emettre en ligne la vidéo de la conférence : http://www.youtube.com/watch?v=tvlzusYewlM
  2. Amha avec Caffeine Google s'est dotée des capacités pour rester frais dans le futur. Il ne s'agissait par forcément de rafraichir l'index actuel.
  3. Cela fait longtemps que les référenceurs conseillent de ne pas s'attacher aux seuls positionnements. Cela dit, le contrôle de positions reste un outil d'analyse. La personnalisation des résultats semble mettre à mal le contrôle de positionnement. Il est vrai que le contrôle de positionnement ne sera plus totalement représentatif de ce que voient les internautes. Mais je pense qu'il reste intéressant car il indiquera toujours une tendance, les résultats personnalisés n'étant qu'un réarrangement des résultats par défaut. Une étude vraiment intéressante à faire dans quelques temps serait d'analyser la variance des résultats de recherche pour un grand nombre d'utilisateur.
  4. Par "libres" j'entendais "sous licences libres" lesquelles précisent en général les conditions d'attribution, modification, republication etc. Reste que le droit d'auteur continue de s'appliquer bien sûr. En France pour les écrits anciens, le principe est qu'un livre tombe dans le domaine public 70 ans après la mort de l'auteur (50 ans je crois pour certains pays comme le Canada). Mais il y a des exceptions, par exemple quand l'auteur est mort pour la France. C'est assez compliqué.
  5. Quels genre d'ebooks comptes-tu publier aussi ? Car il existe des contenus libres, des contenus appartenant au domaine public...
  6. J'ai pas trop chargé la mule - euh le renard Je me limite à Webdeveloper, Timmy Miner, Useragent switcher. Après j'utilise aussi quelques logiciels à part comme Webbug, Xenu, et services en ligne comme XML sitemap
  7. Plus exactement j'ai énoncé différentes possibilités : - Interdire purement l'indexation : amha stupide - Permettre l'indexation du seul titre et du début des articles : frustrant pour l'utilisateur, pas vraiment intéressant pour le moteur - Utiliser le "first click free" : une alternative bien plus intelligente que les deux premières possibilités si la vision de l'éditeur est de faire payer son contenu. A la fois satisfaisant car l'utilisateurs a accès à l'info dans l'immédiat et peut être encouragé à s'abonner. - Ouvrir totalement l'indexation : amha la meilleure solution dans l'absolu sauf peut être certaines publications spécialisées. Trafic gratuit qui peut être plus ou moins monétisé, notoriété, potentiel viral... J'ai aussi démonté un à un les arguments de Murdoch sur le prétendu "vol", sur la notion de "visites aléatoires" etc. _AT_Régis : oui le Search est un beau marché
  8. Interrogé hier à l'improviste par une journaliste du Figaro sur le fait que Ruppert Murdoch envisage de sortir de Google News et de faire payer les moteur pour son contenu
  9. Sans préjuger de quoi que ce soit, une prestation de référencement gagne à être transparente. Un client est en droit de savoir quels sont les liens pointant vers son site. Si le prestataire refuse de communiquer, on peut les trouver en utilisant Yahoo Site Explorer qui affiche plus de lens que Google : https://siteexplorer.search.yahoo.com/mysites Dans l'outil cliquer sur le bouton "Inlinks" et sélectionner les options "show inlinks except from this domain" (pour filtrer vos propres liens) et "to entire site" (pour afficher les liens pointant vers n'importe quelle page du domaine)
  10. Ca pourrait changer http://searchengineland.com/canonical-tag-2-0-google-to-add-cross-domain-support-27222 (mais ce qu'a dit Nosurf99 reste vrai actuellement)
  11. Si la barre verte disparaissait ? La belle affaire ! Il faudra toujours du lien, en quantité et en qualité. Donc ça ne change rien à la pratique du référenceur.
  12. Il s'agit simplement d'une visite ordinaire en provenance de http://kebat.com/ (note le sous-domaine "r" des liens dans les pages de résultats, probablement pour des raisons de tracking)
  13. Tu souhaites gérer ça toi même ? Car pour un usage ponctuel il existe des services gratuits de sondage comme celui-ci que j'avais utilisé une fois : http://www.votations.com/fr/
  14. Je suis partisan de fuir tout ce qui est automatisé. La soumission manuelle et ciblée reste la plus efficace et permet de donner une impulsion aux nouveaux sites. Tu peux t'aider des nombreux "annuaire d'annuaires" ou des posts de blogs sur le sujet. Lire par ex le récent billet d'Axenet : http://blog.axe-net.fr/10-annuaires-de-qua...ire-votre-site/ Après les annuaires ne suffisent pas. Il faut essayer d'obtenir des liens en provenance de sites faisant autorité dans ta thématique. Si tu as d'autres sites dans ton réseau, tu peux les exploiter pour créer du lien. Enfin ne pas hésiter à mentionner son URL partout, sans pour autant spammer. Par ex dans les profils de forums, dans les signatures, les réseaux sociaux, les commentaires de blogs etc. Les actions de communication autour du site peuvent aussi générer indirectement du lien, comme les communiqués de presse, l'organisation d'évènements, le test des produits par des leaders d'opinion etc.
  15. Google vise justement à ne pas modifier les SERPs, donc les changements seront très subtils. S'ils sont demandeurs de feedack amha c'est justements pour éviter un bouleversement des SERPs consécutif au changement d'architecture de l'index qui perturberait les utilisateurs.
×
×
  • Créer...