Jump to content

Sebastien

Hubmaster
  • Content Count

    2598
  • Joined

  • Last visited

Everything posted by Sebastien

  1. Pour les exégètes, Google France vient d emettre en ligne la vidéo de la conférence : http://www.youtube.com/watch?v=tvlzusYewlM
  2. Amha avec Caffeine Google s'est dotée des capacités pour rester frais dans le futur. Il ne s'agissait par forcément de rafraichir l'index actuel.
  3. Cela fait longtemps que les référenceurs conseillent de ne pas s'attacher aux seuls positionnements. Cela dit, le contrôle de positions reste un outil d'analyse. La personnalisation des résultats semble mettre à mal le contrôle de positionnement. Il est vrai que le contrôle de positionnement ne sera plus totalement représentatif de ce que voient les internautes. Mais je pense qu'il reste intéressant car il indiquera toujours une tendance, les résultats personnalisés n'étant qu'un réarrangement des résultats par défaut. Une étude vraiment intéressante à faire dans quelques temps serait d'analys
  4. Par "libres" j'entendais "sous licences libres" lesquelles précisent en général les conditions d'attribution, modification, republication etc. Reste que le droit d'auteur continue de s'appliquer bien sûr. En France pour les écrits anciens, le principe est qu'un livre tombe dans le domaine public 70 ans après la mort de l'auteur (50 ans je crois pour certains pays comme le Canada). Mais il y a des exceptions, par exemple quand l'auteur est mort pour la France. C'est assez compliqué.
  5. Quels genre d'ebooks comptes-tu publier aussi ? Car il existe des contenus libres, des contenus appartenant au domaine public...
  6. J'ai pas trop chargé la mule - euh le renard Je me limite à Webdeveloper, Timmy Miner, Useragent switcher. Après j'utilise aussi quelques logiciels à part comme Webbug, Xenu, et services en ligne comme XML sitemap
  7. Plus exactement j'ai énoncé différentes possibilités : - Interdire purement l'indexation : amha stupide - Permettre l'indexation du seul titre et du début des articles : frustrant pour l'utilisateur, pas vraiment intéressant pour le moteur - Utiliser le "first click free" : une alternative bien plus intelligente que les deux premières possibilités si la vision de l'éditeur est de faire payer son contenu. A la fois satisfaisant car l'utilisateurs a accès à l'info dans l'immédiat et peut être encouragé à s'abonner. - Ouvrir totalement l'indexation : amha la meilleure solution dans l'absolu
  8. Interrogé hier à l'improviste par une journaliste du Figaro sur le fait que Ruppert Murdoch envisage de sortir de Google News et de faire payer les moteur pour son contenu
  9. Sans préjuger de quoi que ce soit, une prestation de référencement gagne à être transparente. Un client est en droit de savoir quels sont les liens pointant vers son site. Si le prestataire refuse de communiquer, on peut les trouver en utilisant Yahoo Site Explorer qui affiche plus de lens que Google : https://siteexplorer.search.yahoo.com/mysites Dans l'outil cliquer sur le bouton "Inlinks" et sélectionner les options "show inlinks except from this domain" (pour filtrer vos propres liens) et "to entire site" (pour afficher les liens pointant vers n'importe quelle page du domaine)
  10. Ca pourrait changer http://searchengineland.com/canonical-tag-2-0-google-to-add-cross-domain-support-27222 (mais ce qu'a dit Nosurf99 reste vrai actuellement)
  11. Si la barre verte disparaissait ? La belle affaire ! Il faudra toujours du lien, en quantité et en qualité. Donc ça ne change rien à la pratique du référenceur.
  12. Il s'agit simplement d'une visite ordinaire en provenance de http://kebat.com/ (note le sous-domaine "r" des liens dans les pages de résultats, probablement pour des raisons de tracking)
  13. Pour ce qui est du nofollow, je n'avais pas vu et m'en fiche un peu mais Google dit aussi" If you want to recognize and reward trustworthy contributors, you could decide to automatically or manually remove the nofollow attribute on links posted by members or users who have consistently made high-quality contributions over time."
  14. En particulier certains me semblent peu accessibles : "nouveau contenu" serait par ex avantageusement remplacé par "nouveaux messages" ou "derniers messages", plus explicite. Egalement le nombre de pages vues de chaque forum ou topic a probablement peu d'intérêt pour l'utilisateur lambda.
  15. Tu souhaites gérer ça toi même ? Car pour un usage ponctuel il existe des services gratuits de sondage comme celui-ci que j'avais utilisé une fois : http://www.votations.com/fr/
  16. Perso j'ai aussi beaucoup de mal avec le look and feel qui me semble plus complexe. Dur de changer quand on a ses habitudes... Mais ça va évoluer c'est bien ça ?
  17. Je suis partisan de fuir tout ce qui est automatisé. La soumission manuelle et ciblée reste la plus efficace et permet de donner une impulsion aux nouveaux sites. Tu peux t'aider des nombreux "annuaire d'annuaires" ou des posts de blogs sur le sujet. Lire par ex le récent billet d'Axenet : http://blog.axe-net.fr/10-annuaires-de-qua...ire-votre-site/ Après les annuaires ne suffisent pas. Il faut essayer d'obtenir des liens en provenance de sites faisant autorité dans ta thématique. Si tu as d'autres sites dans ton réseau, tu peux les exploiter pour créer du lien. Enfin ne pas hésiter à mention
  18. Google vise justement à ne pas modifier les SERPs, donc les changements seront très subtils. S'ils sont demandeurs de feedack amha c'est justements pour éviter un bouleversement des SERPs consécutif au changement d'architecture de l'index qui perturberait les utilisateurs.
  19. En diminuant la taille de l'image, on peut bien perdre en netteté (perçue). L'outil netteté de photoshop n'est pas le plus adapté. Le masque flou est bien plus adapté pour renforcer la netteté (fort gain, faible rayon, faible seuil). Mais attention cela reste un artifice, le niveau de détail ne change pas. Un jpeg peut être parfaitement net à l'oeil tant qu'on ne compresse pas trop (par ex en descendant en dessous de 70% de taux de compression).
  20. Je n'y connais presque rien en domaining, mais niveau référencement je ne vois pas de potentiel énorme aujourd'hui pour les .tel (les choses peuvent évoluer cela dit). Je ne crois pas à des moteurs spécialisés, que les internautes de toute façon ne fréquenteront pas. Un local business listing chez Google est plus intéressant. Reste que ces domaines peuvent être réservés pour éviter le cyber squatting, et que leur contenu peut être optimisé (un peu).
  21. Par ici : http://www.google.fr/webmasters/spamreport.html
  22. Eh bien cela dépend déjà du client : certain ont besoin de bosser sur le contenu, d'autre sur le linking, d'autre nécessitent des ajustements techniques... Le référenceur doit aussi veiller. Le référenceur peut aussi éventuellement délivrer des formations. Bref pas d'emploi du temps type.
  23. J'avais remarqué ce matin. Ca ne concerne que les versions francophones. Ce pourrait être un bug : cf http://www.zdnet.fr/actualites/internet/0,...39392068,00.htm
  24. Les consultants n'ont pas accès à plus d'information que quiconque. C'est juste que tout moteur digne de ce nom utilise aujourd'hui le PageRank ou un algo similaire. D'ailleurs Google lui-même admet toujours s'en servir : http://adsense-fr.blogspot.com/2009/03/edi...t-realites.html
  25. Mais dès qu'il y a de la concurrence en terme de pages) on a beaucoup de pages avec une pertinence très proche en haut du panier. Je ne dirai pas donc que l'influence du PR soit "minimale" en soi. Par contre oui, le PR n'est pas le determinant de base de la visibilité d'un document, il ne l'a jamais été d'ailleurs
×
×
  • Create New...