Aller au contenu

Stephane

Hubmaster
  • Compteur de contenus

    809
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Stephane

  1. Aaaah ! enfin un peu d'action ! Allez, on sort la bière et les paquets de chips et on s'installe confortablement pour assister au match
  2. Bonjour, Tous les référenceurs se doutent bien depuis longtemps que le nombre de résultats affichés par Google n'est que le produit d'une extrapolation visant à le faire correspondre au nombre de documents total censés être indexés par le moteur. Mais jusqu'à présent cela n'avait pas encore été démontré statistiquement, et il restait impossible d'estimer autrement qu'au jugé les nombres de résultats réels... Et bien, maintenant la démonstration statistique est faire, grâce à Jean Véronis : http://aixtal.blogspot.com/2005/02/web-le-...quantes-de.html - le fait que les nombres de résultats soient le produit d'une corrélation avec la taille prétendue de l'index plutôt que la réalité est maintenant démontré, et de façon brillante - le "bug" constaté sur le nombre de résultats affichés pour des requêtes booléenes correspondrait en fait à un oubli d'implémentation par Google de la routine d'extrapolation lui servant à gonfler le nombre de résultats apparents - la taille réelle de l'index de Google serait de 60% du total affiché sur leur page d'accueil, soit 5,5 milliards de documents - le nombre de résultats affichés pour chaque requête serait surévalué en moyenne de 66% (ce facteur d'inflation fonctionne principalement pour les requêtes anglaises pour le moment) - Jean Véronis nous fournit en outre un moyen apparemment fiable de trouver le nombre réel de résultats pour la plupart des mots-clés. Il suffit en effet de taper 2 fois le même mot-clé
  3. Je me demandais ce que tu entendais exactement par "ambiance" en effet Mais quoi qu'il en soit, la concurrence ça met de l'ambiance Ce n'est pas ce que je dis. Au contraire, je disais qu'il n'était même pas nécessaire de progresser en audience pour progresser aux baromètres de part de trafic. Si jamais des responsables marketing de moteurs de recherche sont à l'écoute du Hub en ce moment et souhaitent faire un score sur un baromètre, ils feraient bien de prendre exemple sur ce que viennent de réussir Voila et MSN
  4. Si si, au contraire. MAJ = nombre de sites indexés plus important + fraicheur plus grande des résultats = progression du score aux baromètres même si l'audience est constante
  5. Bien sûr, la percée de MSN est intéressante dans ces baromètres de janvier, surtout que leur campagne de com n'est pas encore lancée... Le baromètre le plus significatif par rapport à la réussite du lancement de ce nouveau moteur sera certainement celui de mars prochain. Mais le score de Voilà est très intéressant à observer également. La raison de ce sursaut de Voila est une grosse mise à jour de son index, la première depuis très très longtemps... Comme quoi, il suffisait de pas grand chose pour ce moteur dont l'audience est toujours énorme pour remonter dans les baromètres. Pour des sites récemment lancés, j'observe jusqu'à 40% de part de trafic pour Voila en ce moment. D'ailleurs, pour rappel, les baromètres mensuels ne mesurent ni la part de marché (sinon Yahoo serait 1er partout, il me semble), ni même la part d'audience, mais uniquement la part de trafic généré sur un panel de sites par les différents moteurs. Dans ce cadre, il suffit d'un ralentissement du rafraichissement de l'index ou de problèmes ponctuels de pertinence des résultats pour qu'on moteur décline. C'est peut-être ce qui se passe actuellement pour Google. Contrairement à Dan, je ne dirais pas 'fin de la tradition Google", mais plutôt retour à une situation de concurrence. Ce qui est une bonne nouvelle puisque ces concurrents commencent à "se battre vraiment" en ce moment, au bénéfice tant des utilisateurs que des webmasters ou référenceurs
  6. Ni l'un, ni l'autre. C'est "déconseillé", mais ça reste quoi qu'il en soit la meilleure manière de référencer un site Flash compte tenu des limitations actuelles des moteurs. Tant que les moteurs ne prendront pas en compte la réalité du web d'aujourd'hui, et notamment l'existence de sites 100% flash, les pages satellites resteront une méthode d'optimisation "conseillée" par les référenceurs un tant soit peu professionnels.
  7. Je te crois, J'ai fait pas mal de tests avec les 302 ces derniers temps. Sur mes propres sites bien sûr. La 1ère fois que j'ai déréférencé un site par des redirections c'était purement accidentel alors que j'essayais de l'aider au contraire Résultat des tests : ben parfois ça marche (cible déréférencée), parfois ça marche pas... Sans que je puisse pour autant en trouver la raison... Il me semble que le fait que l'émetteur de la redirection ait un PR ou un nombre de backlinks plus élevé que la cible a de l'importance, et favorise le déréférencement. Mais ce n'est pas une loi absolue puisque j'ai vu aussi de nombreux contre-exemples. Bref, tout ce qu'on peut en dire pour le moment, c'est qu'il faut être très prudent avec les redirections serveur, et qu'il faut espérer que Google se bouge un peu plus vite pour résoudre le problème...
  8. J'ai constaté au moins une fois un cas de déréférencement dans Google avec une 301. J'avais fait pointer un PR7 vers un PR0 qui s'est retrouvé immédiatement déréférencé. Mais c'était il y un an, et je n'ai jamais pu renouveler l'expérience depuis, donc je suppose que le bug de Google est résolu au moins pour les 301. Par contre, je confirme que les redirections 302 sont toujours aussi dangereuses, pour le site vers lequel on redirige bien sûr, pas pour le site qui emet la redirection. Celui-là en profite au contraire, ce qui explique peut-être le progrès en PR de ton site PwetPwet.
  9. C'est sûrement une coincidence... mais dans le top 10 des plus fortes chutes de positionnement d'aujourd'hui, je ne peux pas pas m'empêcher de remarquer un point commun troublant entre les "perdants" du jour : 3 concurrents directs de Google dans les plus fortes baisses de classement. Etrange, non ?
  10. Pour le train, ok pour moi et YvY (vendredi) Ce serait sympa qu'on puisse être tous ou presque dans le même hôtel. Pour ma part, je compte rester 2 nuits (c'est l'occasion de voir un peu Marseille) S'il y a des réservations groupées dans un hôtel au "tarif Arlette", on veut bien une chambre double (avec lits jumeaux), Mme la Présidente et moi.
  11. Petit conseil aux webdesigners mâles (le daltonisme, même léger est extrêmement rare chez les femmes), faîtes un ou plusieurs tests afin de savoir si vous n'êtes pas atteint d'une forme ou d'une autre de daltonisme. La plupart des personnes ayant des déficiences légères de la vision colorée (trichromates anormaux) ne le savent pas en général. Maintenant que les tests de dépistage ne sont plus systématiques en France, cela va aller en s'accentuant. Or, il est beaucoup plus difficile à un daltonien de faire un site accessible à tous. Déjà avoir une idée de ce que voient les trichromates est difficile. Mieux vaut faire vérifier le résultat par une femme, tout comme le choix de vos vêtements Mais faire un design accessible aux autres types de daltoniens est encore plus difficile lorsqu'on l'est soi-même...
  12. Ce sera probablement difficile pour moi de trouver les meilleurs exemples... Regarde quand même sur cette page, l'exemple de l'image "Four Score And Seven Years Ago" Oops ! j'avais mal lu... Pas bien réveillé moi ce matin
  13. Dans ce sens là, il n'existe aucun moyen désolé. Tu peux priver un trichromate de la vision d'une des 3 couleurs, mais pas rendre visible une troisième couleur à un daltonien. A une époque j'avais testé des systèmes de filtres colorés. Ca permet dans certains cas d'accentuer un peu les contrastes mais en aucun cas de voir comme un trichromate. Je ne suis pas sûr de bien comprendre ce que tu dis. Le daltonisme est au contraire très objectif. Un daltonien aveugle au rouge (le cas le plus fréquent je crois) verra le violet (un mélange de bleu et rouge sauf erreur) comme du bleu ordinaire. La difficulté en webdesign à rendre un site accessible aux daltoniens vient du fait qu'il existe 4 sortes différentes de daltonisme. L'erreur la plus fréquente consiste à croire que si une charte graphique est visible en impression noir et blanc, elle sera forcément accessible aux daltoniens. Malheureusement ce n'est pas vrai, la gestion du contraste de couleurs n'a rien à voir avec le contraste de luminosité.
  14. Exactement, et c'est pour ça que le "combat" annoncé est intéressant Après tout, Google a appliqué exactement la même recette que Microsoft contre Netscape. Google n'a pas innové non plus. Il s'est contenté de pomper ce que les autres faisaient de bien, mais en le marketant mieux. Comme le concept de popularité (inventé par Altavista ou Excite, je ne sais plus vu que c'était quasiment simultané), qui était quand même plus "sexy" une fois rebaptisé "PageRank" Attention, je ne dis pas que MSN ne va pas nous sortir quand même quelques innovations. Je sais qu'il y a suffisamment de choses dans les cartons des MSN labs pour occuper le devant de la scène pendant un moment. Ce que je dis, c'est qu'il n'ont peut-être même pas besoin de s'en servir dans le combat qui s'annonce. Marketing encore que tout ça J'étais un fidèle d'Altavista pendant des années... Je suis maintenant un "Google fan". Et ça changera peut-être un jour au profit d'un autre, pas forcément plus innovant mais plus doué et digne d'admiration
  15. Je suis assez d'accord. Mais ce n'est pas étonnant. MSN, Yahoo et Google appartiennent à la même "famille" de moteurs de recherche. Les technos innovantes en ce moment sont plutôt du côté de Teoma, ou bien du français Exalead. Je ne pense pas que ce soit nécessaire pour MSN, bien qu'il puisse y avoir quelques surprises quand même... Microsoft a gagné la guerre des navigateurs contre Netscape en lui opposant un pur clone de son navigateur. Pendant ce temps là, le seul navigateur innovant de l'époque (utilisant un moteur de navigation différent) n'a pas réussi à percer et stagne toujours aujourd'hui à 0,6% Bref, l'innovation c'est un plus, mais c'est la stratégie marketing qui détermine tout au final.
  16. Cette proposition de filtre anti-blog est encore plus radicale que celle à laquelle je pensais (simplement pénaliser lourdement tout lien sortant d'un blog). Je reconnais que cela mettrait un terme définitif au spam de commentaire, et améliorerait immédiatement la qualité des recherches sur le moteur, mais je n'y souscris pas pour autant. L'immense majorité des blogs sont effectivement sans intérêt, et la surpondération de leur classement aboutit bien à une pollution des résultats de recherche. Mais il suffirait simplement d'annuler cette surpondération. La pénalisation de leurs liens sortants serait un moyen efficace d'y parvenir vu la densité de liens inter-blogs existants à la fois dans les trackbacks, les commentaires et les articles. Le filitre serait une sanction excessive. Il y a des blogs intéressants, et il serait dommage qu'ils disparaissent de l'index principal. Même les blogs inintéressants ont aussi leur place dans cet index. Il faut de tout pour faire le web, y compris des pages persos Multimania avec photos du chien du "webmaster" et des blogs inutiles servant uniquement à leur auteurs à raconter qu'ils ont mangé des pâtes à midi. Du moment que ces "sites" là ne passent pas abusivement au dessus des sites utiles, je ne vois pas où est le problème à les conserver dans l'index. Il faut donc simplement les pénaliser, ou plutôt les "favoriser moins". Par contre je me doute qu'une décision comme celle-ci serait susceptible de causer un conflit d'intérêt à Google, nouveau propriétaire de Blogger, et pour qui chaque googlebombing un peu médiatique constitue une campagne de pub gratuite... L'innovation ne viendra peut-être pas du côté de Google après tout.
  17. Pas mal du tout Pour ce genre de site, ça ne me dérange en rien qu'on prenne le contrôle de mon navigateur. Impossible de faire la même chose en xhtml en effet. D'ailleurs, le site m'a presque convaincu d'acheter le jeu. Seul problème... Quand je clique sur "Order Now" (en français, "commander tout de suite"), j'atterris sur la page http://activision.com/en_US/old_browser/old_browser.html qui, comme son nom l'indique, me propose de télécharger un vieux brouteur... Bon tant pis, je m'achèterai un autre jeu cette semaine finalement ça n'a rien à voir avec le flash bien sûr, mais ça c'est un vrai problème d'accessibilité.
  18. Je reviens sur la question car j'ai de plus en plus l'impression que l'introduction du rel="nofollow" est très liée à certains dysfonctionnements constatés actuellement sur Google... On avait déjà eu l'occasion de discuter sur ce forum du fait que Google ne respecte pas le standard robots.txt Je viens de me rendre compte qu'ils ne respectent pas non plus les instructions du type <meta name="robots" content="nofollow"> Que Google souhaite inventer des balises propriétaires, je n'y vois pas d'inconvénient. On en avait déjà l'habitude depuis la balise <meta name="Googlebot"> Par contre, j'aimerais bien que ce ne soit pas un prétexte pour désobéir aux standards qu'ils sont censés respecter : http://www.google.fr/intl/fr/remove.html
  19. Je viens très bonne idée cette rencontre à Marseille.
  20. Bon, je me lance - le linkfarming : très risqué, de nombreux cas avérés de blacklistage sur différents moteurs, efficace sur le court terme mais franchement je pense que ça ne vaut en aucun cas le coup de prendre des risques pareils. - les sites miroirs : très risqué aussi, en fait je le met dans le même catégorie que le linkfarming puisque la logique est la même, à éviter absolument. Créer un réseau de sites miroirs interlinkés qui reste indétectable par des moyens automatiques est beaucoup trop complexe pour que le bénéfice en vaille la peine. On peut s'exercer à ça dans le cadre d'un concours de positionnement, mais pas "in real life". - l'usage excessif de sous-domaines : assez risqué (au moins un cas de blacklistage avéré sur yahoo), d'autre part sur Google le risque est lié à la concurrence interne entre les sous-domaines ce qui limite l'intérêt de cette technique. - redirections serveur (301, 302...) : très risqué sur Google qui les gère mal, risques de déréférencement pour duplicate content, seule la 301 peut avoir un intérêt pour faire hériter une url de la popularité d'une autre - signatures de forums : j'ai de sérieux doutes sur l'efficacité de cette technique de "référencement du pauvre". Bien que le risque ne vienne pas dans ce cas des moteurs, ça me semble quand même risqué de poster uniquement pour placer des signatures. Le risque vient plutôt des admins des forums concernés, ou de ses propres hébergeurs et fournisseurs d'accès qui très souvent interdisent ce genre d'infraction à la netiquette (spam, flooding, trolling...). Autre risque évidemment : y a rien de mieux pour pourrir son image de marque ! - densité excessive : raisonner en termes de pourcentage serait absurde, puisque cela varie en fonction de chaque mot-clé. Le risque est une pénalité temporaire, mais il suffit d'ajuster le dosage par tatonnements successifs afin de mieux réussir. - balise H, meta, alt... : sans aucun risque si les balises sont utilisées correctement, et utiles dans le cadre de l'optimisation. Néanmoins, toute utilisation incorrecte de ces balises est porteuse de risques. - cloaking : là j'avoue que j'ai du mal à considérer le cloaking comme une technique d'optimisation... A la base, ce n'en est pas une. La principale utilité du cloaking étant de cacher son code source. Je vois une seule application possible du cloaking en termes d'optimisation, le cas des sites avec id de session dans les urls. Théoriquement déconseillée, le risque principal est à mon avis que le cloaking ne marche pas pour cause de mauvais paramétrage... Dans ce cas, retour à la case départ : site non indexable. Le cloaking est complexe à manier, donc plutôt à déconseiller aux novices. - l'url rewriting : en théorie sans risque, bien que certains pensent que cela puisse avoir un effet pénalisant sur Google. En fait, il ne faut utiliser l'UR que pour des sites le nécessitant vraiment : urls trop longues ou comportant trop de paramètres. Toute autre utilisation de l'UR est en général superflue. En tous cas, j'aurais plutôt tendance là encore à le déconseiller aux débutants, une mauvaise implémentation de l'UR n'est en effet pas sans risques. - inscriptions annuaires : très efficace, mais pas tout à fait sans risque... (cf. point sur les redirections) - pages satellites : efficaces à certaines conditions, théoriquement risquées même s'il n'existe pas encore de cas avérés de sanctions. - texté caché : ben ça marche, mais c'est pas particulièrement enthousiasmant non plus... - échanges de liens : pour le moment ça marche bien même si le nofollow aura certainement des conséquences dans ce domaine théoriquement acceptables par les moteurs, à condition que ce ne soit pas fait dans un but de "manipulation" de la popularité, du Pagerank, etc. On est donc censés échanger des liens sans jamais penser au bénéfice en termes de référencement, ni regarder le PR des sites avec lesquels on fait ces échanges - liens non réciproques (ou liens triangulaires) : ça marche très bien puisque ça permet d'éviter le risque inhérent aux échanges de liens, être identifié comme appartenant à un "réseau" de sites créé dans le but de manipuler le PR. - achats de liens : ça marche bien aussi, le seul risque possible est d'acheter un lien qui ne soit pas comptabilisé dans le calcul de popularité du moteur. Il paraîtrait que certains gros "vendeurs de PR" aient vu annuler le PR transmis par leurs liens, mais ça n'a jamais été prouvé à ma connaissance.
  21. Dans ce cas, je vais m'abstenir de répondre parce que la notion d'éthique est trop subjective pour permettre d'aboutir à une classification des techniques de référencement. L'éthique, chacun a la sienne, et c'est bien le problème... C'est pour cette raison qu'une tentative de classification sur des critères objectifs (efficacité, risque) serait à mon avis plus intéressante. Le but peut être d'adresser aux novices le message "ne le faites pas !" à propos de certaines techniques, et aux pros "ne le faites que si ça en vaut vraiment la peine, et dans tous les cas à vos risques et périls..." Concernant les liens sur blogs et wikis, à mon avis ça ne mérite tout simplement pas de figurer parmi les techniques de référencement. Bien que par rapport aux blogs, en tant que webmarketer, je m'intéresse évidemment à certaines offres émergentes de publicité sur flux rss.
  22. Bonjour, Avant d'adhérer à la théorie des chapeaux, il faut déjà en porter un soi-même (un chapeau blanc). Je ne suis donc pas certain que tout le monde se retrouve dans cette tentative de classification... Par ailleurs, il faut commencer par faire un tri entre techniques efficaces / non-efficaces. Les techniques inefficaces ne méritent pas de toute façon de figurer dans cette classification (duplication de contenu par exemple). Ensuite, resterait à classer les techniques restantes en techniques risquées (non-recommandées) et techniques sans risques (recommandées)
  23. Je réponds uniquement sur ce point. Tout comme dans le domaine de l'accessibilité, Macromedia a fait des efforts énormes dans le domaine de l'indexabilité du Flash. Ils fournissent par exemple gratuitement aux moteurs de recherche le Flash SDK qui leur permettrait d'indexer au moins le texte et les liens des animations. Google s'en sert un peu mais l'utilise mal... Le seul autre moteur ayant utilisé le Flash SDK était le défunt Alltheweb. Bref, sur ce point c'est plutôt les moteurs qui sont à blamer, pas Flash.
  24. Je pense que ça dépend pas mal des cultures aussi, et donc du périmétre géographique couvert par le site. Pour exemple, aux USA, le vert évoque l'argent, et en Europe cela évoque plutôt la nature. Et la symbolique culturelle du blanc et du noir est complètement inverse en Asie. Cela dépend aussi du positionnement que recherche le site sur son marché. Un site informatique souhaitant se démarquer des autres aura intérêt à éviter le bleu par exemple. Si la cible du site est majoritairement masculine, il y a un autre critère à prendre en compte... 8% des hommes sont daltoniens, donc pour eux orange, vert, rouge, jaune, marron, beige c'est quasiment la même couleur.
  25. Je viens de lire ce billet, mais contrairement à toi je n'y ai pas vu beaucoup d'arguments. En particulier, il ne répond pas aux deux seules questions importantes à propos de l'affaire du cloaking de liens : - Google est-il oui ou non la cause du spam des weblogs ? (et accessoirement de la détérioration de ses propres résultats) - Pourquoi les webmasters (et les bloggers) devraient-ils contribuer gratuitement à résoudre les problèmes de Google et à réparer les dégâts que Google cause sur leurs propres sites ? Personnellement, je ne me reconnais dans aucun des trois groupes. En effet, je ne suis ni pour, ni contre, et pourtant je ne m'en moque pas non plus. En tant que référenceur (je passe sur les insultes gratuites de padawan qui nous traite de vendeurs de cuisine et regrette que nous ayons survécu à l'éclatement de la bulle...), le principe du cloaking de liens ne me dérange aucunement en soi. Le fait que Google mette à notre disposition une "balise" spécifique pour ce faire nous est bien sûr égal puisque la panoplie de moyens disponibles était déjà très large. La nouveauté est simplement le "feu vert" de Google pour faire joujou avec son précieux PageRank, et crois moi les référenceurs sont très joueurs par nature et n'attendent que ça pour se défouler C'est un jeu auquel nos clients (principalement les grands comptes) sortiront évidemment gagnants, donc pas de raison objective de se plaindre de notre part. Par contre, j'espère que Google et les webmasters qui soutiennent l'initiative du nofollow se rendent compte de ce que cela va avoir pour conséquences à terme. Sauf en cas de changement d'algorithme, le référencement ne sera définitivement plus qu'une affaire de taille de budget, cette fois pas simplement dans les liens sponsorisés mais aussi et surtout dans les résultats organiques du moteur. Bon, j'avoue que c'est déjà le cas actuellement sur la plupart des requêtes "commerciales", mais la tendance va aller en s'amplifiant et surtout il deviendra impossible à terme de faire la différence entre requêtes commerciales ou informationelles. Est-ce vraiment l'évolution que souhaitent une partie des bloggers, ceux qui applaudissent à l'initiative du nofollow ? Les grands groupes vont donc truster toutes les positions intéressantes sur les moteurs. Et après tout, il n'y a rien de mal à ça puisque ce sont eux qui payent le plus. Mais ça risque quand même de créer un peu de frustration parmi les "petits", non ? Sur le long terme c'est Google qui risque d'en pâtir le plus, tant qu'ils ne se bougent pas un peu plus pour améliorer leur algo en tous cas. Mais bon, si Google décline, un autre prendra sa place donc ça ne change rien pour nous
×
×
  • Créer...