Aller au contenu

Stephane

Hubmaster
  • Compteur de contenus

    809
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Stephane

  1. Bon, Lyes on va échanger nos avatars finalement. Donne moi le tien, et prends le mien à la place. Ok
  2. Hello Lyes J'avais pas vu que tu t'étais inscrit. Hé ho, tu m'a piqué mon avatar :!:
  3. Bonjour, Il suffit de renommer le paramètre id, et de faire en sorte que la redirection soit en 301.
  4. En théorie, Google est capable de suivre les liens contenus dans des fichiers swf puisqu'il utilise le Flash SDK de Macromedia (il ne l'utilise que pour ça d'ailleurs, ce qui est vraiment dommage...) Je suppose, par contre, que l'indexation de liens flash prend plus de temps que pour des liens Html. La meilleure solution est celle préconisée par Marie, car malheureusement les liens dans le Noembed ne sont pas toujours suivis par Googlebot
  5. Bonjour tazs et bienvenue sur le Hub, Il ne reste plus que quelques jours avant la clôture des inscriptions. Je te conseille d'inscrire une page pour le concours très rapidement... Il sera toujous temps ensuite de former une équipe ou d'en rejoindre une. Le forum spécialement consacré au concours me semble être le meilleur endroit pour trouver des coéquipiers. http://www.webmaster-hub.com/index.php?showforum=81 Tu peux aussi chercher des partenaires sur la mailing-list du concours.
  6. Ca dépend du moteur et du type de redirection utilisée. Une redirection 301 vers ton site permettra la transmission de PR pour Google par exemple. Afin d'être sûr, n'hésites pas à utiliser le vérificateur d'entêtes http dans la rubrique Outils du Hub
  7. Daltonien aussi, mais j'aime pas malgré tout. Les urls sont presques illisbles pour moi (en tant que référenceur j'ai tendance à ne regarder que ça d'habitude...) Je comprends bien le changement concernant les Adwords. C'est une bonne chose pour moi (mais sans doute pas pour l'internaute lambda) puisque cela entraine davantage d'ambiguïté sur le statut des liens sponsorisés. Je pense que la suppression des carrés pastels va permettre d'augmenter le taux de clic des campagnes Adwords. Je regrette en revanche la disparition de la barre de taux de clic des Adwords, qui était une indication intéressante sur les concurrents. Le Directory n'a pas tout à fait disparu, mais il n'est plus présenté au premier plan. Ca me semble logique du point de vue de Google, et ça ne me gêne pas de voir disparaître des résultats de recherche les descriptions Dmoz qui étaient trop souvent inadaptées du fait des guidelines particulières de cet annuaire. J'apprécie que la barre de recherche soit plus grande. Par contre, le RCHER de la version Fr est absolument ridicule...
  8. au fait, j'ai failli oublier... (vu que celle qui est posée sur ton bureau commence à se faner un peu)
  9. Bienvenue stef j'aime bien parler par forum interposé à quelqu'un juste en face de moi
  10. Inktomi semble être le composant principal de YST. Il y a donc de fortes chances que son fonctionnement soit similaire. Inktomi fonctionne sur un système de clusters. C'est à dire qu'il n'existe pas un seul index, mais 5 index différents (sans compter des clusters privés maintenus par certains clients d'Inktomi, et ne communiquant pas avec les autres clusters). Il existait 5 clusters différents : 4 aux Etats-unis, et un en Europe (au Royaume uni). Les 4 clusters américains sont situés en Virginie, en Californie, et à Washington. Les délais de synchronisation entre ceux-ci sont assez rapides. Le 5eme cluster (européen) a toujours eu des délais de synchronisation plus lents avec les autres. C'est peut-être ce qui explique en partie les décalages observés entre l'(index utilisé par Yahoo US, et celui utilisé par les versions européennes de Yahoo.
  11. Noarchive plutôt que noindex. Cela empêche la mise en cache. Presque tous les sites cloakés utilisent cela sinon le cloaking ne sert à rien. D'ailleurs, si Google ne dispose pas d'une version en cache de la page c'est très souvent un indice qu'il s'agit d'une page cloakée. Si le cloaking est bien fait (IP delivery +noarchive), il n'y a normalement aucun moyen d'avoir la preuve du recours au cloaking. Aucun moyen légal en tous cas...
  12. Salut Sid, Oui, je suis d'accord. C'est d'ailleurs pour ça que je disais que les formules de paiement au trafic n'étaient pas avantageuses pour tous les types de sites. Néanmoins, il y a moyen même pour un distributeur de gagner de l'argent via ce système. Sinon, il n'y aurait pas autant d'annonceurs chez Overture et Google. Ce n'est pas du tout ce que j'ai dit. Je ne parlais en fait que du cas du site de ZN, et surtout des Adwords dont le coût serait prohibitif pour lui sauf à miser uniquement sur quelques mots-clés à faible trafic. Mais le positionnement publicitaire est effectivement en théorie à la portée de tous (quelques centaines d'euros suffisent pour une première campagne). D'ailleurs, je pousse de plus en plus mes clients dans ce sens lorsque cela peut être intéressant pour eux. Il n'y a pas de concurrence pour moi entre positionnement publicitaire et référencement. Ce sont deux leviers complémentaires au service d'une même stratégie : générer du trafic qualifié et utile depuis les moteurs de recherche. Il y a quand même une particularité chez Google, qui fait qu'un annonceur va souvent se retrouver contraint d'adopter malgré lui une "stratégie de leader" même s'il n'en a pas envie... Les désactivations de mots-clés pour cause de taux de clic... Un annonceur lambda gérant tout seul sa campagne aura du mal à tenir une "stratégie de présence" sur la durée. Je sais bien que tu es un expert dans le domaine du positionnement publicitaire, mais reconnais qu'il y a peu de mots-clés en langue anglaise sur lesquels il est encore possible de générer du clic à 0,05 sur Google... Il est impossible de garantir à 100% un positionnement, cela voudrait dire que l'on maïtrise à 100% les supports, donc en ce qui nous concerne les algos des moteurs. Mais même les prestataires qui utilisent cet argument commercial ne prétendent pas au 100% de réussite, loin de là Si tu observe les offres existantes dans ce domaine, la plupart concernent des objectifs ridicules et extrêmement faciles à atteindre. Comme je l'ai dit plus haut, la véritable valeur-ajoutée d'une prestation de référencement ne se situe pas à ce niveau. Heureusement pour le client
  13. Oui, bien sûr cela existe. En fait mon agence est loin d'être la seule à proposer ce type de formule. Désolé Mais en définitive, se documenter et comprendre le référencement n'est jamais du temps perdu. Même si au bout du compte, le référencement est confié plus tard à un prestataire, les connaissances acquises seront toujours très utiles !
  14. J'ai hésité avant de répondre, mais l'envie de donner mon avis sur ce point précis a été la plus forte... Loin de moi l'idée de dénigrer les confrères qui pratiquent ce genre de garanties de positionnement. Il m'est moi-même arrivé d'en proposer en quelques occasions à la demande de certains clients. Mais présenter ce genre de garanties comme du "paiement aux résultats" me semble très exagéré. Le positionnement n'est qu'un moyen, pas une finalité. Une fois positionné, il faut transformer. D'abord transformer en visites, puis transformer en ventes sur le site. Le nombre et le choix des mots-clés optimisés seront essentiels. Or, le corollaire habituel des garanties de positionnement est que cela incite les prestataires à la feignantise... Il va avoir tendance à restreindre le champ des mots-clés à un nombre plus restreint que ce que permet potentiellement le site, et/ou à "orienter" son client vers des mots-clés peu compétitifs qui feront certes plaisir à l'égo du dirigeant mais pas forcément à son carnet de commandes... Comme dit plus haut, j'ai parfois accepté (et toujours atteint) ce genre de garanties. Mais ce n'était pour moi qu'une manière de me rendre comparable vis à vis de l'un de mes concurrents, et je n'ai jamais cherché à faire croire à mes clients que la valeur-ajoutée de mes prestations se situait là. Une meilleure approche du "paiement aux résultats" me paraît être le paiement au trafic. C'est déjà plus concret, et surtout moins risqué pour le client. Ce genre de formule n'est pas envisageable pour tous les types de sites, mais pour un site tel que celui indiqué dans le profil de -ZN- cela me semble a priori possible et intéressant. Par rapport à l'investissement nécessaire en Pos-pub, les coûts d'un référencement payé au trafic seront sans comparaison... En regardant simplement sur la régie de Google, je vois des coûts par clic de ce genre là pour la 1ère place : health insurance - 9,36 $ travel insurance - 8,71 $ Difficile en effet de rentabiliser un investissement en liens sponsorisés dans ces conditions ! Je ne doute pas que certains confrères seront en désaccord complet avec moi sur la question des garanties de positionnement, mais je veux bien en débattre publiquement avec eux s'ils le souhaitent.
  15. Pour suivre l'actualité du référencement : http://www.searchenginewatch.com/ et http://pandia.com/searchworld/
  16. Parce qu'en français, la grammaire est plus complexe, et les différentes déclinaisons des pluriels/singuliers et féminin/masculin sont plus nombreuses. Cela augmente d'autant le nombre de suffixes possibles pour un mot de même racine. Il y a deux façons de faire du stemming : - la façon "feignante" qu'avait adoptée Infoseek à l'époque ; on ignore le suffixe et on renvoit tous les résultats possibles. Ce qui donne des erreurs sémantiques énormes, du genre une recherche pour "référencement" renvoit des résultats pour "référence" - le stemming sélectif, qui repose sur un certain filtrage, et donc des règles de troncature nécessairement basées sur chaque langue. Même cette forme de stemming n'est pas de l'analyse linguistique poussée. Le principe du stemming est certainement aussi vieux que l'invention des premières bases de données informatiques. Quant à la sémantique, elle ne peut pas exister sans analyse linguistique. Comment comprendre le sens d'un mot, si l'on ne connait pas d'abord sa langue ?
  17. L'incident est clos. Je ne sais pas si j'étais vraiment visé par le qualificatif de sectaire, mais après tout ça ne me vexe pas. Désolé par ailleurs si ma remarque avait vexé quelqu'un. Je n'ai en effet qu'exprimé un avis, sans réelle intention polémique. Tu as raison, ce serait dommage d'en rester là sur cette discussion. D'autres avis sur le stemming, la sémantique, les critères de Google ?
  18. Désolé, au vu de l'heure de mon post, il était assez tard et je devais être fatigué pour poster ça (bien que je le pense). A la place de Dan, j'aurais édité la dernière partie en cryptant davantage le nom du site en question.
  19. Possible... en fait, il me semble assez évident qu'un stemming selectif tel que veut le mener Google ne se fait pas de la même manière sur les pages anglophones et sur les pages d'autres langues. Pour l'anglais, les règles de stemming sont plus simples à mettre en oeuvre que pour le français par exemple. C'est une nouveauté pour Google en tous cas, pas depuis ce week-end mais depuis quelques mois déjà. Par contre, Google n'a effectivement pas inventé l'eau chaude. Altavista et Infoseek fonctionnaient depuis le début sur le principe du stemming. Et même eux n'avaient rien inventé puisque le stemming existait bien avant la naissance d'Internet. Pas d'accord sur ce point. L'introduction de critères sémantiques est vraiment un virage idéologico-technologique pour Google. Jusqu'ici ils ont toujours dénigré l'analyse sémantique comme une voie de recherche ininteressante. Leur conversion à la "sémantique" est donc étonnante. Reste à voir ce qu'ils mettent derrière ce mot. Pour moi, il n'existe qu'une seule définition au terme analyse sémantique : donner du "sens" aux mots. Tu mets l'accent avec les "related links" sur l'une des fonctions les plus obscures et en même temps les plus intéressantes de Google... A mon avis aussi, ce que nous cache Google de ce côté là est probablement extrêmement intéressant Franchement, je pense que je vais arrêter de lire Webmaster World... Tous les vrais référenceurs ont déjà fui, et ça devient presque aussi vide de contenu que le forum W********** en France... <edit=Dan: évitons de tirer sur les ambulances >
  20. C'est bien la première fois que je vois Googleguy parler autant que depuis quelques jours. Parler pour dire quelque chose en tous cas... D'habitude, la politique de Google était plutôt d'encourager toutes les rumeurs sans se prononcer sur aucune. C'est déjà une bonne nouvelle en soi, donc. Autre bonne nouvelle, l'introduction de critères sémantiques. Reste à voir maintenant ce que Google entend par "sémantique"... Paradoxalement, je n'ai jamais entendu autant de définitions différentes de ce mot que depuis quelques mois, dans le petit monde des moteurs de recherche. Aucune idée pour le moment. En tous cas, ce n'est pas l'introduction du stemming, qui me semble être déjà en place depuis novembre non ? Il n'y a peut-être pas d'ailleurs de nouveaux critères, juste une pondération différente des anciens. A propos du stemming, je me pose une question... Je réflechis tout haut, et il ne faut surtout pas prendre ce que je vais dire pour argent comptant. Et si c'était l'introduction du stemming en novembre qui avait provoqué la croyance en un "filtre" ? Après tout, les conséquences pratiques peuvent être les mêmes, surtout avec un mode de stemming aussi limité et incomplet que celui qui semble être en place sur Google actuellement. Le stemming est aussi une affaire de filtrage...
  21. Juste une petite remarque HS en passant... En tant que référenceur d'origine bretonne, je trouve qu'avec Brandy il y a du mieux dans le nommage des updates. A quand une update Cognac ou Calva ? Pour le reste, 100% d'accord avec Cariboo. Ou est l'amélioration des résultats ? Le buzz mené actuellement par quelques personnes sur WMW ne suffit pas à me convaincre...
  22. C'est toujours Inktomi dans les deux cas, même si ce sont des clusters différents du moteur d'où quelques différences. Les différences peuvent venir aussi des résultats du Guide Web, un mini annuaire édité par MSN France qui n'est effectivement pas très à jour.
  23. Merci pour cette info, Les conclusions semblent claires en effet, mais il y a un petit souci quand même au niveau de la méthodologie du test. La quasi-identité de contenu des deux pages de test ne permet pas à mon avis de vérifier l'hypothèse. Google peut très bien avoir considéré la deuxième url comme un doublon de la première, ce qui expliquerait qu'il ne l'ait pas indexé malgré le fait qu'il la connaisse. http://www.google.fr/search?hl=fr&ie=UTF-8...echerche+Google En fait, il faudrait attendre que Google indexe cette page (s'il le fait un jour) pour pouvoir tirer une quelconque conclusion. En tous cas, il était utile de souligner avec justesse la forte ambiguïté d'une déclaration telle que "Underscores are not word seperators in google"...
  24. Y a pas de raisons d'alarmer les gens L'update est pas finie et y a pas que du mauvais pour le moment je trouve Remarque intéressante. C'est vrai que pour les sites audités ce week-end, si je ne vois pas de révolution au niveau du classement, il y a quand même de grosses différences sur les 1ères urls présentées : moins de homepages et plus de pages internes. Peut-être une modification du mode de clustering ? Franchement, j'y crois pas. Ou alors ça voudrait dire que mes clients sont pas assez optimisés, ce qui me vexerait un peu Bon, j'ai pas le temps d'investiguer davantage ce week-end pour cause d'avalanche d'appels entrants et autres appels d'offres ces derniers jours, mais je vais essayer de regarder ça de plus près dès que j'aurai plus de temps.
  25. Jan, tu as raison sur plusieurs points à mon avis : - les critiques vis à vis de Dmoz ne sont pas faites de façon concertée pour lui nuire - les webmasters non-inscrits dans Dmoz ont souvent tendance à râler - il n'y a pas de hasard (mais je n'en tire pas les mêmes conclusions que toi) - il n'y a aucun lien entre insécurité et sentiment d'insécurité (mais c'est un autre débat, et j'arrête là tout de suite pour ne pas me faire taper sur les doigts par Dan pour avoir exprimé des opinions poitiques ici ) Selon toi, il y aurait une campagne médiatique calomnieuse anti-dmoz. Quels sont donc les medias impliqués ? Qui finance la campagne ? Franchement, je n'ai rien vu de tel... Et pourtant je suis plutôt bien informé en général. Je me souviens aussi que les critiques à l'egard de Yahoo étaient beaucoup plus féroces et plus nombreuses à une époque, lorsqu'ils ont pris le virage du référencement payant. Un choix qu'ils n'ont pas eu à regretter depuis au vu de leurs résultats financiers actuels... Et pourtant, je n'ai pas cru non plus à l'époque à un complot, ni à une campagne médiatique anti-Yahoo. Ce n'est pas parce que plusieurs personnes disent la même chose en même temps qu'ils sont forcément soit membres d'un complot, soit manipulés par les médias. Douter de tout et se poser des questions est une très bonne chose, mais il serait souhaitable d'avoir au moins un élément concret étayant ton opinion si tu souhaites que la discussion puisse s'engager sur ce thème.
×
×
  • Créer...