Aller au contenu

Stephane

Hubmaster
  • Compteur de contenus

    809
  • Inscrit(e) le

  • Dernière visite

Messages postés par Stephane

  1. J'aimerais bien pouvoir penser que TradeDoubler est le seul responsable de ces 2 loupés consécutifs, mais j'ai du mal à envisager que MSN maitrise aussi peu ce que fait une régie à laquelle il confie sa pub.

    Difficile de savoir, d'autant plus qu'entre MSN et Tradedoubler je me doute qu'il y a sûrement un ou plusieurs intermédiaires.

    Enfin il vaut mieux être incompétent que malhonnête :P

    Euh... L'un est moins choquant que l'autre, mais les deux sont tout aussi graves :)

  2. Et bien moi je m'étais inscrit le 14 et j'ai reçu un avis de rejet de MSN, je ne sais pas pour quel motif.

    Moi je pense savoir, tu as soumis un annuaire, non ? ;)

    Bon, comme vous tous je suis assez déçu, mais à mo avis la seule faute revient à la régie, pas à l'annonceur.

    En tant qu'annonceur, j'aurais massacré cette régie qui se permet d'inciter ses affiliés dès le départ à utiliser des liens texte ou personnalisés, alors que ça n'était manifestement pas l'objectif initial de cette campagne d"image".

    Tradedoubler a reconnu ses torts et accepté de payer les affiliés quand meme aux conditions initiales sur les premiers jours de la campagne, mais j'espère vraiment que ce sont eux qui en assument les frais et pas leur client...

  3. Pour relativiser un peu sur le titre volontiers alarmiste de cet article, je rappellerai que son auteur annonçait il y a 5 ou 6 ans de celà la "fin des moteurs", censés être rapidement supplantés par le modèle des annuaires et portails ;)

    Bien sûr, à l'époque, le propos partait d'un constat bien réel : le début du déclin d'un moteur, Altavista.

    Aujourd'hui, le constat est plus triste encore, puisque c'est toute une génération d'annuaires (les pionners du secteur) qui ont cessé leur activité ou s'apprêtent à le faire.

    On en parlait déjà il y a plus d'un an sur le Hub,

    http://www.webmaster-hub.com/index.php?showtopic=843

    Aujourd'hui, toute cette génération d'outils de recherche touche à sa fin, mais cela ne veut pas dire pour autant que le modèle "annuaire" soit mort. Les annuaires ont leur utilité propre, comblant un besoin non couvert par les moteurs. Personnellement, j'utilise encore très souvent certains annuaires.

    De nouveaux annuaires naîtront peut-être.

    Les annuaires spécialisés ? J'y crois moyennement. En tous cas, depuis l'apparition des premiers d'entre eux en 1996, aucun n'a véritablement réussi à se faire une place.

    Plutôt de nouveaux annuaires généralistes, mais le contexte économique actuel s'y prête mal pour de nombreuses raisons (la concurrence des moteurs n'est pas la seule). Mais ce contexte changera peut-être un jour...

  4. soyons honnètes, un site qui démarre avec des centaines de BL ... ces BL sont purement artificiels fait exclusivement pour augmenter son PR ...  ;)

    Soyons honnêtes, un site qui démarre sans "mettre le paquet" à l'occasion de son lancement (partenariats, référencement, publicité, RP...) est généralement un site sans grande ambition (pour ne pas dire sans intérêt). On est en train de parler de sites professionnels plutôt que de sites persos là.

    Investir dans une campagne marketing peut être jugé comme un "artifice" bien sûr, mais c'est en tous cas un artifice nécessaire pour tout site commercial, et cela donne des résultats sur Google comme ailleurs.

  5. Je suis d'accord avec Jeanluc.

    La balise Revisit-After est une légende, un mythe.

    Probablement une blague de référenceur à l'origine (comme la pseudo balise <meta name=" google-position " content="1"> ).

    Mais une blague qui aura trop bien marché, puisque beaucoup y croient encore...

  6. Bonjour,

    Si google affiche uniquement l'url de ton site, sans titre ni descriptif, c'est qu'il connaît simplement l'url sans pour autant avoir réellement indexé le site.

    La solution est généralement d'obtenir davantage de liens vers le site, de façon à inciter google à visiter le site en prodondeur et à l'indexer complètement.

    A moins qu'il n'y ait un facteur bloquant du genre fichier robots.txt non conforme, ce qui pourrait également expliquer ce problème...

  7. Mais surtout, c'est parce qu'un BL, au départ, c'est un véritable vote d'un site A vers un site B.

    Ben non, pas toujours...

    Et pourtant c'est bien le postulat de Google. Mais un postulat faux depuis l'apparition de la toute première bannière publicitaire...

    1/ 6000 BLs en provenance d'un même site n'ont pas du tout (mais vraiment pas du tout !) la même valeur que 6000 BLs en provenance de sites différents. A mon avis, mieux vaut 5 ou 6 liens uniques venant de sites différents, que 6000 d'un même site. Et je parle bien d'un point de vue référencement (de toutes façons à ce stade-là je crois pas qu'on puisse parler de qualité).

    D'accord pour dire que 6000 liens depuis des sites différents est meilleur que 6000 depuis un même site. Mais de là à dire que 6 liens seulement auraient plus de valeur du seul fait qu'ils sont sur des sites différents...

    6 liens très forts peuvent très bien égaler 6000 liens d'un site à faible trafic bien sûr, mais si l'on parle de sites comparables je préfère de loin les 6000 liens.

    Ne serait-ce que sous l'angle du trafic apporté (ce qui est après tout la vocation première d'un lien, être cliqué, non ?) : 6000 liens ont évidemment plus de chances de générer des visites que 6 seulement.

    Reproche-t-on généralement à un annonceur de se mettre d'accord avec un webmaster pour afficher des bannières publicitaires sur l'ensemble des pages de son site ? Non bien sûr, du moment que la rémunération correspondante est correcte en tous cas ;)

    Et bien, c'est pareil pour les liens texte. Google n'a aucune raison de s'en mêler, et il ne s'en mêle pas à mon avis.

    Mais le bénéfice de 6000 liens entrants du point de vue référencement doit être évalué sous 2 angles distincts:

    - le bénéfice en termes de popularité (PageRank sur Google) qui sera peu important en effet si les liens proviennent du même site,

    - le bénéfice sur le critère "anchor-text" (intitulés de liens) qui lui sera réel sur Google, mais aussi MSN.

    2/ Je trouve ce genre de campagnes exagérées... Bien sûr, on cherche des BLs, moi la première, et je pense pas qu'ici quiconque puisse se vanter de n'avoir jamais fait un échange par intérêt. Mais de là à automatiser les choses et leur donner des proportions gargantuesques, là pour le coup, on tombe bel et bien dans le spam.

    Je ne trouve pas ça si choquant, pour ma part. Accuse-t-on par exemple Xiti de "spammer" lorsqu'ils demandent à des webmasters de sites persos, en contrepartie d'un service gratuit (par ailleurs de qualité), de placer un logo sur chaque page de leur site ?

    Non, il s'agit d'un simple échange de service, et il n'y a aucun mal à ça. Si le fait d'avoir des liens multi-urls sur certains sites était répréhensible en soi, je suppose que leur positionnement s'en trouverait pénalisé sur un mot-clé comme mesure d'audience.

    Pour répondre à la question initiale de adn, je ne crois pas du tout qu'avoir des liens sur plusieurs pages d'un même site soit pénalisant sur Google.

  8. Si un nom de domaine effacé est rebranché sur un nouveau site plusieurs mois plus tard, Google affecte une pénalité aux backlinks pointant vers ce nouveau site (qu'il s'agisse de backlinks anciens ou nouveaux). La pénalité est temporaire, mais quand même assez longue : au moins 6 mois / un an.

    Dans le cas d'un domaine revendu sans qu'il y ait eu interruption du site précédent, il n'y a pas de raison que Google le pénalise d'une quelconque manière.

    En théorie, même le Pagerank est conservé dans ce second cas. Je dis bien "en théorie", car le PR dépend aussi du linkage interne au site. Si la structure des liens internes est profondément modifiée sur le nouveau site, il peut y avoir variation du PR dans un sens comme dans l'autre.

    Mais bon, en même temps, le Pagerank ça sert avant tout à faire joli :)

  9. Sur Overture, les enchères sont plafonnées à 25 euros. Un annonceur faisant cette enchère maximum peut ainsi bloquer la 1ère position. C'est le cas de beaucoup de mots-clés sur Overture France.

    Pas de plafond en revanche chez Google. En décembre 2003 sur certains mots-clés, j'avais observé des enchères montant jusqu'à 140 $ (à l"époque le dollar valait encore quelque chose)

  10. => De quelle page d'accueil parles-tu quand tu dis "une rediredction en Javascript vers la page d'accueil" ?

    - Si c'est vers la page d'accueil de redir.tonsite.com, j'ai du mal à voir son utilité.

    - Si c'est vers la page d'accueil de www.tonsite.com, ce système n'est pas adapté pour des campagnes marketing faisant pointer des liens externes vers plusieurs pages intérieures de www/tonsite.com/pages_où_tu_gagnes_des_sous/

    Vers www.tonsite.com bien sûr, ou bien n'importe quelle page intérieure vers laquelle tu souhaites orienter le trafic, par exemple www.tonsite.com/pages_où_tu_gagnes_des_sous/

  11. Salut Stephane,

    Une question ouverte au sujet de ton astuce : les robots ne risquent-ils pas de considérer ce sous domaine comme une page satelite (doorway) ?

    C'est effectivement une page satellite, mais dans la mesure où elle est interdite à l'indexation aux moteurs (noindex), y a aucun souci à se faire vis à vis des guidelines de google.

    Je suis arrivé sur ce forum en lisant ton message sur WRI, où tu parles notamment de Cibleclick. Par rapport à Cibleclick, tu suggères de faire pointer les visites Cibleclick vers un sous domaine conçu selon ton astuce ?

    Si je parle de Cibleclick, c'est que j'ai constaté de très nombreux cas d'annonceurs de cette régie déréférencés à cause des redirections par meta refresh de leurs urls de tracking. Etant donné que Cibleclick n'a pas l'intention de modifier son système de redirection (à moins que tu n'ais le budget de SNCF Voyages...), et que Google est toujours aussi buggé depuis un an et ne donne pas de signe de commencement de résolution du problème, cette méthode me semble la seule riposte envisageable pour le moment.

  12. Une petite astuce pour profiter sans risque des visiteurs mais aussi des backlinks apportés par les annuaires faisant des redirections 302.

    Il suffit de créer un sous-domaine, par exemple redir.tonsite.com

    Sur la page d'accueil de ce sous-domaine, il faut placer :

    - une balise <meta name="robots" content="noindex, follow">

    - une redirection en javascript vers la page d'accueil

    - une balise noscript, contenant un lien vers la page d'accueil

    Ce sous-domaine sera à utiliser sur tous les annuaires faisant des 302 (ou meta refresh). Pour ceux faisant des liens en dur, il vaut mieux utiliser le domaine principal.

  13. Où vois tu une guerre partisane smile ?

    Moi non plus je ne suis dans aucun camp, bien que toujours accro à Google pour le moment.

    Mis à part ca, tu parles d'un index rafraichi toutes les 48 heures mais pour combien de milliers de sites ?

    Je corrige ce que j'ai dit plus haut qui était évidemment une etourderie de ma part. :blush:

    MSN Search semble reindexer les pages de son index dans un délai d'une à deux semaines. Mais c'est déjà pas si mal, non ?

    La fraicheur de l'index est réelle, mais ce n'est pas pour autant le seul ingrédient de la pertinence...

    MSN fait visiblement mieux que Google dans ce domaine, mais Google reste meilleur que MSN dans d'autres à mon avis.

  14. Au risque de me repeter, la question c'est pas de savoir si les bots sont plus frequents de la part de MSN ou de ceux de Google mais combien ca me rapporte en terme de vrais visiteurs ...

    Je suis plutôt d'accord, mais j'irais un peu plus loin... Ce qui m'intéresse aussi c'est d'avoir de meilleurs visiteurs.

    Par exemple, quel est l'intérêt pour moi que Google garde depuis 6 mois dans son index une page qui n'existe plus, et qui était destinée à présenter un produit que je ne distribue plus ? Cela arrive malheureusement trop souvent sur ce moteur à cause des fameux "supplemental results" qui ne sont presque jamais rafraichis.

    Pas de problème de ce côté avec MSN, qui lui réindexe chaque page de son index en deux semaines maximum.

    Donc moins de déception de l'internaute, et potentiellement peut-être plus de transformations.

  15. Et ca va dans quel sens ?

    Pour moi, les technos du moteur de demain sont probablement à chercher du côté d'IBM. Un acteur que l'on oublie trop souvent, à tort ;) Du côté de Xerox, il y a aussi pas mal de trucs sympas comme la génération automatique de résumés, et beaucoup d'autres choses encore...

    Pour ce qui est des "moteurs d'après demain", Cariboo a donné quelques pistes et je le laisse développer ;) Mais globalement, ça recouvre évidemment le champ de recherches encore quasi-vierge de l'analyse sémantique.

    Je pense qu'on verra apparaître à doses homéopathiques certaines de ces innovations, avant même d'en arriver à une rupture technologique. Ceci dans le but d'habituer progressivement les utilisateurs à ce qui sera effectivement une nouvelle façon de chercher.

  16. on est arrivé à un très haut niveau de pertinence et je ne vois pas comment on pourait faire mieux. Les seules ameliorations des algos consisteront non plus a ameliorer la pertinence, mais à conserver celle-ci face au spam.

    Tu te satisfais de peu à mon avis... Comme je l'ai dit plus plus haut, je ne vois pas d'évolution fracassante depuis Altavista.

    La pertinence est améliorable, j'en suis convaincu. Et la question du spam n'a rien à y voir.

    Le problème, c'est surtout que les 3 moteurs majeurs actuellement utilisent pratiquement le même algo. Ca ne les incite pas à se livrer une compétition sur le plan technologique :(

×
×
  • Créer...