Aller au contenu

Cariboo

Membre+
  • Compteur de contenus

    3 376
  • Inscrit(e) le

  • Dernière visite

Messages postés par Cariboo

  1. Une seule page contenant des liens ne constitue pas une linkfarm...

    Le principe de la ferme de liens, c'est que tous les membres font des liens vers tout ou partie des membres de la ferme. Bref, ce que détectent les moteurs, c'est l'existence de ces séries de liens qui apparaissent ensemble sur des pages de nombreux sites qui n'ont rien à voir entre eux.

    Une page "partenaires", a fortiori une page "liens utiles" ne pose aucun problème. Heureusement car beaucoup de sites en ont.

  2. Oui Michaeljack, le moteur est "furtif", il n'est pas disponible pour le grand public.

    Notez bien que ce sont les autres qui parlent de Google killer, pas les gens de Cuill.

    =>la plupart des brevets cités par l'article sont déposés par Anna Paterson au nom de Google. Je suis persuadé que d'autres vont apparaître bientôt déposés pour le compte de Cuill.

    Tiens Twiceler est toujours sur le Hub... :huh:

    Bon, je crois qu'on va être rapidement repérés, :lol:

  3. Je viens (chose promise chose due) de publier l'article que j'avais annoncé la semaine dernière sur Cuill, un moteur présenté souvent comme LE Google killer. (??)

    Cuill veut surpasser Google grâce à l'analyse de données sémantiques

    Il y'a déjà un buzz énorme autour de ce moteur (ce qui pourrait d'ailleurs être une bonne raison de ce méfier, tant ce type de buzz aboutit souvent à des choses qui font pschittt! à la fin, pour reprendre l'expression d'un ex-Président). Beaucoup d'articles ont déjà été écrits sur le sujet, y compris sur les blogs et sites francophones. Je n'aurais sans doute pas écrit une ligne sur ce sujet si le hasard n'avait pas voulu que je m'intéresse de près à deux de ses fondateurs depuis longtemps : Tom Costello, qui a travaillé sur Webfountain (voir l'article que j'avais rédigé sur le projet à l'époque Webfountain d'IBM ), et Anna Paterson.

    J'ai donc voulu notamment partager avec vous des informations sur les technologies que maîtrisaient ce couple de spécialistes de l'IR, technologies que l'on retrouvera peut-être dans ce nouveau moteur. Tant pis si ce moteur ne sort jamais du mode furtif, des gens comme eux font bouger le monde des moteurs de recherche et démontrent que l'on peut encore innover dans ce domaine.

    On notera au passage qu'Anna Paterson est beaucoup plus bavarde sur TeraGoogle depuis qu'elle a quitté son bureau de Mountain View. :hypocrite:

  4. Je viens de publier un article sur les "moteurs furtifs"...

    2007 l'année des moteurs furtifs ?

    Tous les ans depuis des années on annonce que tel ou tel moteur sera le "google killer". Et tous les ans on se trompe, car Google continue d'asseoir son hégémonie sur la recherche d'informations pour le grand public.

    Cette année, il y'a quand même une évolution.

    Tout d'abord, on voit de nombreux moteurs utiliser le mode furtif comme moyen de créer du buzz autour de leur sortie. Au risque de décevoir le public qui s'est intéressé à leur outil soit disant révolutionnaire.

    Ensuite, on voit une réelle évolution dans les technologies utilisées : il y'a un réel foisonnement d'idées nouvelles, et ça aussi c'est nouveau. Cela me rappelle clairement la période 96/97/98.

    Enfin, ce n'est pas un, pas deux, mais plusieurs Google Killers que l'on nous annonce : Cuill, Powerset, Radar... Et si l'un de ces acteurs tenait enfin l'idée qui allait renvoyer les moteurs "à la Google" et le pagerank dans les limbes de l'histoire ?

    Les technos explorées par Cuill méritent à elle seule un développement complet. Je finis un autre article sur le sujet qui paraîtra bientôt.

  5. C'est un bug sans en être un, les templates du forum ont probablement changé récemment, je sais que Dan travaille dessus.

    Le résultat, c'est que ton cookie pour le Hub doit contenir des données qui sont devenues incohérentes. Vide ton cache et supprime ce cookie, et tu verras que les nouveaux messages vont sans douter revenir à la normale ;)

  6. Je maintiens le terme délation.

    Dans la plupart des cas, ces formulaires sont utilisés, de l'aveu des gens de google, par des concurrents jaloux ou qui se sentent lésés. Dans ce cas, le caractère intéressé de la dénonciation ne fait aucun doute, et je ne qualifierai pas toutes les démarches "d'honnetes".

    Je précise par ailleurs que ces affreux vendeurs de liens ne contreviennent à aucune loi française, ni ne violent les lois morales non écrites dans une économie de marché régie par des règles libérales.

    Il s'agit juste d'aider Google à résoudre les problèmes que pose un algorithme sensible au spam. Bref le problème de fond, c'est que Google n'est pas parfait.

  7. Rappel : l'apparition des sitelinks est déconnectée de la notion de "réputation", en tout cas du Trustrank à coup sûr.

    Plusieurs membres de ce forum ont développé des arguments pour le démontrer.

    Le choix des sous rubriques est automatique. S'il n'est pas naturel ou ne correspond pas à l'idée que tu te fais de ton site, c'est qu'il y'a un problème de structure sur ton site (sauf si cela résulte d'une action volontaire).

  8. La publicité comparative est effectivement autorisée en France, mais elle est sévèrement limitée et encadrée. A tel point qu'il est dans la pratique toujours très très délicat de faire de telles publicité.

    En clair si les produits de tes concurrents ne sont pas des clones des tiens, tu ne pourras pas faire de publicité comparative.

  9. ce n'est pas parce qu'il met en gras les termes recherchés, avec, je pense, un tout bête eregi_replace que son algo de classement utilisera la même méthode.

    Alors là Léonick bravo et merci ! Si tu savais à quel point cela m'énerve de voir des gens faire des raisonnements idiots à cause de ces histoires de mots en gras dans les snippets, cela me fait plaisir de voir qu'il y'a quand même des gens qui sont assez lucides pour comprendre comment ça marche.

  10. Xunil>Ce brevet décrit une méthode de lutte contre le spam en même temps que la prise en compte de l'ancienneté dans les pages. Ce brevet explique les critères qui se retrouvent à l'origine du phénomène appelé "sandbox".

    Les critères décrits ne sont donc que quelques uns des critères utilisés par Google.

    Attention aussi : ce n'est pas parce que Google brevete une méthode qu'ils l'exploitent.

  11. La plupart n'attache pratiquement plus d'importance au PR

    Robymara : si c'est vrai, ils ne doivent pas être si spécialiste de cela

    Je le vois avec certains de mes sites à PR 3 et 4 devant des PR5

    Heureusement, les pages ne sont pas classées uniquement selon leur importance, mais avant tout selon leur pertinence. Les algos des moteurs tiennent compte de cela.

    Il reste juste à savoir pourquoi l'opération prend tant de temps (2-3 semaines pour que tous les DC soient alignés lors des derniers "exports").

    Un simple export devrait pouvoir être quasi instantané...

    Il ne faut pas oublier que l'index google est "distribué" sur des dizaines de datacenters aux quatres coins de la planète. La réplication des données prend un certain temps. Une hypothèse quand à ce délai serait qu'ils ont conservé l'ancien mode de propagation de la base de données (qui a toujours été un "export" et une base à part). L'ancien système nécessitait une réplication "bourrine".

  12. J'ai lu pas mal de rumeur sur la fin de la Google dance par conséquent la mort du pagerank. Pensez vous que c'est vrai ?

    Pour la fin de ce que l'on appelait vraiment la google dance, c'est vrai et depuis longtemps : depuis la mise en place du "rolling update" et du pagerank temps réel, ce que l'on appelle encore Google Dance est juste une mise à jour de la base qui contient les réponses données par la toolbar.

    Remarque : si la fin du pagerank peut provoquer la fin des googledance, la réciproque est fausse.

    Quant à la mort du pagerank : Google utilise en fait de plus en plus de "ranks", pas de moins en moins. L'algo évolue, lentement mais sûrement, Google se débrouillant toujours pour éviter des changements brutaux qui engendreraient une évaluation négative de la pertinence des résultats. Le calcul de l'importance de la page reste toujours au coeur du système, même si de nouveaux critères s'ajoutent, même si de nouvelles pondérations sont opérées. Parmi ces critères, l'évaluation de la popularité par les liens conserve une importance majeure.

  13. Cette technique est à réserver à un seul cas : le cas où la technologie utilisée pour les pages "normales" interdit un référencement correct (par exemple un site en flash). Dans ce cas on peut créer des pages html et une arborescence parallèle. Cette pratique ne pose aucun problème aux moteurs.

    Dans tous les autres cas, il faut optimiser les pages d'origine.

    Par ailleurs, le fait de ne mettre que du texte et des liens n'est ni nécessaire, ni suffisant pour améliorer un référencement. Et sauf à interdire la navigation aux moteurs sur la partie normale du site, c'est quand même une jolie méthode pour créer un contenu "dupliqué".

    Bref, si ton "référenceur" ne fait que ça, tu risques de n'avoir rien résolu, et de t'être créé de nouveaux problèmes :(

×
×
  • Créer...