Aller au contenu

Cariboo

Membre+
  • Compteur de contenus

    3 376
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Cariboo

  1. Tu as raison Dan, cette analyse de HawkEye est intéressante (sauf qu'il y'a une chance qu'elle soit fausse, car inspirée par le contexte : Google fait la chasse au vendeurs de liens). Il faut d'ailleurs en tirer quelques conclusions : si la "pénalité" provient bien de la perte du pagerank transmis par certains sites, ce sont les clubs d'échanges de liens "VIP" qui sont visés, pas forcément des gens qui vendent des liens. Caractéristique de ces "clubs" : tout le monde fait des liens vers tout le monde... Une mini ferme de liens. Je rappelle que les TOS de Google interdisent un large spectre de pratiques en matière de linking Donc peu importe qu'un lien soit vendu ou pas, dès que sa présence est perçue comme artificielle, Google peut "pénaliser" le site.
  2. Juste au cas où : quelle est la version de Mysql que tu utilises ?
  3. http://www.cazoodle.com/ C'est un moteur monté par une startup américaine, qui sait crawler le web invisible et récupérer des données dans des bases de données (catalogues marchands en particulier).
  4. Une seule page contenant des liens ne constitue pas une linkfarm... Le principe de la ferme de liens, c'est que tous les membres font des liens vers tout ou partie des membres de la ferme. Bref, ce que détectent les moteurs, c'est l'existence de ces séries de liens qui apparaissent ensemble sur des pages de nombreux sites qui n'ont rien à voir entre eux. Une page "partenaires", a fortiori une page "liens utiles" ne pose aucun problème. Heureusement car beaucoup de sites en ont.
  5. Oui Michaeljack, le moteur est "furtif", il n'est pas disponible pour le grand public. Notez bien que ce sont les autres qui parlent de Google killer, pas les gens de Cuill. =>la plupart des brevets cités par l'article sont déposés par Anna Paterson au nom de Google. Je suis persuadé que d'autres vont apparaître bientôt déposés pour le compte de Cuill. Tiens Twiceler est toujours sur le Hub... Bon, je crois qu'on va être rapidement repérés,
  6. Je viens (chose promise chose due) de publier l'article que j'avais annoncé la semaine dernière sur Cuill, un moteur présenté souvent comme LE Google killer. (??) Cuill veut surpasser Google grâce à l'analyse de données sémantiques Il y'a déjà un buzz énorme autour de ce moteur (ce qui pourrait d'ailleurs être une bonne raison de ce méfier, tant ce type de buzz aboutit souvent à des choses qui font pschittt! à la fin, pour reprendre l'expression d'un ex-Président). Beaucoup d'articles ont déjà été écrits sur le sujet, y compris sur les blogs et sites francophones. Je n'aurais sans doute pas écrit une ligne sur ce sujet si le hasard n'avait pas voulu que je m'intéresse de près à deux de ses fondateurs depuis longtemps : Tom Costello, qui a travaillé sur Webfountain (voir l'article que j'avais rédigé sur le projet à l'époque Webfountain d'IBM ), et Anna Paterson. J'ai donc voulu notamment partager avec vous des informations sur les technologies que maîtrisaient ce couple de spécialistes de l'IR, technologies que l'on retrouvera peut-être dans ce nouveau moteur. Tant pis si ce moteur ne sort jamais du mode furtif, des gens comme eux font bouger le monde des moteurs de recherche et démontrent que l'on peut encore innover dans ce domaine. On notera au passage qu'Anna Paterson est beaucoup plus bavarde sur TeraGoogle depuis qu'elle a quitté son bureau de Mountain View.
  7. Je viens de publier un article sur les "moteurs furtifs"... 2007 l'année des moteurs furtifs ? Tous les ans depuis des années on annonce que tel ou tel moteur sera le "google killer". Et tous les ans on se trompe, car Google continue d'asseoir son hégémonie sur la recherche d'informations pour le grand public. Cette année, il y'a quand même une évolution. Tout d'abord, on voit de nombreux moteurs utiliser le mode furtif comme moyen de créer du buzz autour de leur sortie. Au risque de décevoir le public qui s'est intéressé à leur outil soit disant révolutionnaire. Ensuite, on voit une réelle évolution dans les technologies utilisées : il y'a un réel foisonnement d'idées nouvelles, et ça aussi c'est nouveau. Cela me rappelle clairement la période 96/97/98. Enfin, ce n'est pas un, pas deux, mais plusieurs Google Killers que l'on nous annonce : Cuill, Powerset, Radar... Et si l'un de ces acteurs tenait enfin l'idée qui allait renvoyer les moteurs "à la Google" et le pagerank dans les limbes de l'histoire ? Les technos explorées par Cuill méritent à elle seule un développement complet. Je finis un autre article sur le sujet qui paraîtra bientôt.
  8. J'ai lu cet article récemment mais je n'arrive pas à faire marcher cette d'applet java... Un lien sortant crée toujours une perte potentielle de pagerank d'une page à cause du caractère itératif de l'algo. Mais dans bien des cas, cette perte est tellement négligeable... qu'on peut la négliger.
  9. Merci Régis pour ce rappel, Ces outils donnent un rank, certes. Mais ce n'est pas le futur pagerank : il suffit de comparer "prévisions" et "réalisé" pour se rendre compte qu'il y'a un sérieux problème
  10. C'est un bug sans en être un, les templates du forum ont probablement changé récemment, je sais que Dan travaille dessus. Le résultat, c'est que ton cookie pour le Hub doit contenir des données qui sont devenues incohérentes. Vide ton cache et supprime ce cookie, et tu verras que les nouveaux messages vont sans douter revenir à la normale
  11. Relis les règles du forum "on ne pointe pas du doigt" Si c'est un cloaking IP en fait il faut simuler une IP de Google pour le détecter... Toute autre IP affiche une autre page
  12. Je maintiens le terme délation. Dans la plupart des cas, ces formulaires sont utilisés, de l'aveu des gens de google, par des concurrents jaloux ou qui se sentent lésés. Dans ce cas, le caractère intéressé de la dénonciation ne fait aucun doute, et je ne qualifierai pas toutes les démarches "d'honnetes". Je précise par ailleurs que ces affreux vendeurs de liens ne contreviennent à aucune loi française, ni ne violent les lois morales non écrites dans une économie de marché régie par des règles libérales. Il s'agit juste d'aider Google à résoudre les problèmes que pose un algorithme sensible au spam. Bref le problème de fond, c'est que Google n'est pas parfait.
  13. En france y compris, voir ce qui est arrivé à un site favorisant la commercialisation des liens. On remarque aussi un lien vers un formulaire de délation dans les webmaster tools
  14. Pour les autres membres, je faisais notamment allusion à ce billet de sébastien : http://s.billard.free.fr/referencement/?20...ks-et-trustrank
  15. C'est possible d'atteindre ce chiffre avec le jeu des "forfaits" sur les bases minimales pour les charges sociales. C'est le côté décourageant du système français : il faut tout de suite gagner beaucoup, sinon tout part en cotisations + impots...
  16. Rappel : l'apparition des sitelinks est déconnectée de la notion de "réputation", en tout cas du Trustrank à coup sûr. Plusieurs membres de ce forum ont développé des arguments pour le démontrer. Le choix des sous rubriques est automatique. S'il n'est pas naturel ou ne correspond pas à l'idée que tu te fais de ton site, c'est qu'il y'a un problème de structure sur ton site (sauf si cela résulte d'une action volontaire).
  17. La publicité comparative est effectivement autorisée en France, mais elle est sévèrement limitée et encadrée. A tel point qu'il est dans la pratique toujours très très délicat de faire de telles publicité. En clair si les produits de tes concurrents ne sont pas des clones des tiens, tu ne pourras pas faire de publicité comparative.
  18. Alors là Léonick bravo et merci ! Si tu savais à quel point cela m'énerve de voir des gens faire des raisonnements idiots à cause de ces histoires de mots en gras dans les snippets, cela me fait plaisir de voir qu'il y'a quand même des gens qui sont assez lucides pour comprendre comment ça marche.
  19. Bonjour Raphaël, content de te voir apparaître ici.
  20. Je connais bien la problématique du référencement de pages Domino, ce qu'il faut avant tout chercher à faire c'est installer un module d'url rewriting et de rewriter les urls. Ensuite il reste toujours quelques pages récalcitrantes qui peuvent être gérées par des redirections, oui.
  21. Xunil>Ce brevet décrit une méthode de lutte contre le spam en même temps que la prise en compte de l'ancienneté dans les pages. Ce brevet explique les critères qui se retrouvent à l'origine du phénomène appelé "sandbox". Les critères décrits ne sont donc que quelques uns des critères utilisés par Google. Attention aussi : ce n'est pas parce que Google brevete une méthode qu'ils l'exploitent.
  22. Robymara : si c'est vrai, ils ne doivent pas être si spécialiste de cela Heureusement, les pages ne sont pas classées uniquement selon leur importance, mais avant tout selon leur pertinence. Les algos des moteurs tiennent compte de cela. Il ne faut pas oublier que l'index google est "distribué" sur des dizaines de datacenters aux quatres coins de la planète. La réplication des données prend un certain temps. Une hypothèse quand à ce délai serait qu'ils ont conservé l'ancien mode de propagation de la base de données (qui a toujours été un "export" et une base à part). L'ancien système nécessitait une réplication "bourrine".
  23. Robymara, je te renvoie à la lecture des articles de Dan sur le pagerank dans la partie publications. Ces articles n'ont pas pris une ride, ils sont toujours d'actualité.
  24. Pour la fin de ce que l'on appelait vraiment la google dance, c'est vrai et depuis longtemps : depuis la mise en place du "rolling update" et du pagerank temps réel, ce que l'on appelle encore Google Dance est juste une mise à jour de la base qui contient les réponses données par la toolbar. Remarque : si la fin du pagerank peut provoquer la fin des googledance, la réciproque est fausse. Quant à la mort du pagerank : Google utilise en fait de plus en plus de "ranks", pas de moins en moins. L'algo évolue, lentement mais sûrement, Google se débrouillant toujours pour éviter des changements brutaux qui engendreraient une évaluation négative de la pertinence des résultats. Le calcul de l'importance de la page reste toujours au coeur du système, même si de nouveaux critères s'ajoutent, même si de nouvelles pondérations sont opérées. Parmi ces critères, l'évaluation de la popularité par les liens conserve une importance majeure.
×
×
  • Créer...