Aller au contenu

Cuill veut surpasser Google


Cariboo

Sujets conseillés

Je viens (chose promise chose due) de publier l'article que j'avais annoncé la semaine dernière sur Cuill, un moteur présenté souvent comme LE Google killer. (??)

Cuill veut surpasser Google grâce à l'analyse de données sémantiques

Il y'a déjà un buzz énorme autour de ce moteur (ce qui pourrait d'ailleurs être une bonne raison de ce méfier, tant ce type de buzz aboutit souvent à des choses qui font pschittt! à la fin, pour reprendre l'expression d'un ex-Président). Beaucoup d'articles ont déjà été écrits sur le sujet, y compris sur les blogs et sites francophones. Je n'aurais sans doute pas écrit une ligne sur ce sujet si le hasard n'avait pas voulu que je m'intéresse de près à deux de ses fondateurs depuis longtemps : Tom Costello, qui a travaillé sur Webfountain (voir l'article que j'avais rédigé sur le projet à l'époque Webfountain d'IBM ), et Anna Paterson.

J'ai donc voulu notamment partager avec vous des informations sur les technologies que maîtrisaient ce couple de spécialistes de l'IR, technologies que l'on retrouvera peut-être dans ce nouveau moteur. Tant pis si ce moteur ne sort jamais du mode furtif, des gens comme eux font bouger le monde des moteurs de recherche et démontrent que l'on peut encore innover dans ce domaine.

On notera au passage qu'Anna Paterson est beaucoup plus bavarde sur TeraGoogle depuis qu'elle a quitté son bureau de Mountain View. :hypocrite:

Lien vers le commentaire
Partager sur d’autres sites

Bonjour,

Récemment en lisant un des interwiew de Arlette la question etait posé de savoir si la toute puissance de Google dans la main mise sur l'information serait concurrencé un jour...(je vais retrouver le lien)

L'article me donne un début de réponse !

merci monsieur Cariboo !

Une petite question de l'angoissé que je suis :-))

>la liste des brevets déposés par Anna Paterson depuis quelle travaille chez Google.

Les brevets lui appartiennent ? (je préfèrerais ;-)

richard

Lien vers le commentaire
Partager sur d’autres sites

Oui Michaeljack, le moteur est "furtif", il n'est pas disponible pour le grand public.

Notez bien que ce sont les autres qui parlent de Google killer, pas les gens de Cuill.

=>la plupart des brevets cités par l'article sont déposés par Anna Paterson au nom de Google. Je suis persuadé que d'autres vont apparaître bientôt déposés pour le compte de Cuill.

Tiens Twiceler est toujours sur le Hub... :huh:

Bon, je crois qu'on va être rapidement repérés, :lol:

Lien vers le commentaire
Partager sur d’autres sites

=>la plupart des brevets cités par l'article sont déposés par Anna Paterson au nom de Google. Je suis persuadé que d'autres vont apparaître bientôt

déposés pour le compte de Cuill.

Merci pour cette rapide réponse !

richard

Lien vers le commentaire
Partager sur d’autres sites

Très intéressant cet article on y voit un peu plus clair sur ce moteur furtif...

Quand je vois ce que slurp bouffe en bande passante je me dis que GG avait déjà une énorme avance en terme d'efficacité de crawl...

j'ai hâte de voir cuil tourner à plein régime ^^.

Lien vers le commentaire
Partager sur d’autres sites

  • 1 month later...

Bonjour,

Il est étonnant de voir qu'ils déposent des brevets sur le simple fait qu'ils arriveraient à indexer 100 milliards de pages. Cela semblerait dire que les indexes actuels seraient limités !? A priori, les moteurs majeurs ne donnent plus la taille de leur index depuis que celui-ci a atteint 20 milliards de pages. Là, tu parles de Archives.org, qui aurait... 30 milliards de pages.

Si l'on suit la courbe classique d'évolution des matériels informatiques (style : capacité disque dur, etc..), c'est classiquement un doublement des capacités tous les ans. Pour les index des moteurs, on aurait pu s'attendre à quelque chose du même genre. Or ils semblent se trouver face à une limite de capacité , non ? (ou d'incapacité, à voir..) qui les obligeraient à penser leur index différemment !?

De toute facon, le moteur de recherche Google sera dépassé un jour, et il le sera forcément par un algorithme radicalement différent. Reste à savoir comment celui-ci sera.. pensé. A noter que les nouveaux acteurs restent 'furtifs', parce qu'il est préférable de lancer des idées, avec un peu de 'présentation' derrière, que de se lancer réellement à l'assaut du marché. Vue la taille de la conccurence, autant assurer un minimum les arrières. Même si celui-ci se fait à coup de plusieurs millions de dollars (bon, le dollars est 'faible', en ce moment :D )

Enfin, à l'ère du Web 2.0, on ne trouve toujours pas de moteurs (aussi 'furtif' soit-il) qui soit capable de prendre en compte la personne derrière son écran. Que l'on soit jeune ou vieux, homme ou femme, le moteur sait ce qu'on cherche, avant même de savoir qui on est. Je reste perplexe devant ce genre de réflexions, qui me laissent à penser que tant que les chercheurs ne regarderont pas plus loin que leur algo, ils perdront en pertinence.

Nico.

Lien vers le commentaire
Partager sur d’autres sites

Je ne veux pas jouer les pessimistes, mais les effets d'annonces à propos de moteurs révolutionnaires c'est pas le premier que je vois passer sans lendemain.

Je souhaite toute la réussite possible à ce moteur, mais d'emblée quand il annonce qu'il va s'attaquer à Google grâce à des supériorités d'analyse sémantique je dois dire que c'est un peu faible comme argument.

C'est pas le génie du moteur qui a fait le succès de Google, mais bien les liens sponsorisés contextuels. Au lieu de chercher à faire un meilleur moteur, je dis qu'il faudrait plutôt s'attaquer à mettre en place un meilleur système publicitaire.

Qui peut aujourd'hui prétendre avoir une société qui pourrait s'arrêter de travailler et quand même générer des bénéfices monstrueux ? Personne à part Google et c'est pas son algorithme qui fait ça.

Lien vers le commentaire
Partager sur d’autres sites

Il est étonnant de voir qu'ils déposent des brevets sur le simple fait qu'ils arriveraient à indexer 100 milliards de pages. Cela semblerait dire que les indexes actuels seraient limités !? A priori, les moteurs majeurs ne donnent plus la taille de leur index depuis que celui-ci a atteint 20 milliards de pages. Là, tu parles de Archives.org, qui aurait... 30 milliards de pages.

Absolument, d'ailleurs Anna Paterson et Google avaient dévoilé le pot aux roses fin 2005 : leur index primaire ne faisait que 6 à 8 milliards de pages (les chiffres varient suivant ce qu'on compte), pour le reste ils avaient recours à un index secondaire, beaucoup moins à jour, et moins complet au niveau informations, avec des temps d'accès déplorable.

Le problème, c'est que le nombre d'informations que Google veut stocker pour chaque page et chaque terme (ou groupe de termes) a aussi fortement augmenté. Donc la quantité d'information a stocker a été multipliée de beaucoup plus qu'un facteur 100 d'après ce que j'ai compris.

C'est pas le génie du moteur qui a fait le succès de Google, mais bien les liens sponsorisés contextuels. Au lieu de chercher à faire un meilleur moteur, je dis qu'il faudrait plutôt s'attaquer à mettre en place un meilleur système publicitaire.

Tout dépend de quoi on parle. Les adwords ont fait le succès financier de Google, et le principal problème des nouveaux entrants, c'est qu'ils n'ont pas les milliards de Google ou de Microsoft, et qu'ils finiront dans le meilleur des cas avalés par l'un des géants.

Mais il faut quand même rappeler l'histoire de Google : c'est un moteur sans pub qui a "explosé" Altavista en quelques mois à la fin des années 2000. Les liens sponsorisés n'ont pas été inventés par Google, et ont très longtemps fourni des ressources limitées à Google. Les adsense (la techno ayant failli aussi aller chez Yahoo) et les bénéfices records n'arrivent qu'en juin 2003. Soit après des années de fonctionnement sans modèle économique sérieux.

Pour réussir à contrer Google, il faut des ressources financières importantes ET une bonne techno. Les deux. Avec juste les moyens, on parvient seulement à exister comme pour MSN jusqu'à présent.

Sinon je suis d'accord pour les effets d'annonce : dans l'immense majorité des cas, derrière un moteur furtif, il n'y a que du vent. Là, y'a déjà une réalité : on voit le crawler Twiceler partout, et tout le temps. La plupart des moteurs furtifs, étrangement, ne crawlent rien, ce qui est toujours mauvais signe. Mais on verra bien ce qu'ils vont nous sortir, et même, si le moteur sort un jour.

Lien vers le commentaire
Partager sur d’autres sites

Je dirais que pour contrer Google, il faut des moyens, une bonne techno ET un énooorme buzz.

C'est principalement le buzz qui a fait le succès de Google (hormis son algo) avant les liens sponso.

Lien vers le commentaire
Partager sur d’autres sites

  • 1 year later...

je ne le trouve pas pertinent

exemple: si je cherche des infos sur une personne (prenom + nom), GG parait bien meilleur.

Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...