Aller au contenu

AbaqueInside

Membre
  • Compteur de contenus

    60
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par AbaqueInside

  1. Franchement je ne te comprends pas. Si j'étais un moteur de recherche, devant une page, je me demanderais 'Quel texte voit vraiment l'internaute moyen ?' - style="visibility:hidden;" : je zappe - <noscript> : je pondère par le nombre d'internautes qui n'utilisent pas les scripts - <img alt="toto" : si je peux trouver l'image je zappe - <noframe> : je zappe parce que 99,999% des navigateurs courants acceptent les frames - etc. Je me foutrais pas mal des intentions de l'auteur du site, je me contenterais d'apprécier ce que l'internaute voit effectivement. C'est d'ailleurs ce que font les araignées en donnant plus de poids au texte situé en tête de page par qu'à celui situé en bas de page (avec les limites inhérentes à CSS2 with positionning).
  2. Bon une petite dernière, désolé d'insister. En fait si, notre outil pourrait aussi servir contre cette forme de cloaking : Comme pour Lance Armstrong récemment, faire un contrôle anti-dopage a posteriori (j'aime bien l'expression contrôle anti-dopage lue récemment dans ces colonnes) : Sur un échantillon de mots clé, On prend les 10 pages les mieux placées On vérifie si ce sont des pages satellites (on peut envoyer un USER AGENT anonyme et changer d'IP à chaque vague de contrôle)
  3. AMHA, si je peux me permettre, les précautions oratoires indiquent clairement qu'ils ne savent pas faire de manière fiable.
  4. Franchement, quand on sait un peu programmer, détecter les textes cachés dans une page HTML est relativement facile, je dirais même très facile. Je me demande comment Google et autres peuvent encore buter là dessus. Détecter les redirections JS est un peu plus tordu car on peut utiliser une cascade de fonctions et d'instructions. Par exemple (je vais essayer d'écrire simple pour que ceux qui connaissent mal JS et DOM puissent comprendre ; que les puristes veuillent bien me pardonner les fautes de syntaxe éventuelles, je m'en excuse par avance, non pas sur la tête ça fait mal ) morceau1 = "window."; morceau2 = "location"; morceau3 = "="; morceau4 = "maPageCible.htm"; commande = morceau1 + morceau2 + morceau3 + morceau4; eval(commande); // exécute la commande fabriquée ci-dessus On peut broder à l'infini sur le même thème ... C'est bien pour cela qu'à notre avis il doit voir les seules pages présentées à l'internaute, telle que les verra l'internaute.
  5. OK mea culpa mes excuses à tous. J'ai tellement l'habitude de réactions négatives devant l'innovation que j'ai un peu () tendance à surréagir. Je me réjouis que mes sur-réactions aient conduit à un échange nourri qui, de plus, m'a permis de découvrir des formes de cloaking que, et je n'étais probablement pas le seul dans ce cas, j'ignorais jusqu'alors. NB : - Non je ne dis pas que je vais les employer - AMHA Le politiquement et webiquement correct est parfois (souvent) stérile J'en profite pour saluer le haute qualité de ce forum que je fréquente depuis peu mais toujours avec grand intérêt. Merci de m'y accueillir avec mon fichu caractère.
  6. Non, elle n'écarte rien du tout. Elle se contente de lire la page que verra l'internaute en ignorant le page redirigée. Cette page n'a pas de sens puisque l'internaute ne la verra jamais.
  7. La cascade de sarcasme m'a peut-être fait réagir un peu vite ... Désolé. Il a fallu attendre 20 messages pour lire un mot encourageant. J'étais pourtant sûr d'avoir développé cette solution ; tu dois avoir raison j'ai dû rêver. Vu le nombre de nos concurrents mieux Googlés que nous grâce au bon vieux "cloaking du pauvre", je me permets de douter de l'efficacité de "Jagger". En effet, notre solution ne peut rien contre cette forme de cloaking. Cela dit, il y a encore fort à faire avec les pages satellites "classiques" qui nuisent aux site modestes. AMHA le cloaking sur IP est réservé à de grosses boîtes qui peuvent payer des Webmestres à temps plein pour surveiller les IP et les USER AGENT des araignées.
  8. Le problème vient du '/ 'en fin d'adresse. Ce n'est rien à corriger. STP lis attentivement la page de test : il faut indiquer l'adresse d'une page et non la racine du site
  9. Ta réponse est typiquement française et j'ai eu à peu près la même dans ces colonnes sur mon catalogue IntuiCat : ta solution n'est pas parfaite donc à jeter. Il est vrai qu'en France on apprécie beaucoup plus les gens qui soulèvent des problèmes que ceux qui trouvent des solutions. Bon sang, Paris ne s'est pas fait en un jour ! Notre modeste et humble solution adresse en effet le cloaking du pauvre et je le revendique (et plus comme je l'explique plus loin). Il se trouve que mon site est distancé dans Google par une multitude de concurrents qui utilisent précisément cette technique du pauvre, ce malgré mes nombreux 'spam reports' à Google. Je fondais quelques espoirs en le dernier Google Dance mais rien de nouveau à l'horizon. Visiblement Google et les autres ne savent toujours pas gérer le problème. Faute de détecter ces redirections, il se prennent la tête avec des algorithmes tels que ceux que tu évoques qui coûtent les yeux de la tête et pourront toujours être coutournés. C'est pour cela que je me suis dit qu'on pouvait peut-être faire quelque chose ... modestement bien sûr. Perdu ! notre solution marche aussi. En effet : Ce système consiste à envoyer à l'araignée une page différente de celle que verra l'internaute. Cette page leurre contient des liens leurres non masqués vers les pages satellites qui se voient du coup référencées. L'internaute ne verra jamais ces liens sur la 'vraie' page. Dès lors le système revient au "cloaking du pauvre". La recherche retourne la page satellite qui renvoie à la page d'accueil. Avec notre système, lorsque l'araignée accède à la page satellite, il lit la vraie page à la vraie URL et la redirection est contournée.
  10. Je savais que je jetais un pavé dans la mare avec les remous inévitables. La cible n'est pas l'utilisateur final mais les araignées de recherche (crawlers, bot, etc.) comme je tente de l'expliquer ci-dessus.
  11. Tu as tout à fait raison et nous comprenons bien la même chose. La seule façon de faire référencer une page satellite est d'ajouter un lien (en général caché dans des <noscript> ou des <noframe>) vers cette page depuis la page d'accueil. Ainsi le Moteur de Recherche va lire la page satellite et la référencer comme une vraie et bonne page. En fait la page satellite contient du texte bidon qui leurre le moteur de recherche, lui aussi caché, et, en fin, redirige vers la page d'accueil. Quand l'internaute fait une recherche sur un des mots clés leurre, le MR lui donne le lien vers la page satellite. Quand il clique dessus, l'internaute tombe sur la page d'accueil. CQFD. Le problème est que le MR ne sait pas détecter, dans la page satellite, la redirection vers la page d'accueil qui est masquée dans un script assez tordu avec des appels de fonctions javaScript en cascade. C'est précisément ce que nous savons détecter. L'idée serait d'implémenter cette techno, après perfectionnements, dans l'araignée de recherche (par ex. GoogleBot). Quand celle-ci va voir la page satellite, elle va lire non pas son contenu, mais celui de la page "cible", à savoir la page d'accueil dans notre exemple. Ainsi l'araignée ignorera purement et simplement le texte bidon de la page satellite pour lire celui de la page d'accueil. Mieux, comme il saura que l'URL est celui de la page d'accueil, il l'ignorera puisque déjà référencée. A nouveau c'est balbutiant et vos réactions sont précieuses. Mais je persiste à croire en l'intérêt de notre solution.
  12. Vos tests ne sont pas pertinents les gars : Il ne peut pas y avoir de page satellite à la racine du site ! Il faut donner l'adresse complète d'une page comme dans un résultat google. Je vais essayer d'ajouter un test là-dessus.
  13. Je m'attendais un peu à me faire casser ... STP, pourrais-tu donner un exemple ou deux ?
  14. Bonjour, Nous avons le plaisir de vous annoncer que nous mis au point une technologie détectant les pages satellites. Vous pouvez la tester ici Ceci est un exemple, vous pouvez tester sur d'autres pages de votre choix Je compte sur votre indulgence, c'est encore frais ... Les temps de réponse sont un peu long car nous envoyons les pages (souvent lourdes) encodées avec une liaison 512 kb/s montant. Les moteurs de recherche qui voudront adopter cette technologie donneront des résultats plus fiables et pourront libérer leurs ingénieurs planchant sur un algorithme de détection. A bon entendeur salut !
  15. Pour information notre site et notre domaine datent de novembre 2000.
  16. Bonjour, Nous avons aussi mis en place un système de localisation suivant les langues préférées de l'internaute. Si aucune de ces langues n'existe dans le site, nous envoyons de l'anglais. Parallèlement j'ai constaté une perte de référencement dans Google.com sur à peu près tous les mots clés. Savez-vous si le GoogleBot indique une langue préférée dans l'en-tête HTTP de ses requêtes ? Sinon je devrai tester l'extension de l'URL avant de faire un choix de langue par défaut ...
  17. Je constate un phénomène analogue sur notre site. Sur deux mots clés, après avoir longtemps stagné autour de la 40 ème place, notre site était 4 ème la semaine dernière. Cette semaine il est retombé à la 43 ème place. C'est à n'y rien comprendre. D'autant plus que beaucoup des sites sont mieux placés grâce à des pages satellites et autres redirections douteuses. Ils se maintiennent en haut de classement malgré les engagements de Google contre ces pratiques et nos protestations passées. J'ai l'impression que depuis son entrée en bourse Google se concentre plus sur la pub payante que sur la recherche de résultats pertinents, qui fut pourtant à l'origine de son immense succès. Dommage pour eux, leur déclin est inéluctable. Pour information, sur les mêmes mots clés, notre site est 4ème dans Yahoo et 23 ème dans MSN
  18. Ton hypothèse est intéressante et mon ami me l'avait déjà évoquée. Cela dit je constate qu'un grand nombre de concurrents auparavant mieux placés que nous grâce à des pages satellites et autres redirections douteuses sont tombés aux oubliettes. Je dois dire que je les ai dénoncés à Google avec le formulaire prévu à cet effet
  19. J'ai suivi cette conversation qui m'a beaucoup appris sur le référencement et j'en remercie les participants. Au début de cette année je me suis attaqué au référencement de notre site en suivant les conseils avisés d'un ami : Bien sûr, comme tout le monde, je visais un bon référencement sur Google... Sur les mot clé principaux, ceux que nous visons, après s'être longtemps trainé autour de la 40ème place, notre site est brusquement monté ce matin à la ... 3ème place (espérons que ce n'est pas un feu de paille) Pour qu'un changement aussi brutal ait pu se produire, il paraît clair que Google a profondément modifié son algorithme de classement ... Pour contribuer à la discussion sur le rôle des référenceurs, je suis convaincu pour ma part que la conception d'un site doit partir d'une démarche de référencement. - sur quels mots-clés visons-nous un référencement - sur quelles pages et à quel(s) endroit(s) placer ces mots clés - la conception graphique doit partir de cette structure du site et non l'inverse. Bon web à tous P.S. : je voudrais profiter de ce message pour féliciter les organisateurs et les membres de Webmaster Hub pour l'excellente qualité des débats et des contributions. Rare dans le PIF (Paysage Internet Français)
  20. J'ai découvert ce site hier, il m'a bluffé. C'est souple, propre, efficace, et pourtant très complexe... Il donne une bonne idée des logiciels en ligne de demain (aux USA en ce moment on parle beaucoup des futurs concurrents en ligne d'Office de Microsoft). Merci pour le lien.
  21. Ce qui m'étonnera toujours en France c'est qu'il faut toujours que tout soit parfait tout de suite. Aucun compromis, aucun temps d'adaptation, les nouvelles technologies sont condamnées par avance puisque nécessairement imparfaites au début. On peut tout aussi bien voir le côté positif des choses, les progrès permis par les nouvelles technologies, et se demander de façon constructive comment contourner les écueils que toute nouveauté soulève inévitablement. Ce n'est malheureusement pas (plus) l'état d'esprit dans notre beau pays et j'y vois pour ma part la raison profonde de ses difficultés d'adaptation. Le Parisien consacre ce matin une double page à la Citroën DS, voiture mythique s'il en fut. Il fallut deux ans pour la perfectionner et en faire ce qu'elle est devenue, une révolution de l'automobile et un mythe. Plus près de nous Toyota s'est lancé dans les véhicules hybrides il y a près de 10 ans. Ils commencent seulement à en récolter les fruits et lesquels ! Je déplore que la culture financière du court terme sans risque ait pénétré aussi profondément dans nos mentalités, y compris celles de ceux qui, pourtant, sont les fers de lance des nouvelles technologies. J'ai poussé mon coup de gueule, désolé, mais je n'ai pu m'en empêcher.
  22. Les temps serveur me semblent corrects (env. 300 ms / requête) En revanche le serveur est derrière une liaison ADSL et ça plombe un peu les temps de transit internet (500 ms moyen) D'après les pros que j'ai interrogés, avec un serveur professionnel hébergé au bord d'une "autoroute" Internet, ce temps devrait être réduit de 75 %, soit env. 150 ms. Avec 50 ms de temps client nous devrions approcher les 500 ms. 1/2 seconde est un temps très comparable à une application locale sur un ordinateur de moyenne puissance.
  23. Merci de vos commentaires Eh oui, le serveur est limité à 10 connexions simultanés. Et depuis qu'IntuiCat a été relayé sur Internet Actualités et sur Ajaxian c'est un peu l'embouteillage. Victime de son succès quoi ; en quelques heures nous sommes passés de 20 à plus de 400 requêtes à l'heure... J'ai bien un autre serveur sans limitation de connexions mais il est en Pentium III @ 500 MHz ... D'ici quelques semaines nous devrions avoir un serveur digne de ce nom. Vos remarques sur l'accessibilité sont pertinentes. Maintenant faire de l'aJAx sans JAvascript, ça ne me paraît pas évident !
×
×
  • Créer...