Jump to content

Dams

Hubmaster
  • Content Count

    698
  • Joined

  • Last visited

Everything posted by Dams

  1. tidi, Attention aux ids de sessions ! : http://www.shopaffairs.com/faq.php?osCsid=...61cbdbc758638a4 Met dans Elimininer id : osCsid Ensuite interdit les crawl d'image : dans Exclusion met %.jpg Enfin je remarque que de nombreuses pages crawlé par YoodaMap sont accessible par pleins d'urls.. Gare au duplicate content !!!!
  2. Yooda Map ne suis que les liens en dur du site... C'est ansi, aussi un bon outil pour verifier l'indéxabilité d'un site. Il est d'ailleurs utilisé par beaucoup comme outil de contrôle de l'indéxabilté du site
  3. Utilse les paramètres d'exclusions pour optimiser ton crawl : http://www.yooda.com/outils_referencement/Yooda_map.php Par exemple pour eliminer les images jpg : %.jpg Ensuite revoi la structure de ton site pour eliminer les reference aux /index.php... Ton référencement ne s'en portera que mieux
  4. Absolument pas... Google reconnait très bien les _ dans les urls. De nombreux nouveaux sites presentant ces caracteristiques sont presents rapidement dans l'index.
  5. Effectivement... Pas de differences significatives avec le cache. Du moins je n'ai verifé que les premieres pages. A noter cependant, que certaines pages dans le cache sont anciennes... Les modifications "invisibles" sont "supposé" avoir été fait quand ??
  6. Les avantages : Une meilleure indexation de ton site par Google . Les inconvenients: J'en vois pas
  7. Cloaking sur le User-agent ou l'IP des Bots ? C'est le plus invisible que je connaisse.... Le logiciel pour les "voirs" va bien avec cette theorie.
  8. Pareil Et ça me fait bien plaisir de le voir écrit par un autre... Pour en revenit a la question, si tu parle de référencement bien dans le sens "Promotion de site internet" et non "Soumission dans les annuaires". Je dirais des le début. C'est une reflexion qui faut avoir des la création du site. Comment dois je structurer mon site ? Quels sont les mots clés apporteurs de visibilité ? Etc..
  9. Les balises meta Keyword et description ne sont pas prise en compte par les moteurs majeurs: La preuve pour Google: 1> http://www.google.fr/search?hl=fr&c2coff=1...++Ahumada&meta= On a deux pages du Hub contenant Scharff Ahumada ... Si on demande celle contenant en plus "webmistress" qui est seulement dans la balise Keyword: 2> http://www.google.fr/search?hl=fr&c2coff=1...bmistress&meta= On a AUCUNE page Si on demande celle contenant en plus "professionnel" qui est seulement dans la balise description: 3> http://www.google.fr/search?hl=fr&c2coff=1..
  10. Pour les Metas... A mon avis la question ne se pose pas, car les moteurs ne prennent pas en compte. Pour la question de la variabilité du contenu comme handicap... Si tel était le cas tout les sites d'informations, d'actualités et autres seraient sérieusement handicapé non ?
  11. Je ne pense pas qu'il y ai un rapport avec YoodaMap ou Google SiteMap
  12. Bonjour, On ne met pas de config minimale... C'est la plupart du temps inadapté Windows Sur, XP c'est mieux Et après .. ta mémoire et ton processeur influent sur les vitesses d'indexation. Pour http://24lemans.free.fr , le logiciel s'arrête car le seul lien est dans une image, un lien <area . Le soft ne suit pas ces liens pour le moment, comme les frames d'ailleurs... Différents petits bugs seront corrigé prochainement, dans une version plus officielle..
  13. Bon ben finallement je crois que je pourais être la le 25 Juin Midi
  14. Oui en résumé ça navance pas trop... Je suis toujours à la recherche d'un protocole fiable pour prouver ou non l'existence de la Sandbox... Mais en résumé, vu les discussions et les échanges sur ce sujet, j'ai l'impression que ce sujet se rapproche de ce que lon pourrait observer lors dun débat sur "Dieu". On y croit, on ny croit pas... Mais impossible de prouver son existence ou non. Pareil pour la Sandbox...
  15. <{POST_SNAPBACK}> Je suis absolument pas d'accord avec cela... Le Pagerank donne une indication sur la notoriété d'un site... et non sa qualité ou pertinence. On peut trés bien avec des moyens (c'est a dire beaucoup de sites avec un fort PageRank) propulsé une page avec un contenu .. nul vers de hauts PageRank. Le PR ne donne en fait qu'une idication sur la "probabilité" qu'un internaute arrive sur la page (Et non le site!!) en suivant un lien.
  16. J'ai repondu le 2 Juillet... Le 25 juin étant probablement indisponible.
  17. Je tente ma chance... function Titre($page,$souspage) { switch ($page) { case "1" : switch ($souspage) { case "1" : echo "Titre de la page produit 1 sous page 1"; break; case "2" : echo "Titre de la page produit 1 sous page 2 "; break; default: "Titre de la page produit 1"; break; }break; case "2" : echo "Titre de la page produit 2"; break; default: echo "Titre par défaut"; break; } }
  18. Cela s'appelle du "duplicate content". Les moteurs le détectent.... Et ne prennent pas en compte les domaines supplémentaires. Le risque c'est qu'ils ne gardent pas le bon Même si c'est peu probable.... Pour eviter ce risque tu peux faire pointer ton url sur une page de redirection lente avec la balise Meta refresh (Comme 4,31% des sites ) , ou alors avec un Javascript.
  19. Vu le nombre que l'on est a Montpellier on peu deja boire l'apero sur la Comedie un soir Mercedi 13 ?
  20. L'indice YooVi n'est que le reflet de la visibilité renvoyé par les moteurs de recherches Pour changer ton indice de site.. Il faut que tu déménages ton site. Ou du moins que tu le précise aux moteurs. Va voir ici: http://www.webmaster-hub.com/index.php?showtopic=192
  21. Merci Régis... Ce qui me pose problème dans tout ca c'est que l'on part a chaque fois de l'hypothèse que la Sandbox existe et a force de tripatouiller avec cette requête on obtient des résultats. Alors que dans l'exemple que je donnais des sites bien positionné avec la requête spé sont moins bien positionné :/ J'aimerai arriver a trouver un protocole fiable et si possible un consensus dessus pour arriver à avoir des réponses statistiquement fiables. Mais le problème c'est qu'il y a 2 inconnus: 1) La sandbox existe ? si oui a quel niveau et quel impact. 2) La requête spéciale f
  22. Le but est de voir l'impact réel des * .. Et s'il existe. Mais bon je peux aller jusqu'a 200 si il faut Combien il en faut ? C'est justement ce que je veux... Des definitions des hypothèses, et la je ferais ce que je sais très bien faire (car j'ai le materiel pour ) des études statistiques de grandes ampleur pour avoir des résultats significatifs.
  23. C'esu un fichier Propriétaire SeeUrank Ben donne moi ces fameuses requêtes Je suis curieux de verifier ca
  24. En tout ça je ne vois pas en quoi il s'agit d'un filtre anti sandbox... En effet ils sont nombreux les sites qui bien positionnés sont moins bien positionné avec les requêtes "spéciales": www.lagon.fr de 10 à 50 www.grand-nancy.org de 24 à plus rien!!! Et bien d'autres.... Comment expliquer cela ? Ce phénomène ne suffit t'il pas à démontrer l'incohérence de cette "requête spéciale" ?
×
×
  • Create New...