Aller au contenu

Dams

Hubmaster
  • Compteur de contenus

    698
  • Inscrit(e) le

  • Dernière visite

Messages postés par Dams

  1. Quand j'exécute YD sur l'adresse physique de mon site (fcconsultant.free.fr), le fichier Sitemap est correctement généré.

    1ere question: quelqu'un a une explication?

    Yooda Map ne suis que les liens en dur du site... C'est ansi, aussi un bon outil pour verifier l'indéxabilité d'un site.

    Il est d'ailleurs utilisé par beaucoup comme outil de contrôle de l'indéxabilté du site ;)

  2. Non, du moins pas sur la page d'accueil. Car sinon, il n'y aurait pas la possibilité de voir le cache sur google.

    Effectivement... Pas de differences significatives avec le cache. Du moins je n'ai verifé que les premieres pages.

    A noter cependant, que certaines pages dans le cache sont anciennes... Les modifications "invisibles" sont "supposé" avoir été fait quand ??

  3. La prime fraicheur et la sandbox c'est comme le monstre du Lochness. Enfin pour moi.

    Pareil :cool:

    Et ça me fait bien plaisir de le voir écrit par un autre...

    Pour en revenit a la question, si tu parle de référencement bien dans le sens "Promotion de site internet" et non "Soumission dans les annuaires". Je dirais des le début. C'est une reflexion qui faut avoir des la création du site. Comment dois je structurer mon site ? Quels sont les mots clés apporteurs de visibilité ? Etc..

  4. Les balises meta Keyword et description ne sont pas prise en compte par les moteurs majeurs:

    La preuve pour Google:

    1> http://www.google.fr/search?hl=fr&c2coff=1...++Ahumada&meta=

    On a deux pages du Hub contenant Scharff Ahumada ...

    Si on demande celle contenant en plus "webmistress" qui est seulement dans la balise Keyword:

    2> http://www.google.fr/search?hl=fr&c2coff=1...bmistress&meta=

    On a AUCUNE page

    Si on demande celle contenant en plus "professionnel" qui est seulement dans la balise description:

    3> http://www.google.fr/search?hl=fr&c2coff=1...echercher&meta=

    On a AUCUNE page

    Les balises meta description et keyword ne sont donc pas prise en compte,

    Dans le cas contraire nous aurions obtenu 2 résultats pour les liens 2 et 3.

    CQFD

    Note: Cet exemple n'est valable que temporairement car il est certain que de nouvelles publications vont modifier la donne... ;)

  5. Bonjour,

    On ne met pas de config minimale... C'est la plupart du temps inadapté ;)

    Windows Sur, XP c'est mieux :) Et après .. ta mémoire et ton processeur influent sur les vitesses d'indexation.

    Pour http://24lemans.free.fr , le logiciel s'arrête car le seul lien est dans une image, un lien <area . Le soft ne suit pas ces liens pour le moment, comme les frames d'ailleurs...

    Différents petits bugs seront corrigé prochainement, dans une version plus officielle..

  6. Oui en résumé ça navance pas trop... ;)

    Je suis toujours à la recherche d'un protocole fiable pour prouver ou non l'existence de la Sandbox...

    Mais en résumé, vu les discussions et les échanges sur ce sujet, j'ai l'impression que ce sujet se rapproche de ce que lon pourrait observer lors dun débat sur "Dieu". On y croit, on ny croit pas... Mais impossible de prouver son existence ou non.

    Pareil pour la Sandbox...

  7. L'échelle du PR va de 1 à 10, elle calcul la pertinence et la "qualité" de ton site (tout est relatif bien sur!)

    <{POST_SNAPBACK}>

    Je suis absolument pas d'accord avec cela... Le Pagerank donne une indication sur la notoriété d'un site... et non sa qualité ou pertinence. On peut trés bien avec des moyens (c'est a dire beaucoup de sites avec un fort PageRank) propulsé une page avec un contenu .. nul vers de hauts PageRank. Le PR ne donne en fait qu'une idication sur la "probabilité" qu'un internaute arrive sur la page (Et non le site!!) en suivant un lien.

  8. Je tente ma chance...

    function Titre($page,$souspage) 
    {
    switch ($page) {  
    case "1" :
     switch ($souspage) {  
     case "1" : echo "Titre de la page produit 1 sous page 1";  break;
     case "2" : echo "Titre de la page produit 1 sous page 2 ";  break;
     default: "Titre de la page produit 1";  break;
     }break;
     
    case "2" : echo "Titre de la page produit 2";  break;
    default: echo "Titre par défaut";  break;
    }
    }

  9. Cela s'appelle du "duplicate content".

    Les moteurs le détectent.... Et ne prennent pas en compte les domaines supplémentaires.

    Le risque c'est qu'ils ne gardent pas le bon ;)

    Même si c'est peu probable....

    Pour eviter ce risque tu peux faire pointer ton url sur une page de redirection lente avec la balise Meta refresh (Comme 4,31% des sites ) , ou alors avec un Javascript.

  10. Merci Régis...

    Ce qui me pose problème dans tout ca c'est que l'on part a chaque fois de l'hypothèse que la Sandbox existe et a force de tripatouiller avec cette requête on obtient des résultats.

    Alors que dans l'exemple que je donnais des sites bien positionné avec la requête spé sont moins bien positionné :/

    J'aimerai arriver a trouver un protocole fiable et si possible un consensus dessus pour arriver à avoir des réponses statistiquement fiables.

    Mais le problème c'est qu'il y a 2 inconnus:

    1) La sandbox existe ? si oui a quel niveau et quel impact.

    2) La requête spéciale fait t'elle ressortir les sites dans la Sand box ?

    Difficile de se servir du 2 pour prouver le 1.... Car si avec le point 2 on montre l'inexistence du 1 et bien cela ne voudra peut être dire que le 2 est non valide

    :/ Le serpent qui se mort la queue :(

    Donc a votre avis, comment arriver "théoriquement" a détecter des sites potentiellement dans la sandbox ?

    Déjà quel sont ces sites ? Et je ne parle pas d'une 10ene de site... Pour que ce soit réaliste et significatif il m'en faut au minimum 2 000.

    La sandbox s'appliquant aux sites nouveaux, partir des sites apparu en Février 2005 dans lindice YooVi est ce suffisant ? Où est ce "trop tard" ?

  11. Je ne comprends pas ton test qui fait varier le nombre d'*. Il me semble qu'il est indispensable d'avoir un plus grand nombre d'* comme l'avait indiqué lafleur.

    Le but est de voir l'impact réel des * .. Et s'il existe. Mais bon je peux aller jusqu'a 200 si il faut ;)

    Combien il en faut ? :blink:

    Pour faire avancer le schmilblick, il serait utile de préciser la défnition du ou des sandbox. L'hypothèse de la Sandbox c'est qu'un nouveau site est sanctionné par Google durant ses premiers mois d'existences ouvre la porte aux interprétations les plus diverses. Il suffit de regarder sur les forums. Dès qu'on perd des positions avec un site, on dit qu'on est sandboxé...

    <{POST_SNAPBACK}>

    C'est justement ce que je veux... Des definitions des hypothèses, et la je ferais ce que je sais très bien faire (car j'ai le materiel pour ;)) des études statistiques de grandes ampleur pour avoir des résultats significatifs.

  12. Je suis pas arrivé à ouvrir le deuxième lien,

    C'esu un fichier Propriétaire SeeUrank ;)

    J'ajoute quand même : en ce qui concerne mon site, le -/***etc marche pour toutes les requêtes secondaires sur lesquelles j'essaie de positionner les pages intérieures : ces pages passent d'une position entre 60 et 300 à une présence parmi les trois premiers résultats.

    <{POST_SNAPBACK}>

    Ben donne moi ces fameuses requêtes ;)

    Je suis curieux de verifier ca :)

  13. En tout ça je ne vois pas en quoi il s'agit d'un filtre anti sandbox...

    En effet ils sont nombreux les sites qui bien positionnés sont moins bien positionné avec les requêtes "spéciales":

    www.lagon.fr de 10 à 50

    www.grand-nancy.org de 24 à plus rien!!!

    Et bien d'autres.... Comment expliquer cela ?

    Ce phénomène ne suffit t'il pas à démontrer l'incohérence de cette "requête spéciale" ?

×
×
  • Créer...