Aller au contenu

Cendrillon

Hubmaster
  • Compteur de contenus

    412
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Cendrillon

  1. tu peux aussi utiliser un simple mailto et prédéfinissant les champs objet et message ... cela utiliserait donc le client messagerie du visiteur ... d'où pas nécessaire de donner son nom et son email ... et le carnet d'adresse est à portée de main ...
  2. je me demande dans quelle mesure ce n'est pas lié à la notion de BlockRank ... je m'explique : Google pourrait calculer le PR sur un subset de la matrice de liens, ce qui pourrait donner une bonne approximation du PR, qu'il pourrait ensuite utiliser comme PR Temps Réel ... résultats qu'il pourrait recaler tous les 2 ou 3 mois (au cours de ce que l'on appelle encore les GGdance) en recalculant le PR global ... mais encore une fois, ce n'est que la seule hypothèse crédible (en tout cas à mes yeux) que j'ai trouvé pour expliquer ce phénomène ...
  3. je n'en sais rien mais pourquoi pas ? on ne peut pas l'exclure à priori, la bar Alexa le fait bien depuis des années et utilise ces informations pour classer les sites, pourquoi Google ne le ferait il pas (d'autant que la GGbar est nettement plus installée que la Alexabar) ... ce serait pour Google (et comme le dit Zapman) une information très intéressante de plus ...
  4. Bien entendu je parlais de site à fort PR mérité et de véritables sites de référence ... et non de sites de spam (quoi que) ... le PR de la toolbar est aussi un indice de popularité, certes échantillonné à un instant t (qui peut varier de j-1 à j-90 voire plus) mais un indice de popularité quand même ... mais tu as raison c'est bien du PR temps réel qu'il faut parler puisque c'est celui qui est pris en compte lors d'une recherche ... d'ailleurs, dès lors que les liens qui relient une nouvelle page aux pages environnantes sont pris en compte (ce qui est assez rapide pour les sites a fort PR) on peut considérer que cette nouvelle page bénéficie immédiatement (puisqu'en temps réel) de l'apport de PR de ces pages environnantes et donc dispose également d'un PR (temps réel toujours) qui n'est surrement pas aussi faible que ne l'indique la toolbar ... certes, mais il faut bien reconnaitre que ce que j'ai dit précédemment ne suffit pas à expliquer pourquoi un site comme la NASA (pour reprendre cet exemple) arriverait à placer des nouvelles pages a priori pas très pertinantes (voire pas pertinentes du tout) et hors thématique devant des sites spécialisés même à forte popularité (pour ne pas dire PR )... et je me demande dans quelle mesure, pour ces cas là, la notion de "sites de référence" au sens du trustrank, n'interviendrait pas déjà ? pour le reste, tu as entierement raison et ce n'est que bon sens ... mais c'est une autre histoire ...
  5. Bonjour "Lui", Si il y a bien une chose que je sais, c'est que ... nous en sommes tous là ... Comme l'a bien dit Thick, nous en sommes tous à essayer de comprendre le fonctionnement d'un ensemble d'algorythmes à plusieurs milliers de paramètres (avec des règles qui changent régulièrement) et dont nous ne voyons que la partie emmergée ... pour en revenir au sujet du thread, il m'est arriver en lisant ici ou là : "pourquoi telle ou telle page arrive en tête de résultats d'une requete de plusieurs milliers (voir millions) de résutats ?" de constater qu'il s'agissait de pages certes à très faible PR mais rattachées à des domaines à très fort PR, directement ou sous forme de sous-domaine (par exemple des pages perso free, wanadoo etc ... ou encore de plateformes de blogs) ... Combien se sont plaint de se faire voler des places par des discussions sur certains forum juste parce qu'ils y ont écrits leurs mots clés (sur WRI par exemple qui est rewrité et dont des pages nouvelles sont crées pour chaque discussions) ... j'en arrive souvent à me demander, malgrès certaines "certitudes" communement admises, si (et dans quelles proportions) le PR "global" du site (ou du domaine père pour les sous-domaines), ou encore le statut de site de référence (certaines parties du trustrank seraient elles déjà actives ?) n'interviennent pas dans le positionnement d'une page indépendament de son PR individel et de sa pertinence intrinsèque par rapport à la requete ... justement, je me demande dans quelle mesure si le site de la NASA décidait d'ajouter une page (même à PR 0) parlant des fleurs, elle ne sortirait pas avant bien d'autres pages de site sépcialisés dans la vente de fleurs ...
  6. oui ... une URL généralement pleine de tirets ... ce n'était qu'une hypothèse ... mai bon, si tu dis que cela n'a rien à voir ....
  7. la course au PR ne sert pas à rien ... il donne de la popularité au site et permet donc une meilleure indexation ... par ailleurs il ne faudrait pas oublier qu'à pertinence comparable, il contribue malgrès tout au positionnement d'une page ... quant aux BL, certes ils apportent du PR, mais ils ne font pas que ça : le text anchor et la thématique de la page qui link participent pour une part importante au positionnement de la page linkée ... enfin accessoirement les BL peuvent également apporter des visiteurs (mais c'est une autre histoire) ...
  8. Je ne pense pas que le problème ait un rapport avec le rewriting. Sur annuaire-info.com, les pages que j'ai citées ne sont pas rewritées, ce sont de bonnes pages HTML statiques à l'ancienne et les tirets y provoquent des problèmes d'indexation. <{POST_SNAPBACK}> en fait, je voulais juste souligner que c'est que c'est essentiellement sur les sites "rewrités" que l'on voit des URL qui reprenent le titre en remplaçant les espaces par tirets ... MSN cherche peut être à s'affranchir de ce type de suroptimisation en pénalisant les multiples tirets ...
  9. le PR n'étant pas un indicateur de pertinance (malgrés ce que dit la GGbar lorsque l'on survole de PR) mais de popularité (nombre de BL et PR de ces BL), il n'y a pas vraiment de raison que ce soit un critère prépondérant dans le positionnement d'une page ... imagine, tu est dans un hopital et tu as 2 interlocuteurs devant toi : 1 acteur très populaire de la série Urgence et un vrai médecin, tu ferais confiance à qui pour un diagnostic ? par contre, si tu as 2 médecins dont un illustre inconu et un médecin très connu et reconnu : a qui tu ferais confiance pour un diagnostic ?
  10. j'ai l'impression qu'ils s'attaquent surtout aux sites "rewrités" avec reprise dans l'url de phrases entières (avec les blancs remplacés par des tirets) ... Bah peut être que MSN n'applique pas ses nouvelles règles de manière rétroactives (autrement dit les sites à multiples tirets bien indéxés étaient peut être déjà indexés quand MSN à mis en oeuvre cette nouvelle règle ...
  11. Ce que tu dit est vrai à condition que l'on distingue 2 activités distinctes dans le travail d'un référenceur ... une activité technique (que l'on appelle SEO me semble t'il) ... et cette activité doit être intégrée au développement du site (ce que tu appelles webmastering) et une activité promotion (le keyword marketing, les campagne de pub, etc ...) proprement dite qui correspond effectivement à la phase de promotion traditionnelle des produits ... et pour en revenir à cette activité technique elle me rappelle l'époque héroique ou les départements étude développaient des produits, que les départements production s'empressait de "casser" et réétudier car il n'était pas du tout industrialisable ... heureusement ils ont fini par s'entendre et les départements études intègrent maintenant presque toutes des ingénieurs de production pour concevoir des produits directement industrialisables ...
  12. tu as raison, et ceci est certainement dû au fait que les site web sont généralement placés sous la responsabilité de la direction communication/marketing de la plupart des entreprises ... et dans la logique de ces directions, on fait une étude de marché pour savoir ce qu'attendent les clients, on réalise le produit et ensuite seulement on en fait la promotion ... cycle qu'elles appliquent également et joyeusement à leur site web ...
  13. a ma connaissance, les singuliers et pluriels sont toujours bien différentiés par Google ... la coloration des mots clés dans le pages de résultats et un post traitement et n'est pas réprésentative de ce qui est pris en compte par le moteur ...
  14. il y a une autre possibilité ... le développement d'un site est un travail pluridisciplinaire, nécessitant des graphistes, des développeurs, des rédacteurs ... et des "référenceurs" ... ces derniers apportant au projet leur bonne connaissance des moteurs, lui assurant ainsi les "prédispositions" indispensables à un bon référencement naturel ... dès lors 4 possibilités, les sociétés de référencement : 1- apportent leurs compétences à la manière des SSII (par délégation de personnels spécialisés) ou sous forme de prestations de conseil ... 2- prennent en charge la conduite du projet (et donc intégrent le rôle de "web agency") ... 3- abandonnent la partie technique aux "web agency" et se contonnent à la partie marketing/communication (comme le suggérait Cariboo ici) ... 4- décident de vendre des fleurs comme Marie ... mais n'était ce pas ce que l'on disait ici voila 1 an ?
  15. c'est malsain, mais c'est peut être un mal pour un bien ... cela va peut être enfin permettre de décaler le travail de réferencement plus en amont des développements des sites : un site bien construit, avec une structure de lien internes efficace et un contenu élaboré et bien structuré permettra un bon référencement naturel ... et les bon vieux référencements de dernière minute nécessitant des rustines à base de techniques borderline (pages satellites, cloaking, bombing de BL et autres) deviendront tellement risqués qu'ils finiront par disparaitre d'eux même ... un bon référencement naturel accompagné au démarrage par une campagne d'AdWords permettant de laisser au site le temps de prendre ses positions, le tout soupoudré intelligemment (et progressivement) de qq BL en provenance de sites de réference ... voila peut être la bonne équation pour les années à venir ...
  16. je comprend les questions que se posent nos amis ludo88 et Studiohomedesign ... l'alternative n'est pas très affriolente : essayer d'acceler le positionnement de ses pages en utilisant des techniques de référencement plus ou moins "borderline" et prendre le risque (de plus en plus grand) de tomber (à plus ou moins longue échéance) dans les filtres de Google ... ou utiliser des techniques de référencement naturel et devoir attendre 12 à 18 mois pour obtenir des résultats (mais quels résultats, n'est ce pas Dan) ... pas facile à vendre à des clients tout ça (sauf à faire ce que propose "Lui")...
  17. Dan, te rends tu compte que tu es en train de donner des sueurs froides à toute une profession ?
  18. "Comment faire pour plaire aux moteurs..." ? peut être essayer d'appliquer aux moteurs une bonne vieille methode de séduction à la Aubade : Leçon n°8 : faire semblant de ne pas t'y intéresser, mais en t'assurant qu'il te voit bien ...
  19. ben c'est déjà fait ... a quoi sert un sitemap si ce n'est crawler le site à leur place ... [edit] oops, j'ai répondu à Jean Luc avant d'avoir fini de lire la discussion ... résultats je n'ai pas vu que j'avais été prise de vitesse par bigornot (grrrr) ...
  20. euh ... c'est vrai ça ... rien que des messages de satisfaction, ça fait pas "naturel" ... il va quand même falloir que qq se dévoue pour dire que pour lui c'est pas bien (d'ailleurs tu pourrais faire un effort pour l'y aider Dan) ...
  21. finalement, le référencement c'est un peu la tentative de séduction d'un moteur ... "il" (ou "elle" d'ailleurs) écoutera tes "compliments" mais si tu en fait trop il risque de ne plus marcher et aller voir ailleurs ... en conclusion : on peut parfois être (un peu) insistant sur certain points mais il faut le faire intelligeamment et en restant naturel pour ne pas devenir lourd ...
  22. tout dépend de ce que tu recherche (que cherches tu à obtenir avec ce référencement/positionnement ?) : - pour une site d'information, le nombre de page vue par visite est un bon indicateur de qualification du trafic apporté (lorsque tes stats montre un taux de visites à 1 page important c'est pas très bon, non ?) ... - le nombre d'inscriptions est peut être effectivement un bon indicateur de qualification pour ton site en signature ... positionner des pages sur des mots clés n'est pas l'objectif recherché mais le moyen d'atteindre le véritable objectif final qui dépend effectivement du site en question ...
  23. pas forcément ... attention à ne pas confondre positionnement, trafic et transformation (pour les sites d'e-commerce) ... tu peux être parfaitement positionné sur des mots clés qui n'apportent quasiment pas de trafic ... tu peux également être positionné sur des mots clés qui apportent un important trafic (peu qualifié) sans intérêt (et donc non transformé) ... tout dépend de ce que tu as vendu ... 3 possibilités : 1- tu vends un positionnement sur des mots clés choisis par tes clients et le bon indicateur est le positionnement ... 2- tu vends du trafic, et là il te suffit que les mots clés soient très demandés ... dans ce cas le bon indicateur est effectivement le trafic (qu'il soit transformé ou non) ... 3- tu vends du trafic qualifié, et là il y a un important travail à faire sur le choix des mots clés (et c'est là qu'intervient la dimension conseil d'un bon référenceur) ... dans ce cas le bon indicateur est la croissance des résultats (CA) ... je connais des gens qui ont payé très chers des positionnements sur certains mots clés qui n'ont eu pour effet que d'exploser leur bande passante ... c'est là que doit intervenir la dimension conseil d'un bon référenceur ...
  24. désolée de remonter cette vielle discution, mais ces "Quality Rater" dont nous parlions il y a quelques mois ne seraient pas en fait devenus les fameux évaluateurs humains du laboratoire d'évaluation de Google (Rater Hub Google) du non moins fameux "eval.google.com" ?
  25. à plus forte raison quand on peut y arriver par d'autres moyens tout en restant toujours dans la légalité ...
×
×
  • Créer...