Aller au contenu

Stephane

Hubmaster
  • Compteur de contenus

    809
  • Inscrit(e) le

  • Dernière visite

Réputation sur la communauté

0 Neutre

À propos de Stephane

  • Date de naissance 25/09/1972

Pour me contacter

  • Mon Site
    http://www.qualitrafic.fr/

Information du profil

  • Localisation
    France
  • Société
    Qualitrafic
  1. Effectivement beaucoup d'efforts ont été faits, et il en reste beaucoup à faire... Je ne suis pas aussi pessimiste que certains d'entre vous. La prise de conscience est là, et certaines administrations sont déjà en train de travailler à résoudre les problèmes sans attendre le décret d'application. Je travaille en ce moment sur plusieurs audits de sites gouvernementaux, dans l'optique de refontes partielles de sites qui vont intervenir dans des délais très courts... L'une des raisons motivant l'urgence de ces refontes est notamment le souci d'accessibilité. D'ici quelques semaines, des améliorations très concrètes seront donc en place sur plusieurs sites du gouvernement. Certes, les ministères ne sont pas à eux seuls le "service public", mais ils sont en tous cas très bien placés pour donner une impulsion dans le bon sens aux autres administrations.
  2. C'est là où je voulais en venir... Seule la sémantique compte, pour améliorer à la fois le référencement et l'accessibilité. Promouvoir les standards comme une religion, et la validité à tout prix comme le nirvana, quitte à répandre des hoax du genre "les standards améliorent le référencement" ne sert pas la cause défendue. Notre cause commune doit simplement être un web un peu plus sémantique. De ce point de vue, je préfère 1000 fois une vieille page web universitaire en html 2.0 à un skyblog xhtml 1.1 valide (et je ne parle pas que de sémantique du code là, mais de sémantique tout court...). Et les moteurs semblent avoir pour le moment la même préférence, comme quoi ces ptites bêtes ont du goût finalement
  3. A ce propos, l'un des représentants officieux de Google (Googleguy) fait, encore aujourd'hui, très souvent référence à cet article de Brett Tabke, pourtant pas très récent : http://www.searchengineworld.com/misc/guide.htm Bien évidemment, je suis en désaccord avec le grand copain de Googleguy. Du Html 4.0 peut se référencer aussi bien que du 3.2 ou que du Xhtml 1.0, ça s'optimise simplement différemment... Mais c'est intéressant afin d'avoir une meilleure idée de ce que Google estime être la "qualité" du code Html : pour ce moteur, 2.0, 3.2 ou 4.01 c'est du pareil au même du moment que les balises sont bien fermées et que le <head> ne se situe pas après le <body>... Justement, cet algorithme (ainsi que d'autres) a été conçu à une époque particulière de l'histoire du web, et il est visible par tous que les robots semblent évoluer beaucoup moins vite que ce même web. C'est ce qui explique que de deux pages créés par des webmasters inconscients des contraintes de référencement, l'une en html 3.2, l'autre en Xhtml 100% standard mais bourrée de Divs, la première sortira toujours mieux classée. Vrai pour le Googlebot d'aujourd'hui, mais de là à dire qu'un bot ne sait pas... Certains ont su faire cette différence en tous cas. Progrès ou régression ? Oui, mais ils ne seront à nouveau plus à égalité devant un <b> et un <div class="bold">
  4. Bonjour, J'utilise les trois régies citées et quelques autres, pour des clients aux secteurs d'activités très différents. Mais je serais vraiment en peine de dire quelle est la mailleure... Tout dépend du secteur d'activité, mais aussi de tes objectifs. Si ton objectif est l'acquisition de visiteurs, toutes sont bonnes. Si ton objectif est l'acquisition de visibilité, voire même de faire un peu de branding, Google est un peu moins intéressant que les autres (à l'exception peut-être de leur nouvelle offre Targeted sites au CPM). Si ton objectif est la transformation (ventes ou autre chose), fais un test sur un ou deux mois avec un tiers de budget à chacun et en traquant les conversions ; tu pourras ensuite déterminer une meilleure répartition de budget, et tu collecteras au passage des infos utiles pour ton référencement organique. Lors du test, essaye d'activer puis désactiver Adsense pour Google et Content match pour Overture, le résultat est parfois étonnant... Comme je n'aime pas dire du mal des autres (et a fortiori de mes fournisseurs), je vais me contenter de te dire ce que je trouve d'intéressant sur chaque régie. Pour Google : la limite de budget quotidien (prévois quand même des dépassements de l'ordre de +10%), la possibilité de mettre des annonces différentes en rotation, les exclusions de mots-clés quand on fais du "broad match" Pour Overture : la puissance du réseau (permet actuellement de couvrir en une fois tous les outils de recherche majeurs à la seule exception de Google), la transparence sur les prévisions de trafic/budget, la validation éditoriale préalable (même si parfois je râle sur les délais...), l'outil de tracking des conversions (gratuit et sans pub imposée par la régie) Pour Miva : le coût (enchères à partir de 0,10 et possibilités réelles sur certains secteurs d'acheter des mots-clés intéressants à ce prix là), le petit logo associé parfois à ton annonce (certes on achète du clic, mais ça fait du bien d'être vu aussi), l'éfficacité et la réactivité de leur équipe éditoriale.
  5. Oui, c'est possible Jan. Lorsque je suis confronté à une demande d'un client ayant un site venant tout juste d'être sandboxé, j'avoue que je suis plus enclin maintenant à proposer du lien sponsorisé au démarrage (notamment Adwords).
  6. Je ne vois pas d'autre motivation valable en tous cas... D'autre part, je n'ai jamais entendu de la part d'un représentant de Google identifiable d'explication claire sur les raisons de la mise en place de la sandbox. Tout ce qui peut rapporter suffisamment pour motiver certains webmasters à créer/générer des centaines de sites à partir du seul contenu fourni par les annonceurs. Y a le choix : tourisme, hotellerie, assurance, rencontres, petites annonces, sonneries et logos, immobilier, informatique... et j'en oublie
  7. Salut, Mon opinion sur la sandbox est que Google cherche à tuer une certaine forme de business liée à l'affiliation. Il était vraiment trop simple auparavant pour une personne un peu douée en référencement de vivre exclusivement de l'affiliation (et de générer de jolis revenus) en lançant simplement un nouveau site tous les mois. Google considère probablement ça comme une forme de pollution de son index. Google ne maintiendra pas éternellement la sandbox. Cela a un coût pour eux aussi : dégradation des résultats de recherche dans certains cas, et animosité croissante des webmasters. Mais c'est une guerre d'usure, et Google a maintenant les moyens de tenir assez longtemps (avance confortable sur les autres moteurs, et surtout beaucoup de $$$) Ce qu'il espèrent c'est de parvenir à asphyxier une partie des acteurs de ce business de l'affiliation, et à décourager ceux qui seraient tentés de s'y lancer. Lorsqu'ils auront atteint (au moins partiellement) leur objectif, ils supprimeront le systême de sandbox.
  8. Tiens, j'avais oublié de répondre à ça. qui semble également rejoindre la remarque de Dudu.. Désolé les gars, mais j'ai jamais entendu le moindre écho de ce supposé "débat." Je ne vois vraiment pas pourquoi il faudrait choisir "entre avoir un beau site et un site bien référencé" Si c'est un référenceur qui vous a affirmé cela, faut qu'il change de métier le pauvre... Ben, pas d'accord non plus... Pourquoi il les trierait puisqu'il les ignore ? Mais je veux bien attendre le résultat du test Darkseo afin d'être convaincu. Vous êtes pas sympa avec les moteurs quand même Google et les autres ont déjà bien du mal avec le Xhtml 1.1 comme tu l'a montré... Si en plus on leur change le standard l'année prochaine ils vont vraiment râler
  9. thierryf, Je suis surpris et un peu déçu de ta réponse. Mon seul et unique propos était de dire que la volonté d'atteindre un bon référencement ne doit en aucun cas devenir une motivation pour passer aux standards. Ce serait une promesse mensongère. Ce qui ne veut pas dire évidemment qu'il n'existe pas d'autres motivations, beaucoup plus valables de passer aux standards. Les évangélistes des standards tels que toi feraient mieux de mettre en avant ces motivations là, plutôt que de tenter de répandre de fausses nouvelles qui risqueraient de décrédibiliser leur cause à terme. Un peu caricatural, non ? Ce n'est pas parce que l'on utilise des feuilles de style que l'on est forcément conforme aux standards. De même, il est tout à fait possible de faire des pages 100% valides qui soient une aberration du point de vue référencement, parce que sémantiquement absurdes. D'autre part, la balise <IMG> que tu ne sembles pas apprécier reste tout à fait conforme aux standards à ma connaissance. Avec les standards, tu peux aussi créer des sites très laids et mal référencés, ou très laids et bien référencés, ou très beaux et mal référencés... En fait, comme sans les standards, non ? Pour ce qui est de Google, personnellement je n'ai pas attendu la naissance de ce moteur pour devenir référenceur, ni même pour connaître le succès. Concernant les graphistes, il me semble pas juste de leur jeter ainsi la pierre. Chaque profession spécialisée du web (infographistes, développeurs, référenceurs) a apporté sa contribution à ce qu'est le web aujourd'hui. Et les graphistes/webdesigners ont à mon avis apporté une contribution essentielle à la démocratisation du web, parce que le web époque Lynx/Mosaïc c'était quand même pas très sexy faut l'avouer... D'autre part, j'aimerais bien savoir ce que signifient les guillemets entourant le mot "référenceurs" dans ta phrase. Prouve le, et je me rangerai alors à ton avis Je ne parle que de l'avantage au niveau du référencement bien sûr. Pour expliciter mon post précédent, ce qu'il faut bien comprendre c'est que les moteurs n'obéiront à un quelconque standard qu'à partir du moment ou il deviendre un standard d'usage, c'est à dire lorsque la quasi-totalité des pages existantes sur le web sera conforme à ces standards. Et encore, ce n'est pas garanti... On voit bien quelle est la lenteur des moteurs à reconnaître des technos aussi répandues que le Flash par exemple. Mais surtout, la mission des moteurs étant de jouer le rôle d'encyclopédie du web, je doute qu'ils prendraient sciemment le risque un jour d'envoyer aux oubliettes tout le web "pré-standards" qui comporte encore aujourd'hui une bonne partie des sites de référence parmi les plus consultés.
  10. Je comprends ton impression, mais elle est fausse. Le calcul de densité de mot-clé réalisé par un moteur ne se fait de toute façon que sur le texte, le poids des balises n'entre pas en compte. Donc pour un moteur, XHTML, HTML+CSS ou HTML sans CSS c'est du pareil au même. De manière générale, les moteurs ne font attention qu'à un nombre très limité de balises (certaines étant d'ailleurs "deprecated" puisque la tâche des moteurs est d'indexer tout le web, pas simplement une minorité de pages valides aux standards actuels). Toutes les autres balises non utiles à leur tâche sont purement et simplement ignorées, donc il n'y a pas d'utilité à débattre des bienfaits ou désavantages de balises telles que Doctype, Table... du point de vue du référencement en tous cas. Impression fausse, comme expliqué plus haut. Un site en Html 3.2 des balkans peut se référencer aussi bien voire mieux qu'un site Xhtml. Si le souci du référencement est la seule justification de l'effort nécessaire au passage à un code valide, alors mieux vaut se trouver de meilleures justifications
  11. Je connais peu l'angleterre, mais ça me semble un bon choix L'angleterre, comme la France, compte de très bons référenceurs. Et ils semblent moins complexés en tous cas que ces "chapeaux blancs" tristounets de SEO étasuniens ou canadiens... Je pense que tu devrais bien t'amuser là-bas Normal le pain anglais est dégueulasse... Le Juge, essaye au moins de te loger le plus proche possible d'une boulangerie française C'était la question initiale il me semble... Personnellement, je sors mon joker sur ce coup là !
  12. Mesurable ? pas toujours... Mais c'est de la responsabilité du référenceur de faire en sorte que l'essentiel du trafic généré par les moteurs soit du trafic qualifié, y compris lorsqu'il est nécessaire pour cela de "déréférencer" le site pour des mots-clés source de "bruit". Concernant la transformation, celle-ci s'évalue en effet de manière différente selon les sites : ventes, formulaires, inscriptions newsletter... La transformation n'est pas du seul fait du référenceur, puisque cela dépend beaucoup et avant tout des talents de "vendeur" du client. Néanmoins, c'est le critère essentiel permettant au référenceur d'orienter les actions de référencement / positionnement publicitaire, et de trouver par ajustements successifs le dosage idéal : moteurs les plus rentables, mots-clés les plus rentables, etc.
  13. Tout à fait d'accord avec toi cendrillon. Tout comme le positionnement, le volume de trafic généré n'est aussi qu'un indicateur. Déjà un meilleur indicateur, mais un simple indicateur tout de même. La finalité est bien la transformation, mais celle ci n'est pas mesurable sur tout type de site. A défaut, il vaut mieux partir de la notion de trafic qualifié, mais je ne voulais pas prêcher trop ouvertement pour ma paroisse.. Encore une fois, je suis complètement d'accord. Le référencement est avant tout un métier de conseil, pas une simple prestation technique.
  14. Bonjour, Difficile pour un référenceur de s'exprimer sur certains des points abordés dans cette discussion sans paraître dénigrer ce que font certains confrères... Je vais quand même tenter de donner mon avis, de manière "diplomatique". Ah ! le serpent de mer des garanties de positionnement Sans affirmer comme tu le fais Lurch qu'il s'agit de malhonnêteté, je voudrais simplement expliquer ce que ça implique concrètement pour le prestataire, comme pour le client. Le principe même d'une garantie de résultats dans le domaine du positionnement est déjà étonnant en soi. Cela suppose en effet que le prestataire maîtrise à 100% l'environnement du client, c'est à dire à la fois le référencement des concurrents, et l'évolution des algos des moteurs. Or, il est bien connu qu'un référenceur digne de ce nom n'acceptera un projet qu'à la seule condition de déjà référencer tous les autres acteurs du même secteur... Il est bien connu également que les ingénieurs de Google nous consultent préalablement à toute modification de leur algo de classement, et se conforment dans tous les cas à l'avis éclairé des référenceurs pour toute évolution de leur moteur Etonnant, donc. Mais après tout, pourquoi pas. Si certains confrères proposent de telles garanties, c'est que cela doit être vrai Maintenant quel est l'intérêt du client dans tout ça ? Le positionnement d'un site n'a de sens qu'à un instant T, c'est une simple photographie des résultats. Admettons qu'un prestataire garantisseur de positions réalise ses audits sur une périodicité mensuelle. Un premier audit montre une position en 1ère page du moteur. Et l'audit du mois suivant montre à nouveau une position en 1ère page. Objectif apparemment atteint, le client se doit donc d'être satisfait, non ? Or, ce mode d'évaluation des résultats ne permet pas de juger de ce qu'il s'est passé durant les 30 jours où aucune photographie n'est prise. Si durant 25 de ces 30 jours le positionnement effectif du client était en 5ème page au lieu de la 1ère page, le prestataire a-t-il toujours raison de se satisfaire du travail accompli ? J'engage donc les clients ayant fait le choix d'un tel prestataire à exiger au minimum des audits de positionnement quotidiens. Et encore ce ne sera probablement pas suffisant... Un moteur comme Google disposant de plusieurs datacenters pourra très bien délivrer des résultats différents selon les moments de la journée, ou même au même moment pour plusieurs utilisateurs. Que vaut un audit "prouvant" une bonne position sur Google, alors que 9 autres datacenters disent le contraire au même moment exact ? Non, vraiment je ne pense pas que ce mode d'évaluation des résultats soit dans l'intérêt du client. Le positionnement est un indicateur utile, mais trop statique pour qu'on lui accorde autant d'importance. Mesurer le volume de trafic apporté chaque mois par les moteurs est déjà plus pertinent, puisqu'il s'agit dans ce cas d'un indicateur dynamique. D'autre part, la valeur ajoutée d'un prestataire n'est pas dans le fait de garantir des bonnes positions, mais dans le fait d'être capable de réagir efficacement et rapidement dans l'éventualité d'une dégradation du positionnement. En d'autres termes, c'est une "garantie de moyens" que le client devrait plutôt exiger. Je voudrais aussi avertir les clients sur le fait que choisir une prestation complètement orientée dans le sens de la "garantie de résultats" a certaines conséquences inhérentes dont on n'est pas forcément conscient au moment de signer le contrat. Je ne vais viser personne en particulier, mais je me base malgré tout sur des exemples réels de prestataires utilisant la "garantie de résultats" comme argument commercial ultime. Très souvent, le prestataire va délimiter le cadre de sa garantie à un groupe de mots-clés et à un groupe de moteurs. Le corollaire est que chaque mot-clé est considéré comme égal aux autres, et chaque moteur égal à un autre. Par conséquent, si le référenceur ne parvient pas à atteindre son objectif de positionnement pour le terme "location de vacances" sur Google (79% de parts d'audience), cela n'aura aucune importance pour lui puisqu'il compensera le manque à gagner par exemple grâce à une 1ère position facilement obtenue sur "location d'appartements de vacances à la Cluzat" sur le moteur MSN Search (3% de parts d'audience). En d'autres termes, le prestataire garantisseur de résultats ne prend aucun risque et paradoxalement va se retrouver incité par ce système même à ne prioriser que les requêtes les moins intéressantes pour le client. Autre effet pervers du système. Les garanties de positionnement étant comme on le voit très faciles à atteindre, que se passe-t-il une fois que le prestataire les a atteintes ? Et bien, il peut généralement lever le crayon et commencer à se croiser les bras. Son contrat lui permet de le faire en toute quiétude. Or, le référencement (le vrai) se doit d'être un travail permanent. L'amélioration est toujours possible, et elle peut être continue à condition que le référenceur ait prévu un forfait de journées de travail étalées sur plusieurs mois. Si vous n'avez acheté que des positions, hé bien vous aurez des positions mais vous ne tirerez pas le maximum de votre référencement car vous vous retrouverez dans l'impossibilité d'obliger votre prestataire à bosser davantage pour vous... Un autre aspect important est que les garanties de positionnement rendent complètement figés les objectifs de la prestation. Ceux-ci sont définis contractuellement en début de prestation, et rendus inchangeables durant une période d'un an. Là encore ce n'est pas dans l'intérêt du client. Or la valeur-ajoutée d'un bon référenceur devrait justement être la capacité à guider son client sur des ajustements de ce cadre rendus nécessaires par la découverte d'opportunités nouvelles en termes de mots-clés à exploiter, par un constat lucide sur les statistiques de connexion / ventes (il n'est pas utile de continuer de focaliser sur un mot-clé générant trop peu de trafic), ou par la saisonnalité des demandes des internautes. Le problème est que dans ces conditions le bon référenceur ne sera pas à même de garantir des positions sur une liste de mots-clés, pour la simple raison que cette liste de mots-clés évoluera plusieurs fois en cours d'année, et ce dans l'intérêt du client. Au contraire, le garantisseur de positions continuera imperturbablement à afficher ses bons scores de posirionnement sur "vacances au ski"... en plein mois d'août. En conclusion, je dirais à un client souhaitant réellement conditionner son investissement en référencement à l'obtention de résultats effectifs de fuir tout ce qui peut ressembler de près ou de loin à une garantie de positionnement. En revanche, une autre possibilité serait de fournir au moins 6 mois de statistiques détaillées de connexion à un prestataire et de lui demander d'établir à partir de ces éléments un objectif de progression de trafic réaliste mais néanmoins suffisamment ambitieux pour justifier le coût d'une prestation. Une fois tombés d'accord sur un tel objectif, client et prestataire pourront ensuite discuter d'un principe de facturation conditionné en partie à la réalisation de cet objectif. C'est le seul moyen à mon avis de motiver réellement un référenceur à s'impliquer "à fond" pour son client, et qui permet à la collaboration de prendre quasiment la forme d'un partenariat. Pour moi, c'est la seule forme de "garantie de résultats" qui puisse avoir un intérêt réel pour le client. Enfin, pour revenir à la question de départ : les tarifs Comparer dans l'abstrait des tarifs très différents sans comprendre ce que chacun recouvre n'a pas vraiment de sens. Par exemple, les offres à quelques centaines d'euros ne peuvent pas être comparées à des offres de référencement. Ce sont des offres d'inscription, pas de référencement. On ne peut comparer que les offres d'inscription entre elles, et les offres de référencement entre elles. Un conseil aux clients : demandez toujours aux prestataires consultés quels sont leurs prix / jour C'est déjà un très bon moyen d'évaluer ce que vous aurez pour le montant investi, et de comparer les offres. Ainsi, une offre packagée au tarif apparemment très alléchant de 3000 euros/an pourrait se révéler nettement moins alléchante si vous decouvrez en petits caractères sur la proposition des prix / jour de 1500 euros, et comprenez qu'en fait vous n'achetez que 2 jours de travail effectif pour toute une année...
  15. Pour que ton test puisse donner lieu à une conclusion, il faudrait que tu essaye de retirer le style invisible pendant quelques temps afin de voir si tu remontes sur Google (ou chute sur MSN) Un positionnement sur les 3 est tout à fait conciliable. Même s'ils fonctionnent de manière (un peu) différente, à mon avis aucun facteur positif sur l'un n'a d'effet négatif sur l'autre. En tous cas, jolie formule le "Triangle d'Or du Référencement"
×
×
  • Créer...