Aller au contenu

Cariboo

Membre+
  • Compteur de contenus

    3 376
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Cariboo

  1. Mouais... Je soupçonne fortement Matt Cutts de nous faire un coup d'intox sur le sujet, comme il en fait régulièrement. Objectif : faire disparaître une pratique qui les empêche d'utiliser un critère leur permettant de reconnaître des pages importantes à l'intérieur d'un site, parce que le critère est spammé. Matt lance ces campagnes quand Google a renoncé à trouver un autre critère, et quand l'équipe qualité jette l'éponge parce que la tâche permettant de distinguer les utilisations légitimes ou non d'une technique s'avère ingérable. Le problème dans cette histoire, c'est que Matt Cutts prone de montrer la même structure de liens aux internautes et aux moteurs. Or son raisonnement semble reposer sur une hypothèse fausse dans la pratique. Pour des raisons d'ergonomie aujourd'hui, la plupart des sites placent beaucoup de liens sur leurs pages, la plupart de ces liens étant rarement cliqués, mais placés là au cas où. Je rappelle au passage que très souvent, les pages qui reçoivent le plus de liens sur un site sont les pages de type "mentions légales" ou "conditions générales" en raison des liens systématiques en footer. Or, sauf cas particulier, ces pages ne sont pas les plus importantes du site. Ce qui signifie que dans beaucoup de cas, la hiérarchie des PR internes d'un site, pourvu que le site ait un certain nombre de pages, est très différente de la hiérarchie de l'importance des pages dans un site, qu'elle est censée mesurer. Le PR sculpting a pour objectif de corriger ce problème. Je précise au passage que le PR sculpting cela marche vraiment bien dans certains cas : site avec un nombre suffisant de pages, et structure ergonomique éloignée de la structure idéale pour le moteur. Ce qui est bizarre c'est que les SEO qui comprennent cette technique sont très nombreux en Europe (en France et en Allemagne en particulier) et minoritaires aux USA et en Angleterre. Depuis un an, des tas de blogueurs américains, parmi les plus influents, ont posté des billets pour expliquer que le PR sculpting ne servait à rien et que cela ne marchait pas, en général en révélant indirectement leur grave ignorance sur le sujet. En clair il y'a un terreau fertile pour faire prospérer le doute émis par Matt Cutts. En l'état actuel des choses, je fais trois hypothèses : - Matt veut faire disparaître une technique qui marche trop bien, et rétablir un équilibre entre ceux qui savent et les autres. Le changement d'algo dans ce cas est un écran de fumée, c'est juste de l'intox pour que les gens arrêtent de le faire. On ne tardera pas à savoir si l'algo change, c'est trop facile à vérifier. - Le changement d'algo est plus profond que ça : la valeur du PR passée est pondérée par d'autres critères (emplacement dans la page et utilisation des infos données par la structure DOM par exemple). Dans ce cas, Matt à raison, cela ne servira plus à grand chose de se décarcasser pour faire du PR sculpting. Mais le problème c'est qu'il ne dit rien de tel - Matt est dans une croisade un peu idéologique, dont il ne voit pas les conséquences à ce stade : parce que présenter des choses différentes aux moteurs et aux internautes, c'est mal, il faut donc arrêter de faire du PR sculpting. Je rappelle juste que les plus white hat des SEO sont quand même obligés de faire ce genre de chose quasi systématiquement parce que les algos sont pourris et qu'il faut bien aider les pages de certains sites à gagner la place qui leur revient au milieu des splogs, des scrapers sites et autres pages d'agrégateurs, sans compter les pages des partenaires des moteurs. Bref, à suivre, mais je pense véritablement qu'il faut se méfier doublement : - l'info ne me semble pas fiable à 100%. Il y'a autre chose derrière. - prise au pied de la lettre, cela ne fait pas progresser la pertinence. Mais alors pas du tout. Donc ce n'est pas logique. Maintenant, l'annonce de Matt Cutts signifie probablement une campagne de pénalités sur des critères qui seront précisés plus tard pour la fin de l'année. On va retrouver le schéma habituel lorsqu'ils tapent sur des critères qu'ils n'arrivent pas à défendre contre le spam : sensibilisation, annonce des nouvelles règles, sanctions pour l'exemple.
  2. Le crawl de Google dépend de plusieurs facteurs combinés : - d'une part de la possibilité de crawler facilement ton site => vérifie les temps de téléchargement communiqués par Google dans GWT. Par ailleurs, regarde les messages d'erreur renvoyés par tes pages et éventuellement présents dans GWT. Regarde aussi dans la zone message la présence d'un "votre site présente un nombre anormal d'urls". Et vérifie toi même ton arborescence à l'aide d'un outil type XENU - la qualité et l'importance des pages pour son index : faire la chasse aux pages trop similaires, trop vides de contenus, et aux pages avec un pagerank interne très faible. Vérifie au passage la profondeur de tes pages - la fraicheur ensuite (inutile de crawler souvent des pages qui ne changent jamais, et/ou qui ne sont pas très importantes...) Enfin, intéresse toi aux caractéristiques des pages non crawlées : cette recherche te permettra probablement de mettre le doigt sur une raison précise qui empêche un crawl intégral de ton site.
  3. Il n'y a pas vraiment de risque à utiliser ce script à ma connaissance. Utiliser SWFObject est pour moi l'une des meilleures solutions pour créer des sites universellement crawlables, même pour des moteurs qui ne lisent pas le javascript ou le flash. Cela apporte une grande souplesse. Mais il faut penser à créer une version "sans flash" et "sans javascript" (une version dégradée) qui ressemble à quelque chose et qui ne fasse pas "cloaking".
  4. Un référenceur pro qui prendrait des engagements sur des chiffres précis serait évidemment, soit inconscient, soit (trop) guidé par la volonté de gagner le contrat. Par contre, il est assez normal je trouve que le client veuille évaluer le risque financier qu'il prend, et veuille même le minimiser. C'est pourquoi j'essaie, en règle général de fonctionner en donnant une fourchette : le gain maximal en terme de trafic, le gain minimal que l'on peut atteindre en cas de difficulté ou de mauvaises surprises et le gain "probable". Le bas de la fourchette permet d'évaluer le risque. Et le gain probable de définir un objectif que l'on cherche à obtenir (sur le plan opérationnel c'est mieux). Et en faisant comme cela, on se plante rarement (il y'a parfois un décalage dans le temps : genre résultats obtenu au bout de 12 mois et non de 9) Mais ça demande pas mal d'expérience, et d'avoir beaucoup d'information sur le site et la structure qui le porte pour évaluer le potentiel. Quand on sait ce que l'on fait, la principale variable que l'on ne maîtrise pas, c'est l'implication du client, ses moyens, sa réactivité, son sérieux, qui conditionnent l'implémentation des préconisations et donc l'obtention des résultats. Et j'ai déjà observé ce phénomène : comme en psychanalyse, plus le client paie cher, et risque gros, plus il applique vite et correctement les préconisations, et plus il a de résultats. Quand le client ne prend pas de risques (genre contrat 100% variable), il s'en fout, fait ce qu'il veut, n'applique que ce qui l'arrange, et les résultats ne sont pas là. Sur le côté factuel : en général, le référencement est trop complexe pour que l'on puisse être trop précis dans les effets obtenus. Tout simplement parce qu'au stade où le devis est fourni, on ne sait pas assez de choses sur le site et son environnement pour identifier tous les leviers sur lesquels on va pouvoir jouer, et a fortiori sur leurs effets réels. Par contre, on peut faire des raisonnements statistiques du style "à vue de nez, les problèmes sont là et là, en jouant dessus, on devrait avoir un gain de tant là, de tant ici, et en comptant un taux X de déchet, globalement, cela donne entre tant et tant".
  5. En fait, la bonne nouvelle avec SPIP 2.0, c'est qu'ils ont refait tout le moteur, mais le volant, les pédales et le levier de vitesse sont à la même place. La compatibilité ascendante est excellente et pas trop de problèmes pour retrouver ses petits après une migration. Certains seront même peut-être déçus du manque de fonctionnalités révolutionnaires "visibles". En fait la révolution c'est dans l'ouverture de l'outil, dans la possibilité de développer des plugins sophistiqués, et dans l'architecture générale qui permet enfin d'espérer que l'outil pourra être utilisé dans des applications plus diverses que les sites avec un contenu éditorial classique à 100% Et pour ceux (pas très nombreux) qui se sont lancés dans la création de plugins, Spip 2.0 c'est le Nirvana
  6. Ce qu'à dit exactement Matt Cutts en VO sur Webmasterworld le 1er novembre (il faut vraiment qu'il y'ait eu un binn's pour que Matt Cutts reposte la bas, cela devient rare, très très rare même) "I don't consider those rankings indicative of anything coming in the future. Some data went into the index without all of our quality signals incorporated, and it should be mostly back to normal and continuing to get back to normal over the course of the day." A noter qu'il parle de "quality signals". Avec un s car il y'a plusieurs critères de qualité dans l'algorithme (le Trustrank en faisant partie). Ce n'était pas un test d'après lui, mais bien un bug. "nope, it wasn't a test." (plus clair c'est pas possible) Grâce à ces bêtises, j'ai des clients qui ont passé un très, très mauvais week end
  7. C'est officiel : Google n'aime pas la réécriture d'urls... J'ai toujours été étonné de voir que pour beaucoup, le SEO consistait principalement à écrire des mots clés dans des urls présentées comme jolies, ou "search engine friendly". Par exemple beaucoup de CMS, qui se vantent d'être optimisés pour le SEO, n'offrent en réalité qu'une solution pour avoir des urls "SEF". Mon discours a souvent détonné, étant par expérience circonspect sur l'intérêt des SEF. J'ai souvent dit par exemple : - que le poids des mots clés dans les urls était faible dans l'algo - que pas d'url rewriting était mieux à coup sûr qu'un mauvais url rewriting - qu'il valait mieux éviter de réécrire les urls si cela engendrait des redirections compliquées ou des urls "hiérarchiques" (genre /rub1/rub2/rub3/ficheproduit.html) J'ai eu l'occasion de rappeler encore ce point de vue "prudent" sur l'intérêt des SEF urls dans la présentation que j'ai faite pour mon agence au salon ecommerce. Mais là c'est Google qui le dit ! http://googlewebmastercentral.blogspot.com/2008/09/dynamic-urls-vs-static-urls.html (les esprits mal placés, après avoir lu l'article, constateront que le blog de google ne suit pas forcément ces recommandations LOL) "Does that mean I should avoid rewriting dynamic URLs at all? That's our recommendation, unless your rewrites are limited to removing unnecessary parameters, or you are very diligent in removing all parameters that could cause problems. If you transform your dynamic URL to make it look static you should be aware that we might not be able to interpret the information correctly in all cases." A la lecture de l'article, on comprend que l'url rewriting gêne surtout Google pour crawler de manière "astucieuse" les sites. Mais est-ce que cela signifie que le "mot clé dans l'url" n'a plus de poids ? Trois hypothèses : 1. Il en a toujours. Mais Google n'en a cure, le problème du crawl est devenu plus important. 2. Il en a moins. Google juge que les mots clés dans l'url ne l'aident pas à déterminer si une page est une réponse pertinente à une requête. Dans ce cas, il peut privilégier le crawl. 3. Il en a toujours, mais Google veut que l'on distingue plus facilement les urls statiques et dynamiques, pour que les mots clés comptent dans les urls statiques et disparaissent des autres. En tout cas, on pourra noter que Google trouve les urls "SEF" plus du tout "friendly". Il va falloir les rebaptiser SEU "search engine unfriendly" lol
  8. Décidément, ils s'emmêlent grave les pinceaux chez Google AdSense. Le summum, c'est leur erreur sur le cours de la roupie (la monnaie qui a cours en Inde). Elle date du 23 septembre. Ils sont passés de 1 dollars contre 46,555 roupies, à la parité : 1$ contre 1roupie. Je connais quelques editeurs indiens qui n'ont pas trouvé drôle de voir leurs revenus divisés par 46 ! A moins que... Oh non, je sais que l'économie américaine va mal, mais à ce point
  9. La question que tu poses est compliquée. Je te dis ce que je crois savoir sans être un juriste international (même pas national d'ailleurs) L'industrie pornographique est illégale dans la plupart des états US. Par un paradoxe dont nos amis américains ont parfois le secret, la diffusion de contenu pornographique par le biais de sites internet est par contre rendu possible par le 1er amendement au nom de la "liberté d'expression". Bref le disclaimer n'est pas obligatoire la bas. Mais le vent tourne véritablement : plusieurs textes sont récemment passés, qui rapprochent leur législation de la nôtre : « Communication Decency Act » (CDA) partiellement invalidé par la Cour suprême dans une décision du 26 juin 1997 (Reno vs American Civil Liberties Union) « Child Online Protection Act » (COPA) partiellement invalidé par une décision du 30 juin 2004 (Ashcroft vs American Civil Liberties Union) En dépit de cela, la législation se durcit progressivement là bas. Logique dans un pays où plusieurs états sont très puritains. Et aujourd'hui la loi dit blanc, et les tribunaux disent noir.
  10. J'ai déjà eu l'occasion de monter un site de communauté à l'aide de Boonex il y'a un an, mais je ne le gère plus, donc mes infos datent un peu. Je pense que tu parles de l'application Dolphin de Boonex. Boonex propose aussi de développer des applis pro "sur mesure", mais évidemment c'est beaucoup plus cher. Le script Dolphin s'installe sur ton serveur. Il n'y a rien qui tourne sur les serveurs de Boonex. Les prérequis sont très précis, il vaut mieux donc disposer d'un serveur dédié pour faire tourner l'ensemble des fonctionnalités (sinon tu ne pourras pas paramétrer le serveur comme demandé). Comme c'est toi qui héberge les contenus, il est clair qu'il faut un serveur dimensionné en fonction de la taille de ta communauté et des types de ressources (images, videos) qu'ils hébergent. Ne pas oublier aussi de dimensionner correctement la bande passante. Par ailleurs, oui, la licence est payante. Et j'ai trouvé le rapport qualité prix très correct. Même si à l'époque j'ai dû corriger pas mal de bogues moi même et dû batailler avec un support indigent. La localisation est imparfaite par exemple, et adapter le script à des besoins particuliers demande pas mal de travail. Je pense néanmoins qu'il faut maîtriser la langue de Shakespeare si tu souhaites utiliser ce script, je te garantis que tu en auras besoin. Et il faut un bon niveau technique et en php pour tirer tout le parti du logiciel.
  11. Arlette>On peut définir en trois phrases ce que fait un référenceur (cf la fiche métier de l'APEC rédigée par le SEOCamp par exemple). Quand à identifier les bons des mauvais : hélas, contrairement aux comptables, le métier n'est ni contrôlé, ni normalisé, et il n'y a pas de diplômes de référenceurs. La situation ressemble un peu à la situation des agents immobiliers avant la loi Hoguet : la mauvaise réputation des agences immobilières date d'avant 1970, et ils ont bien du mal à se "refaire la cerise" sur ce plan depuis. Donc le problème c'est de reconnaître les bons des mauvais, surtout lorsque l'on est un client non averti. Je prédis simplement qu'avec une éducation progressive des clients, et des actions de la part des agences et des référenceurs eux-mêmes, le tri se fera plus facilement pour les clients entre les zozos, les charlatans et les vrais professionnels. Mais il faudra quelques années encore. Qui plus est le marché va mûrir : l'écart va s'accroître en terme de taille et de moyens entre les principales agences de référence et les petites agences isolées. Il y'aura des morts (malheur aux suiveurs et à ceux qui seront juste bons et non excellents). Cébé>Même tester le référencement des sites de référenceurs ne marche pas : être premier sur la requête "référencement" est une priorité pour les agences ou les référenceurs qui n'ont pas assez de clients, donc je me méfierai de ce critère. En ce qui concerne mon agence, on a des consignes internes claires pour ne pas s'en occuper. Objectif : éviter d'attirer trop de "petits" clients, notre clientèle étant constituée de gros sites qui choisissent leurs partenaires dans les références connues et non en cherchant dans Google. Quant à tes critiques sur le côté "pognon" : Je suis d'accord avec ta remarque sur les prestations de référencement apportées par certaines agences de création de sites : le niveau des prestas est parfois scandaleux, et la ligne budgétaire "réf" est quelquefois là juste pour augmenter l'addition. Mais heureusement ce n'est pas toujours vrai, et au quotidien je plaide pour que les agences de création web intègrent les contraintes de référencement dans leurs sites. Par contre, je ne te suis pas sur le côté "anormal" du coût de ces prestations. Je vois au quotidien ce que l'on apporte à nos clients. Les résultats obtenus par le référencement constituent un levier très puissant pour accroître l'audience qualifiée des clients, qui grâce à cela gagnent beaucoup plus d'argent, ou prennent des parts de marché. Historiquement, les emplois que notre travail a permis indirectement de créer se comptent par centaines. J'ai même un dossier sur lequel nous intervenons ces jours ci où notre travail risque de décider de l'avenir même d'un gros site d'e-commerce, actuellement en difficulté. Bref, tout cela vaut de l'or en toute rationalité économique. Evidemment, à condition d'être capable d'avoir des vrais résultats et non d'escroquer les clients
  12. Une observation très juste popov ! Ce phénomène de yoyo sur des requêtes concurrentielles est apparu au printemps 2008. Les datacenters semblent à chaque fois alignés, mais les classements changent régulièrement, parfois plusieurs fois par jour. Les hypothèses pour l'expliquer sont multiples, mais les plus fréquemment avancées sont : - un filtre bogué - un bogue ou un effet de bord du système qui gère la recherche universelle. - un effet créé volontairement par Google pour tester ses algorithmes - un effet créé volontairement par Google pour faire tourner les sites présents sur la première page Bref on se perd en conjectures...
  13. Cinq ans déjà ! J'ai l'impression que cela a débuté hier... Il faut dire que ces cinq ans ont été riches en rencontres, en péripéties, en satisfactions, en moments de crise, de franche rigolade... Bref cinq ans très animés, pleins de vie et très enrichissants. Merci le Hub et toute l'équipe derrière pour avoir réussi à créer un lieu à la fois convivial et utile ! Bon anniversaire, le Hub
  14. Il existe quelques tutoriels sur le net pour les versions 4.x et 5.x C'est assez bien expliqué dans la doc de version 6 Un exemple de tutoriel en français. -http://drupalfrance.com/node/172
  15. Ne pas dater les articles : il suffit de ne pas afficher la balise qui indique la date dans les templates. Pour les url "ressemblantes" : pour info, avec les urls, c'est soit noir, soit blanc, jamais gris. Une url qui diffère d'une autre pour un caractère, voire même une majuscule ou un "/", c'est une url aussi différente aux yeux d'un moteur (au moins pour la partie qui suit le TLD) qu'une url composée de 100% de caractères différents. Donc il ne sert à rien de se contenter d'url ressemblantes : les url doivent rester identiques, 100% identiques. Ce qui dans ton cas risque d'être compliqué. Pour les 404 : il faut juste que tu vérifies que quand tu demande une page qui n'existe pas, elle renvoie bien un code "404" et pas "200" ou autre chose. Pas de blacklistage à craindre avec ce genre de modifs. Pour la sandbox c'est l'inverse : si tu fais tes modifications trop massivement et trop brutalement, tu risques cette fameuse "sandbox". L'idéal est de faire les modifs progressivement, étape par étape, en surveillant Googlebot (notamment en observant le contenu des infos données par les webmaster tools). Un outil comme Spywords peut également être utile si tu ne sais pas exploiter tes fichiers de logs pour voir comment Googlebot se comporte sur ton site.
  16. Tiens, je constate aussi qu'ils ont perdu un "L" au moment du lancement. Le moteur, qui devait au départ s'appeler "Cuill" s'appelle finalement "Cuil". Par curiosité, j'aimerai bien savoir ce qui se cache derrière ce changement subtil d'orthographe.
  17. Tous les CMS t'obligeraient à modifier de manière importante ton contenu. SPIP a l'avantage de te permettre de garder un code html très proche, voire quasi identique à tes pages d'origine. Donc ce n'est sans doute pas un mauvais choix. Le principal problème pour le référencement sera le changement des urls. Et tu as trois stratégies à ta disposition pour en venir à bout. Tu peux décider d'utiliser à 100% le fonctionnement habituel de spip, en utilisant le minimum de squelettes. Dans ce cas, tu devras : - définir des règles de réécriture pour que tes appels à tes anciennes pages html renvoient vers un script php - le script php doit renvoyer vers la bonne url (la nouvelle) avec une redirection 301 Pas forcément très simple si tu n'utilisais pas des conventions de nommage logiques. C'est aussi une solution assez "technique". Tu peux décider de garder quelques pages en html (notamment celles définissant le haut de ton arborescence) et de changer tes liens vers les urls de spip pour les pages plus profondes. Avec un sitemap et des pages 404 bien paramétrées, tu récupéreras ton référencement assez vite. Mais c'est un handicap de ne pas pouvoir gérer tout le contenu avec SPIP. Tu peux aussi créer des pages "uniques" avec un squelette spécifique à chaque fois pour "copier" ton ancien site, avec une séparation correcte code/contenu gérée par SPIP. Mais cela veut dire gérer un grand nombre de squelettes pas forcément très utiles. Et il faut là aussi bien maîtriser l'url rewriting. Quant à la conversion du contenu : la meilleure méthode est sans doute l'huile de coude. Si ton code html a été rédigé "à la main", il y'a de fortes chances qu'un programme ne te permettra pas une conversion correcte. Mais le jeu en vaut la chandelle : gérer plusieurs centaines de pages, c'est quand même plus facile avec un CMS.
  18. En tombant sur diverses infos sur un moteur de recherche préparé par une startup composé d'anciens Googlers (ceux qu'on appelle les X-Googlers ou les Xooglers, qui commencent à constituer un gros club), j'avais pondu un article présentant ce moteur : Cuill. Cuill veut surpasser Google grâce à lanalyse de données sémantiques Cuill est sorti du mode stealth: vous pouvez le tester. http://www.cuill.com Premières impressions : des réponses obtenues rapidement, une interface innovante, et une manière de classer les résultats différentes de google. Côté pertinence : au premier abord c'est surtout déroutant. Il va falloir attendre un peu pour pouvoir tirer des conclusions. Ils annoncent 121 617 892 992 pages dans l'index. C'est beaucoup lol. 121 milliards de pages, c'est de l'ordre de grandeur de ce que l'on trouve comme pages uniques sur le www. La taille de l'index semble être pourtant beaucoup, beaucoup plus réduite que celle des autres moteurs (yahoo, live, google) si on en juge certains chiffres donnés en nb de réponses à une requête. Maintenant, l'important c'est d'avoir les bonnes pages dans l'index, et de classer les pages pertinentes en premiers, pas d'avoir plus de réponses que le voisin. Mais il est possible qu'il y'ait justement un "truc" car si on cherche à coller le moteur avec des requêtes compliquées, il trouve quand même des pages. Ce moteur aurait il (ou veut il faire croire qu'il a) une meilleure "précision", selon le terme consacré ? Ce que j'ai pu constater, c'est que le moteur semble optimisé pour une seule langue (l'anglais) et un seul pays (US). Le moteur semble avoir quelques problèmes avec les entités html et les accents (ce qui est un problème que tous les nouveaux moteurs ont, ceci dit c'est quand même inquiétant que d'aussi bons connaisseurs des moteurs n'aient pas su régler des problèmes aussi classiques?
  19. Oui, c'est vrai qu'il y'a quand même de sérieuses différences d'approche entre les référenceurs professionnels. Heureusement d'ailleurs, parce que sinon comment expliquer que certains proposent des prestations à 3000 euros, et d'autres à 300 000 euros... La réalité c'est que tout le monde n'exerce pas tout à fait le même métier. A quand le guide : bien choisir son référenceur ? Je pense que ce qu'il faut surtout, c'est un guide pour les clients : comment améliorer son référencement en utilisant les services d'un pro. Si on écoute les référenceurs pro (et j'en écoute de très nombreux au sein de l'association SEO Camp), il existe un grand nombre de clients qui pensent que les référenceurs sont magiciens, et peuvent "marabouter" leur site par quelques passes magnétiques, sans avoir à travailler de leur côté. C'est évidemment faux. Si je dois entamer une petite liste de ce que les clients font pour ruiner les efforts du référenceur, voila ce que cela donne : - laisser le référenceur optimiser un site, puis changer complètement de version (sans le consulter bien sûr) - changer d'urls tout le temps (surtout ne pas consulter le référenceur) - changer de contenu tout le temps (surtout ne pas consulter le référenceur) - ajouter des liens de manière sauvage sur son site (surtout ne pas consulter le référenceur) - changer de nom de domaine ? - ne jamais suivre les guidelines fournies par les référenceurs (trop de boulot... pfff) - faire son marché dans les préconisations données par le référenceur (ça c'est facile : je le fais. Ca c'est pénible : je laisse tomber) - ne pas laisser le temps au référenceur pour obtenir des résultats - ne pas se laisser accompagner par le référenceur dans une phase de migration - lui demander de travailler sur le linking, en lui demandant de ne rien faire sur pratiquement tous les domaines de partenariat possible, en sachant que le client ne fait rien de son côté - avoir un applicatif pourri, et ne rien faire pour améliorer les temps de réponse, les pages en erreur, etc... - ... Pas facile d'avoir des résultats derrière cela. Souvent le travail de référenceur consiste d'abord à apprendre au client à gérer correctement l'évolution d'un projet internet. Ensuite on peut réellement travailler le réf.
  20. C'est bien ce que dit Matt Cutts pour tarir les sources de pagerank. Ceux qui sont prêts à distribuer du pagerank étant moins nombreux par construction que ceux prêts à en acheter, c'est plus malin de faire peur aux premiers. Dans la pratique, Google s'attaque aux deux. Toute manipulation du pagerank est interdite par les "Terms of Services" (TOS), ce qui leur permet de taper sur tous les acteurs concernés. J'ai observé depuis un an plusieurs formes de pénalités affectant les "acheteurs" ou les "bénéficiaires" (Google tape parfois sur des sites qui n'ont pas acheté du tout ces liens, obtenus grâce à du copinage, ou des partenariats). La moindre d'entre elles étant la disparition du PR des pages destinataires de ces liens, comme si ces liens ne convoyaient plus de PR. La plupart de ces pénalités semblaient être automatiques, pour d'autres, c'est sujet à quelques questionnements.
  21. Oui bien sûr, mais attention, les deux ne sont pas strictement équivalents... Une balise nofollow dans un lien n'empêchera pas le crawl. Il faut que tu ajoutes noindex dans le META NAME="ROBOTS", sinon ta page peut être crawlée. Ce qui ne sera pas le cas avec un disallow affectant cette page dans le robots.txt On oublie souvent que google peut connaitre des urls par des moyens détournés. On trouve ainsi des pages dans google avec juste l'url indexée : la page est connue, mais ne peut pas être crawlée à cause d'un problème technique (et par exemple un disallow dans le robots.txt)
  22. >Julien-br Tu as sans doute raison de faire ce distinguo sémantique. Mais si on considère les guidelines de Matt Cutts, ce que tu présentes ne change pas grand chose au problème : il s'agit d'un lien commercial, qui doit donc être "nofollowisé" ou géré par une redirection vers une page bloquée par le robots.txt >Théo B >Regis Effectivement, l'achat de liens (seul) ne conduit pas au blacklistage, mais à une chute du PR (au moins celui visible dans la toolbar). Mais si vous cumulez ce problème avec d'autres qui rendent votre site suspect aux yeux de Google, il y'a de fortes chances que vous finissiez aussi par subir l'une des nombreuses pénalités inventées par Google.
  23. J'ajouterai qu'en règle générale, l'ajout d'un tag cloud n'améliore pas du tout le référencement de manière mécanique. Tout dépend comment les liens de ce tag cloud sont calculés, sur quelles pages ce tag cloud figure, etc... En général, quand je vois des gens ajouter un tag cloud pour le référencement, ce que j'observe c'est surtout des cas dans lequel le référenceur se tire une balle dans le pied. C'est quelque chose à utiliser avec discernement.
  24. Ces félicitations me vont droit au coeur. J'ai été un peu surpris moi-même (sans fausse modestie) d'avoir été cité en aussi bonne compagnie dans cet article. Mais je pense que mon statut de président de l'association SEO Camp y est pour beaucoup.
  25. Oula oui ! Si c'est normal, c'est qu'il y'a un bug dans le cerveau des pti' gars de Google. Tu l'as fait remonter à Dublin Dan ?
×
×
  • Créer...