Aller au contenu

Cariboo

Membre+
  • Compteur de contenus

    3 376
  • Inscrit(e) le

  • Dernière visite

Messages postés par Cariboo

  1. Il n'y a pas vraiment de risque à utiliser ce script à ma connaissance.

    Utiliser SWFObject est pour moi l'une des meilleures solutions pour créer des sites universellement crawlables, même pour des moteurs qui ne lisent pas le javascript ou le flash. Cela apporte une grande souplesse.

    Mais il faut penser à créer une version "sans flash" et "sans javascript" (une version dégradée) qui ressemble à quelque chose et qui ne fasse pas "cloaking".

  2. Un référenceur pro qui prendrait des engagements sur des chiffres précis serait évidemment, soit inconscient, soit (trop) guidé par la volonté de gagner le contrat.

    Par contre, il est assez normal je trouve que le client veuille évaluer le risque financier qu'il prend, et veuille même le minimiser.

    C'est pourquoi j'essaie, en règle général de fonctionner en donnant une fourchette : le gain maximal en terme de trafic, le gain minimal que l'on peut atteindre en cas de difficulté ou de mauvaises surprises et le gain "probable".

    Le bas de la fourchette permet d'évaluer le risque. Et le gain probable de définir un objectif que l'on cherche à obtenir (sur le plan opérationnel c'est mieux).

    Et en faisant comme cela, on se plante rarement (il y'a parfois un décalage dans le temps : genre résultats obtenu au bout de 12 mois et non de 9)

    Mais ça demande pas mal d'expérience, et d'avoir beaucoup d'information sur le site et la structure qui le porte pour évaluer le potentiel. Quand on sait ce que l'on fait, la principale variable que l'on ne maîtrise pas, c'est l'implication du client, ses moyens, sa réactivité, son sérieux, qui conditionnent l'implémentation des préconisations et donc l'obtention des résultats.

    Et j'ai déjà observé ce phénomène : comme en psychanalyse, plus le client paie cher, et risque gros, plus il applique vite et correctement les préconisations, et plus il a de résultats. Quand le client ne prend pas de risques (genre contrat 100% variable), il s'en fout, fait ce qu'il veut, n'applique que ce qui l'arrange, et les résultats ne sont pas là.

    Sur le côté factuel : en général, le référencement est trop complexe pour que l'on puisse être trop précis dans les effets obtenus. Tout simplement parce qu'au stade où le devis est fourni, on ne sait pas assez de choses sur le site et son environnement pour identifier tous les leviers sur lesquels on va pouvoir jouer, et a fortiori sur leurs effets réels.

    Par contre, on peut faire des raisonnements statistiques du style "à vue de nez, les problèmes sont là et là, en jouant dessus, on devrait avoir un gain de tant là, de tant ici, et en comptant un taux X de déchet, globalement, cela donne entre tant et tant".

  3. En fait, la bonne nouvelle avec SPIP 2.0, c'est qu'ils ont refait tout le moteur, mais le volant, les pédales et le levier de vitesse sont à la même place. La compatibilité ascendante est excellente et pas trop de problèmes pour retrouver ses petits après une migration.

    Certains seront même peut-être déçus du manque de fonctionnalités révolutionnaires "visibles".

    En fait la révolution c'est dans l'ouverture de l'outil, dans la possibilité de développer des plugins sophistiqués, et dans l'architecture générale qui permet enfin d'espérer que l'outil pourra être utilisé dans des applications plus diverses que les sites avec un contenu éditorial classique à 100%

    Et pour ceux (pas très nombreux) qui se sont lancés dans la création de plugins, Spip 2.0 c'est le Nirvana

  4. Ce qu'à dit exactement Matt Cutts en VO sur Webmasterworld le 1er novembre (il faut vraiment qu'il y'ait eu un binn's pour que Matt Cutts reposte la bas, cela devient rare, très très rare même)

    "I don't consider those rankings indicative of anything coming in the future. Some data went into the index without all of our quality signals incorporated, and it should be mostly back to normal and continuing to get back to normal over the course of the day."

    A noter qu'il parle de "quality signals". Avec un s car il y'a plusieurs critères de qualité dans l'algorithme (le Trustrank en faisant partie).

    Ce n'était pas un test d'après lui, mais bien un bug.

    "nope, it wasn't a test." (plus clair c'est pas possible)

    Grâce à ces bêtises, j'ai des clients qui ont passé un très, très mauvais week end :wacko:

  5. C'est officiel : Google n'aime pas la réécriture d'urls...

    J'ai toujours été étonné de voir que pour beaucoup, le SEO consistait principalement à écrire des mots clés dans des urls présentées comme jolies, ou "search engine friendly". Par exemple beaucoup de CMS, qui se vantent d'être optimisés pour le SEO, n'offrent en réalité qu'une solution pour avoir des urls "SEF".

    Mon discours a souvent détonné, étant par expérience circonspect sur l'intérêt des SEF.

    J'ai souvent dit par exemple :

    - que le poids des mots clés dans les urls était faible dans l'algo

    - que pas d'url rewriting était mieux à coup sûr qu'un mauvais url rewriting

    - qu'il valait mieux éviter de réécrire les urls si cela engendrait des redirections compliquées ou des urls "hiérarchiques" (genre /rub1/rub2/rub3/ficheproduit.html)

    J'ai eu l'occasion de rappeler encore ce point de vue "prudent" sur l'intérêt des SEF urls dans la présentation que j'ai faite pour mon agence au salon ecommerce.

    Mais là c'est Google qui le dit !

    http://googlewebmastercentral.blogspot.com/2008/09/dynamic-urls-vs-static-urls.html

    (les esprits mal placés, après avoir lu l'article, constateront que le blog de google ne suit pas forcément ces recommandations LOL)

    "Does that mean I should avoid rewriting dynamic URLs at all?

    That's our recommendation, unless your rewrites are limited to removing unnecessary parameters, or you are very diligent in removing all parameters that could cause problems. If you transform your dynamic URL to make it look static you should be aware that we might not be able to interpret the information correctly in all cases."

    A la lecture de l'article, on comprend que l'url rewriting gêne surtout Google pour crawler de manière "astucieuse" les sites.

    Mais est-ce que cela signifie que le "mot clé dans l'url" n'a plus de poids ? :?:

    Trois hypothèses :

    1. Il en a toujours. Mais Google n'en a cure, le problème du crawl est devenu plus important.

    2. Il en a moins. Google juge que les mots clés dans l'url ne l'aident pas à déterminer si une page est une réponse pertinente à une requête. Dans ce cas, il peut privilégier le crawl.

    3. Il en a toujours, mais Google veut que l'on distingue plus facilement les urls statiques et dynamiques, pour que les mots clés comptent dans les urls statiques et disparaissent des autres.

    En tout cas, on pourra noter que Google trouve les urls "SEF" plus du tout "friendly". ;)

    Il va falloir les rebaptiser SEU "search engine unfriendly" lol

  6. Décidément, ils s'emmêlent grave les pinceaux chez Google AdSense.

    Le summum, c'est leur erreur sur le cours de la roupie (la monnaie qui a cours en Inde). Elle date du 23 septembre.

    Ils sont passés de 1 dollars contre 46,555 roupies, à la parité : 1$ contre 1roupie. Je connais quelques editeurs indiens qui n'ont pas trouvé drôle de voir leurs revenus divisés par 46 ! :nonono:

    A moins que...

    Oh non, je sais que l'économie américaine va mal, mais à ce point :hypocrite:

  7. La question que tu poses est compliquée.

    Je te dis ce que je crois savoir sans être un juriste international (même pas national d'ailleurs)

    L'industrie pornographique est illégale dans la plupart des états US.

    Par un paradoxe dont nos amis américains ont parfois le secret, la diffusion de contenu pornographique par le biais de sites internet est par contre rendu possible par le 1er amendement au nom de la "liberté d'expression". Bref le disclaimer n'est pas obligatoire la bas.

    Mais le vent tourne véritablement : plusieurs textes sont récemment passés, qui rapprochent leur législation de la nôtre :

    « Communication Decency Act » (CDA) partiellement invalidé par la Cour suprême dans une décision du 26 juin 1997 (Reno vs American Civil Liberties Union)

    « Child Online Protection Act » (COPA) partiellement invalidé par une décision du 30 juin 2004 (Ashcroft vs American Civil Liberties Union)

    En dépit de cela, la législation se durcit progressivement là bas. Logique dans un pays où plusieurs états sont très puritains.

    Et aujourd'hui la loi dit blanc, et les tribunaux disent noir.

  8. J'ai déjà eu l'occasion de monter un site de communauté à l'aide de Boonex il y'a un an, mais je ne le gère plus, donc mes infos datent un peu.

    Je pense que tu parles de l'application Dolphin de Boonex. Boonex propose aussi de développer des applis pro "sur mesure", mais évidemment c'est beaucoup plus cher.

    Le script Dolphin s'installe sur ton serveur. Il n'y a rien qui tourne sur les serveurs de Boonex. Les prérequis sont très précis, il vaut mieux donc disposer d'un serveur dédié pour faire tourner l'ensemble des fonctionnalités (sinon tu ne pourras pas paramétrer le serveur comme demandé).

    Comme c'est toi qui héberge les contenus, il est clair qu'il faut un serveur dimensionné en fonction de la taille de ta communauté et des types de ressources (images, videos) qu'ils hébergent. Ne pas oublier aussi de dimensionner correctement la bande passante.

    Par ailleurs, oui, la licence est payante. Et j'ai trouvé le rapport qualité prix très correct. Même si à l'époque j'ai dû corriger pas mal de bogues moi même et dû batailler avec un support indigent. La localisation est imparfaite par exemple, et adapter le script à des besoins particuliers demande pas mal de travail.

    Je pense néanmoins qu'il faut maîtriser la langue de Shakespeare si tu souhaites utiliser ce script, je te garantis que tu en auras besoin. Et il faut un bon niveau technique et en php pour tirer tout le parti du logiciel.

  9. Arlette>On peut définir en trois phrases ce que fait un référenceur (cf la fiche métier de l'APEC rédigée par le SEOCamp par exemple).

    Quand à identifier les bons des mauvais : hélas, contrairement aux comptables, le métier n'est ni contrôlé, ni normalisé, et il n'y a pas de diplômes de référenceurs. La situation ressemble un peu à la situation des agents immobiliers avant la loi Hoguet : la mauvaise réputation des agences immobilières date d'avant 1970, et ils ont bien du mal à se "refaire la cerise" sur ce plan depuis.

    Donc le problème c'est de reconnaître les bons des mauvais, surtout lorsque l'on est un client non averti.

    Je prédis simplement qu'avec une éducation progressive des clients, et des actions de la part des agences et des référenceurs eux-mêmes, le tri se fera plus facilement pour les clients entre les zozos, les charlatans et les vrais professionnels. Mais il faudra quelques années encore.

    Qui plus est le marché va mûrir : l'écart va s'accroître en terme de taille et de moyens entre les principales agences de référence et les petites agences isolées. Il y'aura des morts (malheur aux suiveurs et à ceux qui seront juste bons et non excellents).

    Cébé>Même tester le référencement des sites de référenceurs ne marche pas : être premier sur la requête "référencement" est une priorité pour les agences ou les référenceurs qui n'ont pas assez de clients, donc je me méfierai de ce critère. En ce qui concerne mon agence, on a des consignes internes claires pour ne pas s'en occuper. Objectif : éviter d'attirer trop de "petits" clients, notre clientèle étant constituée de gros sites qui choisissent leurs partenaires dans les références connues et non en cherchant dans Google.

    Quant à tes critiques sur le côté "pognon" :

    Je suis d'accord avec ta remarque sur les prestations de référencement apportées par certaines agences de création de sites : le niveau des prestas est parfois scandaleux, et la ligne budgétaire "réf" est quelquefois là juste pour augmenter l'addition. Mais heureusement ce n'est pas toujours vrai, et au quotidien je plaide pour que les agences de création web intègrent les contraintes de référencement dans leurs sites.

    Par contre, je ne te suis pas sur le côté "anormal" du coût de ces prestations. Je vois au quotidien ce que l'on apporte à nos clients. Les résultats obtenus par le référencement constituent un levier très puissant pour accroître l'audience qualifiée des clients, qui grâce à cela gagnent beaucoup plus d'argent, ou prennent des parts de marché. Historiquement, les emplois que notre travail a permis indirectement de créer se comptent par centaines.

    J'ai même un dossier sur lequel nous intervenons ces jours ci où notre travail risque de décider de l'avenir même d'un gros site d'e-commerce, actuellement en difficulté.

    Bref, tout cela vaut de l'or en toute rationalité économique.

    Evidemment, à condition d'être capable d'avoir des vrais résultats et non d'escroquer les clients ;)

  10. Une observation très juste popov !

    Ce phénomène de yoyo sur des requêtes concurrentielles est apparu au printemps 2008.

    Les datacenters semblent à chaque fois alignés, mais les classements changent régulièrement, parfois plusieurs fois par jour.

    Les hypothèses pour l'expliquer sont multiples, mais les plus fréquemment avancées sont :

    - un filtre bogué

    - un bogue ou un effet de bord du système qui gère la recherche universelle.

    - un effet créé volontairement par Google pour tester ses algorithmes

    - un effet créé volontairement par Google pour faire tourner les sites présents sur la première page

    Bref on se perd en conjectures... :unsure:

  11. Cinq ans déjà ! J'ai l'impression que cela a débuté hier...

    Il faut dire que ces cinq ans ont été riches en rencontres, en péripéties, en satisfactions, en moments de crise, de franche rigolade... Bref cinq ans très animés, pleins de vie et très enrichissants.

    Merci le Hub et toute l'équipe derrière pour avoir réussi à créer un lieu à la fois convivial et utile !

    Bon anniversaire, le Hub :thumbup:

  12. Ne pas dater les articles : il suffit de ne pas afficher la balise qui indique la date dans les templates.

    Pour les url "ressemblantes" : pour info, avec les urls, c'est soit noir, soit blanc, jamais gris. Une url qui diffère d'une autre pour un caractère, voire même une majuscule ou un "/", c'est une url aussi différente aux yeux d'un moteur (au moins pour la partie qui suit le TLD) qu'une url composée de 100% de caractères différents.

    Donc il ne sert à rien de se contenter d'url ressemblantes : les url doivent rester identiques, 100% identiques. Ce qui dans ton cas risque d'être compliqué.

    Pour les 404 : il faut juste que tu vérifies que quand tu demande une page qui n'existe pas, elle renvoie bien un code "404" et pas "200" ou autre chose.

    Pas de blacklistage à craindre avec ce genre de modifs.

    Pour la sandbox c'est l'inverse : si tu fais tes modifications trop massivement et trop brutalement, tu risques cette fameuse "sandbox". L'idéal est de faire les modifs progressivement, étape par étape, en surveillant Googlebot (notamment en observant le contenu des infos données par les webmaster tools). Un outil comme Spywords peut également être utile si tu ne sais pas exploiter tes fichiers de logs pour voir comment Googlebot se comporte sur ton site.

  13. Tiens, je constate aussi qu'ils ont perdu un "L" au moment du lancement.

    Le moteur, qui devait au départ s'appeler "Cuill" s'appelle finalement "Cuil".

    Par curiosité, j'aimerai bien savoir ce qui se cache derrière ce changement subtil d'orthographe.

  14. Tous les CMS t'obligeraient à modifier de manière importante ton contenu. SPIP a l'avantage de te permettre de garder un code html très proche, voire quasi identique à tes pages d'origine. Donc ce n'est sans doute pas un mauvais choix.

    Le principal problème pour le référencement sera le changement des urls. Et tu as trois stratégies à ta disposition pour en venir à bout.

    Tu peux décider d'utiliser à 100% le fonctionnement habituel de spip, en utilisant le minimum de squelettes. Dans ce cas, tu devras :

    - définir des règles de réécriture pour que tes appels à tes anciennes pages html renvoient vers un script php

    - le script php doit renvoyer vers la bonne url (la nouvelle) avec une redirection 301

    Pas forcément très simple si tu n'utilisais pas des conventions de nommage logiques. C'est aussi une solution assez "technique".

    Tu peux décider de garder quelques pages en html (notamment celles définissant le haut de ton arborescence) et de changer tes liens vers les urls de spip pour les pages plus profondes. Avec un sitemap et des pages 404 bien paramétrées, tu récupéreras ton référencement assez vite. Mais c'est un handicap de ne pas pouvoir gérer tout le contenu avec SPIP.

    Tu peux aussi créer des pages "uniques" avec un squelette spécifique à chaque fois pour "copier" ton ancien site, avec une séparation correcte code/contenu gérée par SPIP. Mais cela veut dire gérer un grand nombre de squelettes pas forcément très utiles. Et il faut là aussi bien maîtriser l'url rewriting.

    Quant à la conversion du contenu : la meilleure méthode est sans doute l'huile de coude. Si ton code html a été rédigé "à la main", il y'a de fortes chances qu'un programme ne te permettra pas une conversion correcte. Mais le jeu en vaut la chandelle : gérer plusieurs centaines de pages, c'est quand même plus facile avec un CMS.

  15. En tombant sur diverses infos sur un moteur de recherche préparé par une startup composé d'anciens Googlers (ceux qu'on appelle les X-Googlers ou les Xooglers, qui commencent à constituer un gros club), j'avais pondu un article présentant ce moteur : Cuill.

    Cuill veut surpasser Google grâce à lanalyse de données sémantiques

    Cuill est sorti du mode stealth: vous pouvez le tester.

    http://www.cuill.com

    Premières impressions : des réponses obtenues rapidement, une interface innovante, et une manière de classer les résultats différentes de google.

    Côté pertinence : au premier abord c'est surtout déroutant. Il va falloir attendre un peu pour pouvoir tirer des conclusions.

    Ils annoncent 121 617 892 992 pages dans l'index. C'est beaucoup lol. 121 milliards de pages, c'est de l'ordre de grandeur de ce que l'on trouve comme pages uniques sur le www.

    La taille de l'index semble être pourtant beaucoup, beaucoup plus réduite que celle des autres moteurs (yahoo, live, google) si on en juge certains chiffres donnés en nb de réponses à une requête. Maintenant, l'important c'est d'avoir les bonnes pages dans l'index, et de classer les pages pertinentes en premiers, pas d'avoir plus de réponses que le voisin. Mais il est possible qu'il y'ait justement un "truc" car si on cherche à coller le moteur avec des requêtes compliquées, il trouve quand même des pages. Ce moteur aurait il (ou veut il faire croire qu'il a) une meilleure "précision", selon le terme consacré ?

    Ce que j'ai pu constater, c'est que le moteur semble optimisé pour une seule langue (l'anglais) et un seul pays (US). Le moteur semble avoir quelques problèmes avec les entités html et les accents (ce qui est un problème que tous les nouveaux moteurs ont, ceci dit c'est quand même inquiétant que d'aussi bons connaisseurs des moteurs n'aient pas su régler des problèmes aussi classiques?

  16. Si je ne me trompe pas, Cariboo en connaît aussi un certain rayon.

    Les prestataires sont nombreux et il est difficile de s'y retrouver.

    Je crois que le plus dur est de trouver des éléments de comparaison entre les référenceurs.

    A quand le guide : bien choisir son référenceur ?

    Oui, c'est vrai qu'il y'a quand même de sérieuses différences d'approche entre les référenceurs professionnels.

    Heureusement d'ailleurs, parce que sinon comment expliquer que certains proposent des prestations à 3000 euros, et d'autres à 300 000 euros... La réalité c'est que tout le monde n'exerce pas tout à fait le même métier.

    A quand le guide : bien choisir son référenceur ? Je pense que ce qu'il faut surtout, c'est un guide pour les clients : comment améliorer son référencement en utilisant les services d'un pro.

    Si on écoute les référenceurs pro (et j'en écoute de très nombreux au sein de l'association SEO Camp), il existe un grand nombre de clients qui pensent que les référenceurs sont magiciens, et peuvent "marabouter" leur site par quelques passes magnétiques, sans avoir à travailler de leur côté. C'est évidemment faux.

    Si je dois entamer une petite liste de ce que les clients font pour ruiner les efforts du référenceur, voila ce que cela donne :

    - laisser le référenceur optimiser un site, puis changer complètement de version (sans le consulter bien sûr)

    - changer d'urls tout le temps (surtout ne pas consulter le référenceur)

    - changer de contenu tout le temps (surtout ne pas consulter le référenceur)

    - ajouter des liens de manière sauvage sur son site (surtout ne pas consulter le référenceur)

    - changer de nom de domaine ?

    - ne jamais suivre les guidelines fournies par les référenceurs (trop de boulot... pfff)

    - faire son marché dans les préconisations données par le référenceur (ça c'est facile : je le fais. Ca c'est pénible : je laisse tomber)

    - ne pas laisser le temps au référenceur pour obtenir des résultats

    - ne pas se laisser accompagner par le référenceur dans une phase de migration

    - lui demander de travailler sur le linking, en lui demandant de ne rien faire sur pratiquement tous les domaines de partenariat possible, en sachant que le client ne fait rien de son côté

    - avoir un applicatif pourri, et ne rien faire pour améliorer les temps de réponse, les pages en erreur, etc...

    - ...

    Pas facile d'avoir des résultats derrière cela.

    Souvent le travail de référenceur consiste d'abord à apprendre au client à gérer correctement l'évolution d'un projet internet. Ensuite on peut réellement travailler le réf.

  17. C'est bien ce que dit Matt Cutts pour tarir les sources de pagerank. Ceux qui sont prêts à distribuer du pagerank étant moins nombreux par construction que ceux prêts à en acheter, c'est plus malin de faire peur aux premiers.

    Dans la pratique, Google s'attaque aux deux. Toute manipulation du pagerank est interdite par les "Terms of Services" (TOS), ce qui leur permet de taper sur tous les acteurs concernés. J'ai observé depuis un an plusieurs formes de pénalités affectant les "acheteurs" ou les "bénéficiaires" (Google tape parfois sur des sites qui n'ont pas acheté du tout ces liens, obtenus grâce à du copinage, ou des partenariats). La moindre d'entre elles étant la disparition du PR des pages destinataires de ces liens, comme si ces liens ne convoyaient plus de PR. La plupart de ces pénalités semblaient être automatiques, pour d'autres, c'est sujet à quelques questionnements.

  18. Oui bien sûr, mais attention, les deux ne sont pas strictement équivalents...

    Une balise nofollow dans un lien n'empêchera pas le crawl. Il faut que tu ajoutes noindex dans le META NAME="ROBOTS", sinon ta page peut être crawlée. Ce qui ne sera pas le cas avec un disallow affectant cette page dans le robots.txt

    On oublie souvent que google peut connaitre des urls par des moyens détournés. On trouve ainsi des pages dans google avec juste l'url indexée : la page est connue, mais ne peut pas être crawlée à cause d'un problème technique (et par exemple un disallow dans le robots.txt)

  19. >Julien-br

    Tu as sans doute raison de faire ce distinguo sémantique. Mais si on considère les guidelines de Matt Cutts, ce que tu présentes ne change pas grand chose au problème : il s'agit d'un lien commercial, qui doit donc être "nofollowisé" ou géré par une redirection vers une page bloquée par le robots.txt

    >Théo B

    >Regis

    Effectivement, l'achat de liens (seul) ne conduit pas au blacklistage, mais à une chute du PR (au moins celui visible dans la toolbar). Mais si vous cumulez ce problème avec d'autres qui rendent votre site suspect aux yeux de Google, il y'a de fortes chances que vous finissiez aussi par subir l'une des nombreuses pénalités inventées par Google.

  20. J'ajouterai qu'en règle générale, l'ajout d'un tag cloud n'améliore pas du tout le référencement de manière mécanique. Tout dépend comment les liens de ce tag cloud sont calculés, sur quelles pages ce tag cloud figure, etc...

    En général, quand je vois des gens ajouter un tag cloud pour le référencement, ce que j'observe c'est surtout des cas dans lequel le référenceur se tire une balle dans le pied.

    C'est quelque chose à utiliser avec discernement.

  21. L'association SEO Camp (que j'ai l'honneur de présider) organise un apéro référencement à Paris le mardi 8 avril.

    Apero SEO Camp

    Mardi 8 avril de 19h00 à 21h00

    Café des Ternes 58, Avenue de Wagram 75017 Paris

    M° Ternes

    Le programme de lévènement :

    - on refait le monde des moteurs de recherche et du référencement

    - on discute des projets de lassociation, et des notamment des barcamps prévus au printemps

    - on fait des rencontres et on échange entre passionnés du SEO et des outils de recherche

    Cet apéro est ouvert à toutes les personnes intéressées par le référencement.

    Les membres du Hub sont bien sûr cordialement invités à cet évènement.

    L'entrée est libre, et limitée à 50 personnes (pour garder une ambiance conviviale). Merci donc de vous inscrire en laissant un message à la suite de ce post...

×
×
  • Créer...