Aller au contenu

Cariboo

Membre+
  • Compteur de contenus

    3 376
  • Inscrit(e) le

  • Dernière visite

Messages postés par Cariboo

  1. Vous pouvez lire le compte rendu de la rencontre avec Matt Cutts un peu partout sur le web, donc je ne vais pas ajouter une nième version.

    Je veux juste évoquer les deux points sur lesquels Matt Cutts a lâché des informations que je n'avais pas entendu avant.

    Tout d'abord, on a eu droit a une confirmation officielle d'un changement dans l'algorithme le 1er mai 2010. Ce changement a été introduit par l'équipe d'Amit Singhal de Google. Son objectif semble être d'améliorer l'algorithme sur les requêtes "longue traine", en favorisant des sites "reputable" (qui ont une bonne réputation) sur les autres sites. Matt n'a pas voulu en dire plus et a botté en touche en disant que ce changement avait été initié par une autre équipe que la sienne et qu'il ne connaissait pas tous les détails. ;)

    Ensuite, Matt Cutts a indiqué clairement que si l'ordre des termes, et la proximité des termes comptait (bon je pense que c'est même plus subtil que ça encore, je suis en train de préparer un article sur l'indexation des "phrases"), l'emplacement des termes importants sur la page n'avait par contre aucune importance. Donc tant pis pour ceux qui s'ingénient à placer des éléments en haut du code pour les faire apparaître finalement en bas de la page, à l'aide de CSS et de DHTML, Matt a confirmé que cela ne servait à rien. Cette réponse a été donnée suite à une question de Sébastien Billard qui portait en fait sur un autre point : ce qui est placé en footer a-t'il le même poids qu'ailleurs sur la page. Sébastien a reprécisé sa question et cette fois-ci, Matt a répondu que, si l'emplacement des termes ne comptait pas, il y'avait bien une exception pour les éléments placés dans des "boilerplates" (des blocs de code répétés sur toutes les pages). Ainsi, dans certains cas nous a dit Matt Cutts, ces éléments peuvent compter beaucoup moins dans l'algorithme.

    Enfin deux remarques sur le personnage : simple, sympa, bon orateur et showman, et avec de vrais talents de ... politicien. Parfois même la ficelle est un peu grosse. Avec Matt toutes les questions sont "fantastiques", "vraiment intéressantes", "passionnantes", "pertinentes". Pendant qu'il complimente et valorise son auditoire, cela lui donne le temps de réfléchir à la réponse à donner (ou la non réponse à donner).

    Mais pour une fois, j'ai eu l'impression que Matt mettait une réelle bonne volonté à répondre aux questions. Cela signifie probablement que si habituellement ses interventions ne sont pas très riches en information précises (comme dans les conférences SMX et SES), c'est probablement parce qu'il cherche à s'adapter à un auditoire qui ne connait pas le SEO de manière approfondie. Et là, finalement il ne s'est pas trop dérobé (il faut dire que l'on ne l'a pas trop poussé dans ses retranchements non plus). C'est intéressant.

    Bref merci Matt, et à bientôt à nouveau en France.

  2. Oui j'ai remarqué ce problème.

    La commande site a toujours donné des résultats assez imprécis, mais récemment c'est devenu n'importe quoi. Je ne sais si c'est un vrai bogue ou une "fonctionnalité".

    Avant, les comptages étaient parfois faux, mais au moins en combinant certains paramètres, on arrivait à lister toutes les pages indexées. Maintenant, même ça c'est cassé : on trouve plus de pages dans l'index que ce que site: veut bien nous lister.

    Bref il y'a bien un problème.

    Certains ont relié l'apparition du phénomène avec Caffeine. Vu la chronologie, c'est possible en effet.

    Ce qui n'a pas forcément été remarqué, c'est que les résultats sont TRES différents en fonction de l'option que l'on choisit dans le menu de gauche : par défaut, pages de moins d'une semaine, de moins d'un an etc...

    Par défaut, site renvoie moins de résultats qu'avant. Lorsqu'on que l'on étend la recherche aux pages plus anciennes, on retrouve des ordres de grandeurs semblables à ce que l'on avait avant.

    Par contre, je n'ai pas encore bien compris pourquoi certaines pages crawlées tous les jours et qui changent régulièrement sont datées d'il y'a 6 mois avec un cache datant d'il y'a 3 jours. Faut qu'on m'explique là.

    Bref on est pas à une incohérence près avec notre moteur préféré grrrr....

  3. Je suis inscrit, mais si tout le monde a fait le goret comme moi en repassant autour de soi le formulaire d'inscription, ça va être clairement le foutoir annoncé.

    Remarque, ça peut être marrant de voir des référenceurs se presser comme à un concert de U2.

    Puis bon attendre 2010 pour écouter Matt Cutts en live parler du PageRank, je crois que ça ira très bien en vidéo. Merci Nathalie pour ça.

    Ca y'est la "french quality team" a envoyé des messages de confirmation aux heureux élus. Cela évitera la queue à la cantine (tiens cela me rappelle mes jeunes années, la queue à la cantine).

    Mais j'ai peur comme toi Laurent qu'on soit nombreux ! Après ils auraient peut-être dû préciser si c'était en français ou en anglais. L'avantage des videos c'est que tu as les sous-titres quand tu comprend pas bien l'américain.

  4. Bonjour a tous et a toute,

    Etant a la recherche de quelque question j'ai découvert votre site et je pense qu'il m'aidera bien dans mais démarche(devenir hébergeur peut-etre) :)

    alors jespere etre le bienvenue sur le forum.

    Sur se bonne journée.

    Coridalement.

    Bonjour et bienvenue sur le Hub Cordiase.

    N'oublie pas de lire les règles du Hub.

    Tu veux devenir hébergeur ? Un métier passionnant mais difficile. Le chemin sera long et pavé d'embuches.

  5. Par contre c'est une très mauvaise idée de placer autant de pages dans un robots.txt !!!

    Tu vas produire un effet de bord considérable.

    Je te conseille plutôt, si tu ne veux pas toucher au code ou faire des choses compliquées d'utiliser la fonctionnalité "traitement des paramètres" que l'on trouve dans Google Webmaster Tools. Tu déclares les paramètres qui ne servent à rien pour identifier un contenu et le tour est joué.

    Après tu peux essayer de rediriger certaines syntaxes d'urls vers une url canonique, ou utiliser le link rel=canonical pour les duplicates d'urls.

    Mais utiliser le robots.txt éliminer le duplicate d'urls : c'est souvent pas bon pour le référencement (l'explication technique : tu crées des "dangling pages").

  6. Pour Matt Cutts, Nathalie Peret a indiqué que la conférence va être filmée.

    Notez que l'association SEO Camp, a l'opportunité d'une interview vidéo (en 5 questions) ;)

    Ah je me doutais bien que Nathalie n'était pas loin... En screenant la liste des invités que je connais, cela me rappelait quelque chose. Si c'est elle qui a convaincu Matt de venir à Paris, il faudra la remercier. Même si c'est une idée de Matt, je me doute qu'elle a du participer à l'organisation.

    Bon, j'ai réussi à me dégager mon mercredi de tous les rendez-vous, il y'a des chances que je puisse venir. J'ai peur quand même que la boîte de RP ait eu les yeux plus gros que le ventre côté invitations. La Cantine, c'est pas très grand.

  7. Jean-Luc a raison, vérifie cela, car il est particulièrement contre-indiqué de faire des redirections 302 entre un domaine A et un domaine B (enfin pour quelques liens les dégâts risquent d'être insignifiants). Bref il faut faire des redirections 301.

    Ce qu'il faut juste éviter aussi c'est de créer un site dupliqué parce que deux domaines pointent vers le même site web : c'est à dire d'avoir :
    />http://www.domaine.com/page.html

    et
    />http://www.monautredomaine.com/page.html

    qui pointent vers la même page.

    Si tu rediriges en 301 la page d'accueil de www.monautredomaine.com sur www.domaine.com, tu n'auras aucun problème.

  8. Le Juge>Pour le SMX pas de problèmes, j'y serai (j'ai été invité pour faire deux conférences). Donc comptez sur moi pour les commentaires et les retours.

    Pour la conférence de Matt Cutts : je suis invité aussi mais j'ai peur que cela soit dur d'y aller, trop de boulot cette semaine là. Enfin je vais essayer de faire un saut (y'a des fois l'Eurostar c'est pratique, même si ça coûte une blinde).

  9. Google organise une conférence de presse le 26 mai à la Cantine (sur invitation) avec la présence de Matt Cutts. C'est une grande première pour la France j'ai l'impression.

    Après dans la foulée nous aurons la présence de Susan Moskwa à la conférence SMX Paris les 15 et 16 juin. Susan à un rôle particulier chez Google : sa mission est d'observer les tendances dans les pratiques des webmasters, et d'identifier des besoins en outils pour GWT ou dans le domaine du support, mais aussi d'aider les équipes "qualités de recherche" à repérer des nouveaux comportements spammy. Susan parle très bien français, ce qui risque de faciliter pas mal ses échanges avec les webmasters français

    Il semble que Google commence vraiment à s'intéresser à la communauté SEO française. C'est intéressant et nouveau.

  10. Le problème de créer trop de sites différents, c'est qu'à moins de s'appeler Shiva et d'avoir deux douzaines de bras, il devient vite difficile de travailler des choses comme la notorité du domaine, les backlinks, la qualité du contenu etc...

    Il faut donc bien réfléchir avant de créer un nouveau site, et vraiment se demander comment on va gérer la galaxie de sites dans un an ou deux ans. Créer de nombreux sites thématiques est une stratégie parfois très payante au début, mais cela devient plus lourd à gérer avec le temps et c'est difficile de revenir en arrière...

    J'ai pris l'habitude de conseiller de créer un site à la seule et unique condition que ces trois critères soient remplis :

    - on a réellement prévu un budget comm/rp/SEA/marketing pour ce site, et un budget "sérieux"

    - on a réellement la possibilité de créer un contenu de qualité, capable de rivaliser avec la concurrence en terme de volume et d'intérêt

    - et la décision de créer un site différent est prise pour des raisons marketing, pas pour le SEO.

    Pour le SEO, on peut passer par des sous domaines ou des sous répertoires s'il le faut. A long terme, on peut obtenir des résultats similaires à ceux obtenus avec une galaxie de sites.

  11. Google a annoncé officiellement le lancement de la nouvelle interface du moteur de recherche (celle que certains utilisateurs voient de manière épisodique depuis des mois, et que l'on a surnommé Jazz).

    Vous trouverez le communiqué officiel ici :


    />http://googleblog.blogspot.com/2010/05/spring-metamorphosis-googles-new-look.html

    Qu'en pensez-vous ? Avez-vous remarqué les fonctionnalités supplémentaires proposées et ... celles qui ont disparu (oui j'aime bien le jeu des 7 erreurs) :rolleyes:

    Vous pouvez voter grace au sondage ci-dessous (là je suis peut-être influencé : c'est "poll day" aujourd'hui chez les Gibis.

  12. Je confirme : ces deux commandes correspondent à des programmes différents (comme les bons vieux pkzip et pkunzip sous DOS). Donc il faut installer unzip ET zip pour la compression fonctionne aussi.

    Après je reconnais qu'en général on installe les deux. :rolleyes:

  13. Désolé pour la réponse tardive, j'étais un peu pris par mon déménagement a Londres + changement de job.

    C'était un vrai plaisir de participer au JoomlaDay : l'accueil était sympa et j'ai vraiment apprécié la seance de questions réponses avec la salle.

    Si vous refaites encore un évenement dans le Sud, j'en suis volontiers !

  14. Toujours pour éviter les problèmes, tu peux aussi utiliser la possibilité offerte dans Google Webmaster Tools d'indiquer le nouveau domaine vers lequel tu rediriges ton ancien site.

    Cette fonctionnalité offerte depuis quelques mois par Google évite quelques soucis si tu ne fais que changer le domaine.

    A faire en plus de ce qui a été indiqué par Dan, pas "à la place de". Cela accélère la prise en compte des nouvelles urls.

  15. Désolé pour le retard, j'ai un exemple:
    />http://www.google.fr/search?hl=fr&source=hp&q=travailler+en+thailande&btnG=Recherche+Google&meta=&cts=1265067763779

    (les liens du fil d'ariane sont pas bons :-/)

    Oui j'ai déjà vu ça... Un bogue du côté de google. A signaler dans les groups par exemple, parce qu'aucune solution n'a été trouvée côté webmaster.

  16. Non ce n'est pas long, en quelques heures tes mails basculent entièrement sur les nouveaux domaines.

    En fait, la perte éventuelle de mails et le délai nécessaire n'est pas liée à Gmail mais plus au service qui gère tes DNS et/ou le champ MX actuellement. Si tu as entièrement la main dessus, tu peux réaliser la transition de manière douce et sans perte de mails. Les mails "égarés" se retrouvent normalement dans l'ancien serveur de mail tant que les infos sur le champ MX ne se sont pas propagées partout.

    Par contre, comme toute migration de domaine, la moindre erreur se paie cash ! Suis bien les instructions données par Google et cela se passera bien.

  17. chmole : je comprend ton inquiétude, mais pas de panique, on récupère de ce genre de situation.

    Je suis allé jeter un oeil sur ton site : je trouve que tu travailles trop pour les moteurs et pas assez pour tes internautes. Le résultat, c'est que ton site donne quelques signes de "suroptimisation". Avec le menu rempli de liens rose clair sur fond blanc, tu as mis un pied sur la ligne jaune par exemple. Et travailler une seule expression clé, c'est dangereux : un changement d'algo et hop ! Plus de trafic.

    Note bien par ailleurs que ce n'est pas un "blacklistage" dont tu es victime, et probablement même pas une pénalité. Tu es simplement touché par une variation de la valeur de l'un des critères pris en compte dans les moteurs. Si tu as bougé sur une seule expression, jette un oeil sur l'évolution de tes backlinks par exemple dans GWT, tu auras peut-être une piste.

  18. cela tendrait à confirmer que les Européens sont mieux dans l'abstraction que les Américains, qui sont plus orientés pratique

    Intéressant comme point de vue. :thumbsup:

    J'ai constaté aussi que les américains étaient plus "marketeux" que "techniques", bref n'avaient pas fait les mêmes écoles. Qui plus est être obligé d'optimiser pour trois moteurs empêche d'aller très loin dans le niveau de technique. En France, on peut se concentrer à 100% sur l'algo de Google et les techniques les plus "pointues" ont du sens.

    >Lionel

    C'est intéressant ce que tu dis là sur le "no comment" de Matt Cutts. Il y'a donc bien un lièvre là dessous.

  19. Mouais... Je soupçonne fortement Matt Cutts de nous faire un coup d'intox sur le sujet, comme il en fait régulièrement. Objectif : faire disparaître une pratique qui les empêche d'utiliser un critère leur permettant de reconnaître des pages importantes à l'intérieur d'un site, parce que le critère est spammé. Matt lance ces campagnes quand Google a renoncé à trouver un autre critère, et quand l'équipe qualité jette l'éponge parce que la tâche permettant de distinguer les utilisations légitimes ou non d'une technique s'avère ingérable.

    Le problème dans cette histoire, c'est que Matt Cutts prone de montrer la même structure de liens aux internautes et aux moteurs. Or son raisonnement semble reposer sur une hypothèse fausse dans la pratique. Pour des raisons d'ergonomie aujourd'hui, la plupart des sites placent beaucoup de liens sur leurs pages, la plupart de ces liens étant rarement cliqués, mais placés là au cas où. Je rappelle au passage que très souvent, les pages qui reçoivent le plus de liens sur un site sont les pages de type "mentions légales" ou "conditions générales" en raison des liens systématiques en footer. Or, sauf cas particulier, ces pages ne sont pas les plus importantes du site.

    Ce qui signifie que dans beaucoup de cas, la hiérarchie des PR internes d'un site, pourvu que le site ait un certain nombre de pages, est très différente de la hiérarchie de l'importance des pages dans un site, qu'elle est censée mesurer. Le PR sculpting a pour objectif de corriger ce problème.

    Je précise au passage que le PR sculpting cela marche vraiment bien dans certains cas : site avec un nombre suffisant de pages, et structure ergonomique éloignée de la structure idéale pour le moteur. Ce qui est bizarre c'est que les SEO qui comprennent cette technique sont très nombreux en Europe (en France et en Allemagne en particulier) et minoritaires aux USA et en Angleterre. Depuis un an, des tas de blogueurs américains, parmi les plus influents, ont posté des billets pour expliquer que le PR sculpting ne servait à rien et que cela ne marchait pas, en général en révélant indirectement leur grave ignorance sur le sujet.

    En clair il y'a un terreau fertile pour faire prospérer le doute émis par Matt Cutts.

    En l'état actuel des choses, je fais trois hypothèses :

    - Matt veut faire disparaître une technique qui marche trop bien, et rétablir un équilibre entre ceux qui savent et les autres. Le changement d'algo dans ce cas est un écran de fumée, c'est juste de l'intox pour que les gens arrêtent de le faire. On ne tardera pas à savoir si l'algo change, c'est trop facile à vérifier.

    - Le changement d'algo est plus profond que ça : la valeur du PR passée est pondérée par d'autres critères (emplacement dans la page et utilisation des infos données par la structure DOM par exemple). Dans ce cas, Matt à raison, cela ne servira plus à grand chose de se décarcasser pour faire du PR sculpting. Mais le problème c'est qu'il ne dit rien de tel

    - Matt est dans une croisade un peu idéologique, dont il ne voit pas les conséquences à ce stade : parce que présenter des choses différentes aux moteurs et aux internautes, c'est mal, il faut donc arrêter de faire du PR sculpting. Je rappelle juste que les plus white hat des SEO sont quand même obligés de faire ce genre de chose quasi systématiquement parce que les algos sont pourris et qu'il faut bien aider les pages de certains sites à gagner la place qui leur revient au milieu des splogs, des scrapers sites et autres pages d'agrégateurs, sans compter les pages des partenaires des moteurs.

    Bref, à suivre, mais je pense véritablement qu'il faut se méfier doublement :

    - l'info ne me semble pas fiable à 100%. Il y'a autre chose derrière.

    - prise au pied de la lettre, cela ne fait pas progresser la pertinence. Mais alors pas du tout. Donc ce n'est pas logique.

    Maintenant, l'annonce de Matt Cutts signifie probablement une campagne de pénalités sur des critères qui seront précisés plus tard pour la fin de l'année. On va retrouver le schéma habituel lorsqu'ils tapent sur des critères qu'ils n'arrivent pas à défendre contre le spam : sensibilisation, annonce des nouvelles règles, sanctions pour l'exemple.

  20. Le crawl de Google dépend de plusieurs facteurs combinés :

    - d'une part de la possibilité de crawler facilement ton site => vérifie les temps de téléchargement communiqués par Google dans GWT. Par ailleurs, regarde les messages d'erreur renvoyés par tes pages et éventuellement présents dans GWT. Regarde aussi dans la zone message la présence d'un "votre site présente un nombre anormal d'urls". Et vérifie toi même ton arborescence à l'aide d'un outil type XENU

    - la qualité et l'importance des pages pour son index : faire la chasse aux pages trop similaires, trop vides de contenus, et aux pages avec un pagerank interne très faible. Vérifie au passage la profondeur de tes pages

    - la fraicheur ensuite (inutile de crawler souvent des pages qui ne changent jamais, et/ou qui ne sont pas très importantes...)

    Enfin, intéresse toi aux caractéristiques des pages non crawlées : cette recherche te permettra probablement de mettre le doigt sur une raison précise qui empêche un crawl intégral de ton site.

×
×
  • Créer...