Aller au contenu

Cariboo

Membre+
  • Compteur de contenus

    3 376
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Cariboo

  1. En fait un site d'annonces par nature pose des problèmes de performances dès que tu as un peu de trafic. La recherche d'une annonce ou la création de pages listant les annonces peut engendrer beaucoup, beaucoup de requêtes sur la base de données. Le point faible pour un site web, c'est souvent la base. Cela explique que la plupart des plugins des CMS soient aussi peu efficaces et lourds : le recours à un CMS peut parfois créer une usine à gaz, et le système d'annonces là dessus ne fait qu'aggraver la situation. En fait, si tu utilises un CMS, le mieux est d'utiliser un CMS qui possède des solutions de cache avancées en natif (genre eZPublish) ou que tu peux faire fonctionner de concert avec une solution de cache (comme Drupal). Quand aux sites d'annonces pro, la plupart de ceux que je connais (y compris celui pour lequel je travaille) utilisent des développements internes. C'est plus simple, car on arrive très vite aux limites de la logique des développeurs des solutions toutes faites. Maintenant, si ton projet est simple, regarde quand même la solution CMS+Plugin+solution de cache, parce que réinventer la roue, cela a quand même un coût considérable.
  2. Vous pouvez lire le compte rendu de la rencontre avec Matt Cutts un peu partout sur le web, donc je ne vais pas ajouter une nième version. Je veux juste évoquer les deux points sur lesquels Matt Cutts a lâché des informations que je n'avais pas entendu avant. Tout d'abord, on a eu droit a une confirmation officielle d'un changement dans l'algorithme le 1er mai 2010. Ce changement a été introduit par l'équipe d'Amit Singhal de Google. Son objectif semble être d'améliorer l'algorithme sur les requêtes "longue traine", en favorisant des sites "reputable" (qui ont une bonne réputation) sur les autres sites. Matt n'a pas voulu en dire plus et a botté en touche en disant que ce changement avait été initié par une autre équipe que la sienne et qu'il ne connaissait pas tous les détails. Ensuite, Matt Cutts a indiqué clairement que si l'ordre des termes, et la proximité des termes comptait (bon je pense que c'est même plus subtil que ça encore, je suis en train de préparer un article sur l'indexation des "phrases"), l'emplacement des termes importants sur la page n'avait par contre aucune importance. Donc tant pis pour ceux qui s'ingénient à placer des éléments en haut du code pour les faire apparaître finalement en bas de la page, à l'aide de CSS et de DHTML, Matt a confirmé que cela ne servait à rien. Cette réponse a été donnée suite à une question de Sébastien Billard qui portait en fait sur un autre point : ce qui est placé en footer a-t'il le même poids qu'ailleurs sur la page. Sébastien a reprécisé sa question et cette fois-ci, Matt a répondu que, si l'emplacement des termes ne comptait pas, il y'avait bien une exception pour les éléments placés dans des "boilerplates" (des blocs de code répétés sur toutes les pages). Ainsi, dans certains cas nous a dit Matt Cutts, ces éléments peuvent compter beaucoup moins dans l'algorithme. Enfin deux remarques sur le personnage : simple, sympa, bon orateur et showman, et avec de vrais talents de ... politicien. Parfois même la ficelle est un peu grosse. Avec Matt toutes les questions sont "fantastiques", "vraiment intéressantes", "passionnantes", "pertinentes". Pendant qu'il complimente et valorise son auditoire, cela lui donne le temps de réfléchir à la réponse à donner (ou la non réponse à donner). Mais pour une fois, j'ai eu l'impression que Matt mettait une réelle bonne volonté à répondre aux questions. Cela signifie probablement que si habituellement ses interventions ne sont pas très riches en information précises (comme dans les conférences SMX et SES), c'est probablement parce qu'il cherche à s'adapter à un auditoire qui ne connait pas le SEO de manière approfondie. Et là, finalement il ne s'est pas trop dérobé (il faut dire que l'on ne l'a pas trop poussé dans ses retranchements non plus). C'est intéressant. Bref merci Matt, et à bientôt à nouveau en France.
  3. Oui j'ai remarqué ce problème. La commande site a toujours donné des résultats assez imprécis, mais récemment c'est devenu n'importe quoi. Je ne sais si c'est un vrai bogue ou une "fonctionnalité". Avant, les comptages étaient parfois faux, mais au moins en combinant certains paramètres, on arrivait à lister toutes les pages indexées. Maintenant, même ça c'est cassé : on trouve plus de pages dans l'index que ce que site: veut bien nous lister. Bref il y'a bien un problème. Certains ont relié l'apparition du phénomène avec Caffeine. Vu la chronologie, c'est possible en effet. Ce qui n'a pas forcément été remarqué, c'est que les résultats sont TRES différents en fonction de l'option que l'on choisit dans le menu de gauche : par défaut, pages de moins d'une semaine, de moins d'un an etc... Par défaut, site renvoie moins de résultats qu'avant. Lorsqu'on que l'on étend la recherche aux pages plus anciennes, on retrouve des ordres de grandeurs semblables à ce que l'on avait avant. Par contre, je n'ai pas encore bien compris pourquoi certaines pages crawlées tous les jours et qui changent régulièrement sont datées d'il y'a 6 mois avec un cache datant d'il y'a 3 jours. Faut qu'on m'explique là. Bref on est pas à une incohérence près avec notre moteur préféré grrrr....
  4. Ca y'est la "french quality team" a envoyé des messages de confirmation aux heureux élus. Cela évitera la queue à la cantine (tiens cela me rappelle mes jeunes années, la queue à la cantine). Mais j'ai peur comme toi Laurent qu'on soit nombreux ! Après ils auraient peut-être dû préciser si c'était en français ou en anglais. L'avantage des videos c'est que tu as les sous-titres quand tu comprend pas bien l'américain.
  5. Bonjour et bienvenue sur le Hub Cordiase. N'oublie pas de lire les règles du Hub. Tu veux devenir hébergeur ? Un métier passionnant mais difficile. Le chemin sera long et pavé d'embuches.
  6. Par contre c'est une très mauvaise idée de placer autant de pages dans un robots.txt !!! Tu vas produire un effet de bord considérable. Je te conseille plutôt, si tu ne veux pas toucher au code ou faire des choses compliquées d'utiliser la fonctionnalité "traitement des paramètres" que l'on trouve dans Google Webmaster Tools. Tu déclares les paramètres qui ne servent à rien pour identifier un contenu et le tour est joué. Après tu peux essayer de rediriger certaines syntaxes d'urls vers une url canonique, ou utiliser le link rel=canonical pour les duplicates d'urls. Mais utiliser le robots.txt éliminer le duplicate d'urls : c'est souvent pas bon pour le référencement (l'explication technique : tu crées des "dangling pages").
  7. Ah je me doutais bien que Nathalie n'était pas loin... En screenant la liste des invités que je connais, cela me rappelait quelque chose. Si c'est elle qui a convaincu Matt de venir à Paris, il faudra la remercier. Même si c'est une idée de Matt, je me doute qu'elle a du participer à l'organisation. Bon, j'ai réussi à me dégager mon mercredi de tous les rendez-vous, il y'a des chances que je puisse venir. J'ai peur quand même que la boîte de RP ait eu les yeux plus gros que le ventre côté invitations. La Cantine, c'est pas très grand.
  8. Jean-Luc a raison, vérifie cela, car il est particulièrement contre-indiqué de faire des redirections 302 entre un domaine A et un domaine B (enfin pour quelques liens les dégâts risquent d'être insignifiants). Bref il faut faire des redirections 301. Ce qu'il faut juste éviter aussi c'est de créer un site dupliqué parce que deux domaines pointent vers le même site web : c'est à dire d'avoir : />http://www.domaine.com/page.html et />http://www.monautredomaine.com/page.html qui pointent vers la même page. Si tu rediriges en 301 la page d'accueil de www.monautredomaine.com sur www.domaine.com, tu n'auras aucun problème.
  9. Bienvenue sur le Hub Rep. N'hésite pas à participer aux débats sur le forum ou à poser des questions. Et n'oublie pas de lire les règles du Hub
  10. Le Juge>Pour le SMX pas de problèmes, j'y serai (j'ai été invité pour faire deux conférences). Donc comptez sur moi pour les commentaires et les retours. Pour la conférence de Matt Cutts : je suis invité aussi mais j'ai peur que cela soit dur d'y aller, trop de boulot cette semaine là. Enfin je vais essayer de faire un saut (y'a des fois l'Eurostar c'est pratique, même si ça coûte une blinde).
  11. Google organise une conférence de presse le 26 mai à la Cantine (sur invitation) avec la présence de Matt Cutts. C'est une grande première pour la France j'ai l'impression. Après dans la foulée nous aurons la présence de Susan Moskwa à la conférence SMX Paris les 15 et 16 juin. Susan à un rôle particulier chez Google : sa mission est d'observer les tendances dans les pratiques des webmasters, et d'identifier des besoins en outils pour GWT ou dans le domaine du support, mais aussi d'aider les équipes "qualités de recherche" à repérer des nouveaux comportements spammy. Susan parle très bien français, ce qui risque de faciliter pas mal ses échanges avec les webmasters français Il semble que Google commence vraiment à s'intéresser à la communauté SEO française. C'est intéressant et nouveau.
  12. Le problème de créer trop de sites différents, c'est qu'à moins de s'appeler Shiva et d'avoir deux douzaines de bras, il devient vite difficile de travailler des choses comme la notorité du domaine, les backlinks, la qualité du contenu etc... Il faut donc bien réfléchir avant de créer un nouveau site, et vraiment se demander comment on va gérer la galaxie de sites dans un an ou deux ans. Créer de nombreux sites thématiques est une stratégie parfois très payante au début, mais cela devient plus lourd à gérer avec le temps et c'est difficile de revenir en arrière... J'ai pris l'habitude de conseiller de créer un site à la seule et unique condition que ces trois critères soient remplis : - on a réellement prévu un budget comm/rp/SEA/marketing pour ce site, et un budget "sérieux" - on a réellement la possibilité de créer un contenu de qualité, capable de rivaliser avec la concurrence en terme de volume et d'intérêt - et la décision de créer un site différent est prise pour des raisons marketing, pas pour le SEO. Pour le SEO, on peut passer par des sous domaines ou des sous répertoires s'il le faut. A long terme, on peut obtenir des résultats similaires à ceux obtenus avec une galaxie de sites.
  13. Bienvenue sur le Hub Valtiel. N'hésite pas à poser des questions, il y'a quelques très bons spécialistes des sujets qui t'intéressent sur ce forum. A très vite.
  14. Google a annoncé officiellement le lancement de la nouvelle interface du moteur de recherche (celle que certains utilisateurs voient de manière épisodique depuis des mois, et que l'on a surnommé Jazz). Vous trouverez le communiqué officiel ici : />http://googleblog.blogspot.com/2010/05/spring-metamorphosis-googles-new-look.html Qu'en pensez-vous ? Avez-vous remarqué les fonctionnalités supplémentaires proposées et ... celles qui ont disparu (oui j'aime bien le jeu des 7 erreurs) Vous pouvez voter grace au sondage ci-dessous (là je suis peut-être influencé : c'est "poll day" aujourd'hui chez les Gibis.
  15. Je confirme : ces deux commandes correspondent à des programmes différents (comme les bons vieux pkzip et pkunzip sous DOS). Donc il faut installer unzip ET zip pour la compression fonctionne aussi. Après je reconnais qu'en général on installe les deux.
  16. Désolé pour la réponse tardive, j'étais un peu pris par mon déménagement a Londres + changement de job. C'était un vrai plaisir de participer au JoomlaDay : l'accueil était sympa et j'ai vraiment apprécié la seance de questions réponses avec la salle. Si vous refaites encore un évenement dans le Sud, j'en suis volontiers !
  17. transformé en rosbif

  18. Toujours pour éviter les problèmes, tu peux aussi utiliser la possibilité offerte dans Google Webmaster Tools d'indiquer le nouveau domaine vers lequel tu rediriges ton ancien site. Cette fonctionnalité offerte depuis quelques mois par Google évite quelques soucis si tu ne fais que changer le domaine. A faire en plus de ce qui a été indiqué par Dan, pas "à la place de". Cela accélère la prise en compte des nouvelles urls.
  19. Oui j'ai déjà vu ça... Un bogue du côté de google. A signaler dans les groups par exemple, parce qu'aucune solution n'a été trouvée côté webmaster.
  20. Ah ? ça m'intéresserait d'avoir ton avis sur la manière dont c'est compris à l'heure actuelle. Et qu'est-ce que tu juges utile de démystifier en fait.
  21. Non ce n'est pas long, en quelques heures tes mails basculent entièrement sur les nouveaux domaines. En fait, la perte éventuelle de mails et le délai nécessaire n'est pas liée à Gmail mais plus au service qui gère tes DNS et/ou le champ MX actuellement. Si tu as entièrement la main dessus, tu peux réaliser la transition de manière douce et sans perte de mails. Les mails "égarés" se retrouvent normalement dans l'ancien serveur de mail tant que les infos sur le champ MX ne se sont pas propagées partout. Par contre, comme toute migration de domaine, la moindre erreur se paie cash ! Suis bien les instructions données par Google et cela se passera bien.
  22. Bienvenue sur le forum Sébastien
  23. Peux tu développer un peu plus ton projet ? Quel serait le domaine de ton site, tes objectifs à court moyen long terme ? Ton modèle économique s'il y'en a un, ou l'intérêt du projet si c'est du pur bénévolat ?
  24. chmole : je comprend ton inquiétude, mais pas de panique, on récupère de ce genre de situation. Je suis allé jeter un oeil sur ton site : je trouve que tu travailles trop pour les moteurs et pas assez pour tes internautes. Le résultat, c'est que ton site donne quelques signes de "suroptimisation". Avec le menu rempli de liens rose clair sur fond blanc, tu as mis un pied sur la ligne jaune par exemple. Et travailler une seule expression clé, c'est dangereux : un changement d'algo et hop ! Plus de trafic. Note bien par ailleurs que ce n'est pas un "blacklistage" dont tu es victime, et probablement même pas une pénalité. Tu es simplement touché par une variation de la valeur de l'un des critères pris en compte dans les moteurs. Si tu as bougé sur une seule expression, jette un oeil sur l'évolution de tes backlinks par exemple dans GWT, tu auras peut-être une piste.
  25. Intéressant comme point de vue. J'ai constaté aussi que les américains étaient plus "marketeux" que "techniques", bref n'avaient pas fait les mêmes écoles. Qui plus est être obligé d'optimiser pour trois moteurs empêche d'aller très loin dans le niveau de technique. En France, on peut se concentrer à 100% sur l'algo de Google et les techniques les plus "pointues" ont du sens. >Lionel C'est intéressant ce que tu dis là sur le "no comment" de Matt Cutts. Il y'a donc bien un lièvre là dessous.
×
×
  • Créer...