Aller au contenu

Kilroy

Webmaster Régulier
  • Compteur de contenus

    74
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Kilroy

  1. La semaine dernière, Sébastien Billard à publié un article dans lequel il analyse ce phénomène sur l'un de ses sites : la longue traîne en pratique. Histoire de savoir ce que ça donnait sur un autre cas, j'ai fait l'analyse du trafic d'un de mes sites dans un article intitulé : Longue traîne et ventilation du trafic. Au final, l'importance de la traine par rapport au trafic issu des mots clefs principaux semble dépendre de plusieurs facteurs : Le nombre de pages du site Le volume de contenu des pages profondes (comme le souligne l'agence Dixxit sur mon article) Le degré d'optimisation des pages positionnées sur des mots clefs à fort potentiel Le potentiel de trafic des mots clefs principaux La popularité du site (qui favorise son positionnement) Etant donné l'intérêt de ce sujet, je récupérerai peut être le trafic de quelques autres sites pour l'analyser. L'évolution de la structure du trafic d'un mois sur l'autre est aussi intéressante à suivre !
  2. En regardant le ranking Alexa des annuaires, on peut se faire une idée de ceux qui peuvent apporter du trafic ou non. Ceci dit, les annuaires qui ont le meilleur PR et le meilleur AR sont aussi ceux qui ont le plus de pages / catégories et donc le lien est noyé au milieu de beaucoup d'autres. Je pense que les annuaires thématiques (limité à un sujet précis) sont potentiellement plus efficaces que les généralistes. Pour ce que j'ai pu en voir, les annuaires généralistes rapportent individuellement moins de visites que des liens (pertinents) sur Wikipedia ou sur des sites de "startpagina" (www.startpagina.nl)
  3. Ca rappelle un peu cette interface, les polices par défaut et le classement en moins.
  4. Mettre en ligne des pages de redirection invisibles des internautes sur un site est pour moi un constat d'échec. Lorsqu'on en est là, c'est qu'on a été incapable d'optimiser le site réel et qu'on n'a pas pu résoudre les problèmes techniques ou liés aux contenu qui se posaient pour le référencement. Certaines sociétés de référencement les utilisent encore, pour des raisons multiples : - à moins d'arriver très tôt dans le cycle de production d'un site, elles peuvent faire des recommandations, mais ont peu de marge de manoeuvre pour imposer des modifications nécessaires. - des "moulinettes" logicielles leur permettent de créer rapidement et de façon très économique un grand nombre de pages. C'est bien plus rentable que d'essayer de mettre en place un référencement plus "éthique". - cette technique n'est pas systématiquement pénalisée. Les Spam reports, même ciblant des sites avec des pratiques très limites, restent souvent lettre morte. Bref, le coup de balai entammé par Google en début d'année par la mise à l'index de BMW.de n'aura finalement pas été jusqu'au bout !
  5. Il n'y a pas de commande spécifique, mais sur moins de 500 pages, ça devrait être possible avec quelques bidouilles. Fais une commande site: en utilisant cette interface simplifiée et en affichant le maximum de résultats (100) Utilise la Web Developer Toolbar de Firefox, commande Information / View link information pour lister tes liens. Copie le résultat dans Excel Récupère les liens de ton sitemap Copie la liste dans Excel Compare Dit comme ça, c'est un peu long mais faisable. Si quelqu'un à une meilleure solution...
  6. J'avais fait un post sur mon blog sur le paramétrage de Google Analytics. J'ai un commentaire d'un gars qui a fait un script personnalisé pour Analytics, dans le but de résoudre ce type de problème et de prendre en compte des moteurs francophones. Je ne l'ai pas encore testé, mais je vais le faire sur au moins un site pour voir ce que ça donne.
  7. Petite question : ton site est sous Drupal ? J'ai constaté que certains CMS ne géraient pas correctement les erreurs 404 de façon native. MODx et Typo 3 renvoient un code 200 quand un document n'est plus présent sur le site. Il faut installer un plugin pour que les 404 soient correctement gérées dans les deux cas. Avec ce type de fonctionnement, les moteurs gardent les anciennes URLs beaucoup plus longtemps dans leurs bases. Il faudrait le tester sur ton site avec live http header par exemple.
  8. Il y a des pénalités manuelles qui découlent normalement des spam reports... quand ils sont pris en compte ! En tous cas le référenceur aux chaussures jaunes à bien réussi son coup avec cet article. Un bon linkbait. J'aimais bien aussi leur liste de facteurs affectant le référencement.
  9. Oui ! Le Site Overlay est une fonction utile, mais trrrrrès lente à l'affichage (en tous cas pour mes sites) et surtout fréquemment indisponible. Il faut prendre ton mal en patience et essayer à différentes heures de la journée pour tenter de tomber à un moment où les serveurs sont moins chargés.
  10. Le plus simple : Modifie <td class="product_name" valign="top">T shirt homme Versace manches longues noir</td> en <td valign="top"><h1 class="product_name">T shirt homme Versace manches longues noir</h1></td> Dans l'idéal : - tu n'utilises pas de tables pour faire ta mise en page - tu modifies le style de ta balise h1 pour qu'il reprenne celui de la class "product_name" ce qui te permet d'avoir : <h1>T shirt homme Versace manches longues noir</h1>
  11. Pour ranker sur un terme aussi générique sur Google, il te faudra le maximum de liens entrants textes avec ce mot dans la balise <a href>. Un petit cas pratique dans cet article (qui vante par ailleurs les mérites d'un soft d'analyse du référencement) Ce n'est pas le seul critère de positionnement, mais c'est un de ceux qui a le plus de poids sur Google.
  12. Quelques autres remarques. Attention à tes échanges de liens. Avoir des liens à partir de toutes les pages de sites comme : www.sexyflo-hotlingerie.fr, www.satmagic.be (apparemment retirés) ou agriloisirs.com est probablement contre-productif! Tes titres sont dans des TD avec des class comme : <td class="product_name" valign="top">T shirt homme Versace manches longues noir</td> Des balises h1 seraient plus efficaces. Des textes de présentation des catégories de produits seraient surement efficaces, mais est-il possible d'en ajouter sur OS Commerce ? Je n'ai pas vu cette possibilité.
  13. Un dénommé Jim Boykin avait donné une théorie sur le classement des pages obtenues par la commande site: dans Yahoo. Pas très convaincant à mon avis. Pour estimer l'importance d'un lien, j'utilise comme critères : Le PR de la page où il se trouve (apport de popularité) L'Alexa Rank du site (apport de trafic) Le texte qui se trouve dans la balise href (apport de pertinence) Et pour extraire toutes ces données, j'utilise backlink analyzer ou IBP
  14. Pour ma part, j'utilise un outil qui fait pas mal de choses, dont l'inscription semi-automatique dans les moteurs et annuaires : IBP/Arelis. Ce soft est gratuit dans sa version d'essai et rend déjà pas mal de services. IBP stocke dans des infos "projets" les informations à saisir dans les annuaires (nom et e-mail du webmaster, nom du site, URL, descriptions longues, courtes) et détecte automatiquement les champs dans lesquels les faire figurer quand on est sur une page d'inscription. Sur une page d'annuaire, il surligne les liens qui peuvent mener vers une page d'inscription. Bref, des fonctionnalités utiles (et en plus il fait pas mal d'autres choses)
  15. A priori, deux effets négatifs possibles : contenus de la home dupliqués mauvaise répartition du PR interne. Ce second problème est à priori le plus sérieux si tous les liens de retour sur la home de ton site pointaient vers /index.php Le PR se répartit alors comme suit: Liens externes -> PR sur la home home-> PR sur les pages internes pages internes -> PR sur index.php Normalement sur la dernière phase, il faut redonner du PR à la home pour que ça soit bien redistribué en interne C'est pourtant un cas très courant...
  16. C'est le message type de Google dont Matt cuts parlait sur son blog. Je connais aussi quelques sociétés qui l'ont reçu. ;-) En étant gentil, ça se passe bien en général. Le truc marrant, c'est que les pages de certaines sociétés sont tellement standardisées qu'on les repère tout de suite. D'autres font des optimisations plus originales qui sont plus difficiles à repérer...
  17. Laisse moi deviner dldstyle: Il s'agissait d'une fausse frame activée par un javascript En désactivant javascript, tu as pu voir une image qui t'indiquais : Votre navigateur n'accepte pas Javascript. Vous devez configurer le configurer pour qu'il accepte javascript, sinon, cliquez ici La page que tu as vue était reliée à toute une série d'autres, placées dans le même répertoire Si j'ai tout bon, je sais quelle société pratique encore ce type d'"optimisations". Leur problème c'est probablement qu'ils ont développé un outil qui fait ça très bien et qui réduit beaucoup leurs coûts de production. S'ils devaient faire des pages "optimisées" visibles, ça seraient beaucoup plus cher pour leurs clients. Et tant qu'un site n'est pas blacklisté, ce type de méthode marche encore très bien. Le seul hic, c'est justement le risque.
  18. J'utilise les menus présentés par Alistapart (suckerfish dropdowns) sur mon site de photos (adresse dans ma signature). Ils sont visibles des moteurs, fonctionnent sans javascript sur Firefox (il faut javascript sous IE). Seul hic : tous les niveaux de menu sont visibles, ce qui peut finir par faire pas mal de liens sur certaines pages. Sinon les éléments "&link=#&action=Parse+URL" sont rajoutés par SEO Browser pour permettre de naviguer entre les pages. Ils ne sont pas présents sur le "vrai" site. SEO-Browser ajoute également des éléments dans les liens qui pourraient faire croire qu'ils sont brisés, mais sur le site original ils sont nickels. Autre solution pour auditer rapidement un site: la Web Developper Toolbar sous Firefox et sa commande information / View Link Information
  19. Pour quelques infos sur la façon de suivre ses liens entrants, regarde mes élucubrations sur le linking. Sinon, la commande LINK: de Google ne présente presqu'aucun intérêt, même pour le suivi : elle affiche des liens internes et externes, elle n'affiche pas tous les liens. Bref, Google est cachottier sur ce point. Heureusement qu'il y a Yahoo.
  20. Pour le tester, ouvre une de tes pages avec SEO Browser et regarde si tu vois les contenus de ton menu. Si les éléments de menu son écrits via un JS, il est clair qu'ils ne seront pas affichés et donc pas vus par les moteurs.
  21. La commande site: ne fonctionne pas du tout en ce moment sur certains data centers. Il faut tester sur des data centers qui ont déjà subi la mise à jour du PageRank. Sur son blog, Matt Cuts donne une piste sur la raison de ces problèmes:
  22. Il y a plusieurs aspects à voir dans les problèmes liés au nombre de liens par page. Les moteurs cherchent à optimiser le fonctionnement de leurs spiders. Vous avez déjà essayé de crawler un site de 100 pages dont chacune comporte 100 liens vers toutes les autres ? Ca oblige à vérifier sur chaque page qu'on connait déjà tout ou partie des autres URLs. C'est très contraignant. C'est la raison pour laquelle Google donne cette limite de 100 liens. Il est peu probable qu'il suive tous les liens d'une page qui en comporte 300. Bien sur, un site très populaire (fort PR) est plus haut dans les priorités des moteurs et il y aura plus de chances que l'ensemble des liens de pages très denses soient crawlés. Pour vous donner une petite idée du cauchemar pour les moteurs de certaines structures de sites, essayez de le visualiser avec un outil du type WebTracer. J'ai été surpris en regardant certains des miens ! Autre considération importante : une page avec 300 liens n'est à priori pas conçue pour les internautes. Qui parviendra à retrouver la page qui l'intéresse dans 300 liens ? Enfin, je ne sais pas si ce type de structure est bien adapté à une bonne redistribution du PR en interne. Les pages de haut niveau qui doivent en recevoir plus que les autres (en principe) sont moins favorisées. Concernant l'emplacement des menus et des utilitaires : Avoir un menu déroulant accessible aux moteurs (en div cachés ou liste stylée) en haut de chaque page du site signifie que vous aurez : - les mêmes textes (ceux des liens) en haut de chaque page - un nombre important de liens en début de page On peut se demander si ça ne peut pas : - poser des problèmes aux moteurs pour connaître le contenu réel de la page :les textes en début de page sont privilégiés dans l'analyse - limiter le nombre de liens du reste de la page qui seront crawlés J'ai fait un essai en plaçant un de mes menus en bas de code, mais j'avoue que ça na pas fait grande différence. Je pense que pas mal de moteurs analysent non pas des pages entières, mais des blocs dans les pages et séparent les éléments de navigation des textes du corps de page.
  23. Le seul problème qui peut se poser c'est si ton serveur renvoie autre chose qu'un code 404 en cas d'absence d'un robots.txt. Le robots.txt est le premier fichier que les spiders demandent sur un site Si ton serveur renvoie un code 500 (ou une autre erreur bizarre), il y a un risque que le spider n'aille pas plus loin : pour lui le site est down. Et si ça se reproduit à chaque fois qu'il passe... ton site aura de gros problèmes pour se faire indexer !
  24. Pour la sandbox, un petit article que j'ai mis en ligne hier : Sortir de la sandbox : une méthodologie Pour le problème d'accent, je pense que malgré ce qu'il indique, il est fort possible que Google distingue les deux cas. Je me souviens de campagnes Adwords, où je travaillais sur les expressions exactes. Google différenciait bien les mots avec un caractère accentué ou non pour les affichages des ads. On est bien d'accord, que tu recherches problème informatique avec ou sans accent, tu as des résultats avec les deux, même en mettant l'expression entre guillemets. Par contre, teste allintitle:problème informatique ou allinanchor:problème informatique, avec ou sans accent, tu verras qu'il sépare les résultats.
  25. Une petite lecture supplémentaire : http://www.carnets-referencement.com/index...ne-methodologie L'article est sur la sandbox et comment en sortir, mais j'ai fait un petit paragraphe sur les annuaires Je vois quotidiennement passer des messages sur ce sujet sur différents forums et je suis convaincu que les inscriptions massives dans des annuaires PR0 qui n'ont jamais aucune visite sont une vraie perte de temps. Pour le linking, la qualité sera bien plus efficace que la quantité. Je passe typiquemement plus de temps à chercher des sites intéressants qu'à faire les inscriptions / demandes de liens elle-mêmes.
×
×
  • Créer...