Aller au contenu

Kilroy

Webmaster Régulier
  • Compteur de contenus

    74
  • Inscrit(e) le

  • Dernière visite

Messages postés par Kilroy

  1. La semaine dernière, Sébastien Billard à publié un article dans lequel il analyse ce phénomène sur l'un de ses sites : la longue traîne en pratique.

    Histoire de savoir ce que ça donnait sur un autre cas, j'ai fait l'analyse du trafic d'un de mes sites dans un article intitulé : Longue traîne et ventilation du trafic.

    Au final, l'importance de la traine par rapport au trafic issu des mots clefs principaux semble dépendre de plusieurs facteurs :

    • Le nombre de pages du site
    • Le volume de contenu des pages profondes (comme le souligne l'agence Dixxit sur mon article)
    • Le degré d'optimisation des pages positionnées sur des mots clefs à fort potentiel
    • Le potentiel de trafic des mots clefs principaux
    • La popularité du site (qui favorise son positionnement)

    Etant donné l'intérêt de ce sujet, je récupérerai peut être le trafic de quelques autres sites pour l'analyser. L'évolution de la structure du trafic d'un mois sur l'autre est aussi intéressante à suivre !

  2. En regardant le ranking Alexa des annuaires, on peut se faire une idée de ceux qui peuvent apporter du trafic ou non.

    Ceci dit, les annuaires qui ont le meilleur PR et le meilleur AR sont aussi ceux qui ont le plus de pages / catégories et donc le lien est noyé au milieu de beaucoup d'autres.

    Je pense que les annuaires thématiques (limité à un sujet précis) sont potentiellement plus efficaces que les généralistes.

    Pour ce que j'ai pu en voir, les annuaires généralistes rapportent individuellement moins de visites que des liens (pertinents) sur Wikipedia ou sur des sites de "startpagina" (www.startpagina.nl)

  3. Mettre en ligne des pages de redirection invisibles des internautes sur un site est pour moi un constat d'échec. Lorsqu'on en est là, c'est qu'on a été incapable d'optimiser le site réel et qu'on n'a pas pu résoudre les problèmes techniques ou liés aux contenu qui se posaient pour le référencement.

    Certaines sociétés de référencement les utilisent encore, pour des raisons multiples :

    - à moins d'arriver très tôt dans le cycle de production d'un site, elles peuvent faire des recommandations, mais ont peu de marge de manoeuvre pour imposer des modifications nécessaires.

    - des "moulinettes" logicielles leur permettent de créer rapidement et de façon très économique un grand nombre de pages. C'est bien plus rentable que d'essayer de mettre en place un référencement plus "éthique".

    - cette technique n'est pas systématiquement pénalisée. Les Spam reports, même ciblant des sites avec des pratiques très limites, restent souvent lettre morte.

    Bref, le coup de balai entammé par Google en début d'année par la mise à l'index de BMW.de n'aura finalement pas été jusqu'au bout !

  4. Il n'y a pas de commande spécifique, mais sur moins de 500 pages, ça devrait être possible avec quelques bidouilles.

    Fais une commande site: en utilisant cette interface simplifiée et en affichant le maximum de résultats (100)

    Utilise la Web Developer Toolbar de Firefox, commande Information / View link information pour lister tes liens. Copie le résultat dans Excel

    Récupère les liens de ton sitemap

    Copie la liste dans Excel

    Compare

    Dit comme ça, c'est un peu long mais faisable.

    Si quelqu'un à une meilleure solution...

  5. Petite question : ton site est sous Drupal ?

    J'ai constaté que certains CMS ne géraient pas correctement les erreurs 404 de façon native. MODx et Typo 3 renvoient un code 200 quand un document n'est plus présent sur le site. Il faut installer un plugin pour que les 404 soient correctement gérées dans les deux cas.

    Avec ce type de fonctionnement, les moteurs gardent les anciennes URLs beaucoup plus longtemps dans leurs bases.

    Il faudrait le tester sur ton site avec live http header par exemple.

  6. L'un d'entre vous a-t-il déjà eu ce souci ?

    Oui !

    Le Site Overlay est une fonction utile, mais trrrrrès lente à l'affichage (en tous cas pour mes sites) et surtout fréquemment indisponible.

    Il faut prendre ton mal en patience et essayer à différentes heures de la journée pour tenter de tomber à un moment où les serveurs sont moins chargés.

  7. Pourrais tu plus détailler afin d y rémédier

    Le plus simple :

    Modifie

    <td class="product_name" valign="top">T shirt homme Versace manches longues noir</td>

    en

    <td valign="top"><h1 class="product_name">T shirt homme Versace manches longues noir</h1></td>

    Dans l'idéal :

    - tu n'utilises pas de tables pour faire ta mise en page

    - tu modifies le style de ta balise h1 pour qu'il reprenne celui de la class "product_name"

    ce qui te permet d'avoir :

    <h1>T shirt homme Versace manches longues noir</h1>

  8. Concernant les titres et metas je suis justement en train de faire une étude sur les mots cles afin de mettre à jour tout cela et etre plus précis sur ma thématique.

    Je vais également rajouter du texte dans certaines catégories qui n'en ont pas en ciblant encore une fois sur quelques mots cles et leur synonymes.

    Quelques autres remarques.

    Attention à tes échanges de liens. Avoir des liens à partir de toutes les pages de sites comme : www.sexyflo-hotlingerie.fr, www.satmagic.be (apparemment retirés) ou agriloisirs.com est probablement contre-productif!

    Tes titres sont dans des TD avec des class comme :

    <td class="product_name" valign="top">T shirt homme Versace manches longues noir</td>

    Des balises h1 seraient plus efficaces.

    Des textes de présentation des catégories de produits seraient surement efficaces, mais est-il possible d'en ajouter sur OS Commerce ? Je n'ai pas vu cette possibilité.

  9. Un dénommé Jim Boykin avait donné une théorie sur le classement des pages obtenues par la commande site: dans Yahoo. Pas très convaincant à mon avis.

    Pour estimer l'importance d'un lien, j'utilise comme critères :

    • Le PR de la page où il se trouve (apport de popularité)
    • L'Alexa Rank du site (apport de trafic)
    • Le texte qui se trouve dans la balise href (apport de pertinence)

    Et pour extraire toutes ces données, j'utilise backlink analyzer ou IBP

  10. Pour ma part, j'utilise un outil qui fait pas mal de choses, dont l'inscription semi-automatique dans les moteurs et annuaires : IBP/Arelis.

    Ce soft est gratuit dans sa version d'essai et rend déjà pas mal de services.

    IBP stocke dans des infos "projets" les informations à saisir dans les annuaires (nom et e-mail du webmaster, nom du site, URL, descriptions longues, courtes) et détecte automatiquement les champs dans lesquels les faire figurer quand on est sur une page d'inscription. Sur une page d'annuaire, il surligne les liens qui peuvent mener vers une page d'inscription.

    Bref, des fonctionnalités utiles (et en plus il fait pas mal d'autres choses)

  11. Ok merci Dan, mais crois tu que cela ait un effet négatif ?

    A priori, deux effets négatifs possibles :

    • contenus de la home dupliqués
    • mauvaise répartition du PR interne. Ce second problème est à priori le plus sérieux si tous les liens de retour sur la home de ton site pointaient vers /index.php
      Le PR se répartit alors comme suit:
      Liens externes -> PR sur la home
      home-> PR sur les pages internes
      pages internes -> PR sur index.php
      Normalement sur la dernière phase, il faut redonner du PR à la home pour que ça soit bien redistribué en interne

    C'est pourtant un cas très courant...

  12. J'ai recu le meme genre de courrier que wapy pour un de mes anciens clients. (Au mot pres tongue.gif )

    C'est le message type de Google dont Matt cuts parlait sur son blog.

    Je connais aussi quelques sociétés qui l'ont reçu. ;-)

    En étant gentil, ça se passe bien en général.

    Tu sais Killroy des boites de ref qui font ce genre d'optimisation en france je peux t'en citer 2 ou 3 et pas forcement celle que l'on croirait

    Le truc marrant, c'est que les pages de certaines sociétés sont tellement standardisées qu'on les repère tout de suite.

    D'autres font des optimisations plus originales qui sont plus difficiles à repérer...

  13. Laisse moi deviner dldstyle:

    • Il s'agissait d'une fausse frame activée par un javascript
    • En désactivant javascript, tu as pu voir une image qui t'indiquais : Votre navigateur n'accepte pas Javascript. Vous devez configurer le configurer pour qu'il accepte javascript, sinon, cliquez ici
    • La page que tu as vue était reliée à toute une série d'autres, placées dans le même répertoire

    Si j'ai tout bon, je sais quelle société pratique encore ce type d'"optimisations". ;)

    Leur problème c'est probablement qu'ils ont développé un outil qui fait ça très bien et qui réduit beaucoup leurs coûts de production. S'ils devaient faire des pages "optimisées" visibles, ça seraient beaucoup plus cher pour leurs clients. Et tant qu'un site n'est pas blacklisté, ce type de méthode marche encore très bien.

    Le seul hic, c'est justement le risque.

  14. J'utilise les menus présentés par Alistapart (suckerfish dropdowns) sur mon site de photos (adresse dans ma signature). Ils sont visibles des moteurs, fonctionnent sans javascript sur Firefox (il faut javascript sous IE).

    Seul hic : tous les niveaux de menu sont visibles, ce qui peut finir par faire pas mal de liens sur certaines pages.

    Sinon les éléments "&link=#&action=Parse+URL" sont rajoutés par SEO Browser pour permettre de naviguer entre les pages. Ils ne sont pas présents sur le "vrai" site. SEO-Browser ajoute également des éléments dans les liens qui pourraient faire croire qu'ils sont brisés, mais sur le site original ils sont nickels.

    Autre solution pour auditer rapidement un site: la Web Developper Toolbar sous Firefox et sa commande information / View Link Information

  15. La commande site: ne fonctionne pas du tout en ce moment sur certains data centers.

    Il faut tester sur des data centers qui ont déjà subi la mise à jour du PageRank.

    Sur son blog, Matt Cuts donne une piste sur la raison de ces problèmes:

    some data centers are using a slightly older infrastructure for a few query types that are off the beaten path a bit (info:, link:, toolbar PageRank queries, etc.)
  16. Il y a plusieurs aspects à voir dans les problèmes liés au nombre de liens par page.

    Les moteurs cherchent à optimiser le fonctionnement de leurs spiders. Vous avez déjà essayé de crawler un site de 100 pages dont chacune comporte 100 liens vers toutes les autres ? Ca oblige à vérifier sur chaque page qu'on connait déjà tout ou partie des autres URLs. C'est très contraignant.

    C'est la raison pour laquelle Google donne cette limite de 100 liens. Il est peu probable qu'il suive tous les liens d'une page qui en comporte 300.

    Bien sur, un site très populaire (fort PR) est plus haut dans les priorités des moteurs et il y aura plus de chances que l'ensemble des liens de pages très denses soient crawlés.

    Pour vous donner une petite idée du cauchemar pour les moteurs de certaines structures de sites, essayez de le visualiser avec un outil du type WebTracer. J'ai été surpris en regardant certains des miens !

    Autre considération importante : une page avec 300 liens n'est à priori pas conçue pour les internautes. Qui parviendra à retrouver la page qui l'intéresse dans 300 liens ?

    Enfin, je ne sais pas si ce type de structure est bien adapté à une bonne redistribution du PR en interne. Les pages de haut niveau qui doivent en recevoir plus que les autres (en principe) sont moins favorisées.

    Concernant l'emplacement des menus et des utilitaires :

    Avoir un menu déroulant accessible aux moteurs (en div cachés ou liste stylée) en haut de chaque page du site signifie que vous aurez :

    - les mêmes textes (ceux des liens) en haut de chaque page

    - un nombre important de liens en début de page

    On peut se demander si ça ne peut pas :

    - poser des problèmes aux moteurs pour connaître le contenu réel de la page :les textes en début de page sont privilégiés dans l'analyse

    - limiter le nombre de liens du reste de la page qui seront crawlés

    J'ai fait un essai en plaçant un de mes menus en bas de code, mais j'avoue que ça na pas fait grande différence. Je pense que pas mal de moteurs analysent non pas des pages entières, mais des blocs dans les pages et séparent les éléments de navigation des textes du corps de page.

  17. Le seul problème qui peut se poser c'est si ton serveur renvoie autre chose qu'un code 404 en cas d'absence d'un robots.txt.

    Le robots.txt est le premier fichier que les spiders demandent sur un site

    Si ton serveur renvoie un code 500 (ou une autre erreur bizarre), il y a un risque que le spider n'aille pas plus loin : pour lui le site est down.

    Et si ça se reproduit à chaque fois qu'il passe... ton site aura de gros problèmes pour se faire indexer !

  18. Pour la sandbox, un petit article que j'ai mis en ligne hier : Sortir de la sandbox : une méthodologie

    Pour le problème d'accent, je pense que malgré ce qu'il indique, il est fort possible que Google distingue les deux cas.

    Je me souviens de campagnes Adwords, où je travaillais sur les expressions exactes. Google différenciait bien les mots avec un caractère accentué ou non pour les affichages des ads.

    On est bien d'accord, que tu recherches problème informatique avec ou sans accent, tu as des résultats avec les deux, même en mettant l'expression entre guillemets.

    Par contre, teste allintitle:problème informatique ou allinanchor:problème informatique, avec ou sans accent, tu verras qu'il sépare les résultats.

  19. Une petite lecture supplémentaire :

    http://www.carnets-referencement.com/index...ne-methodologie

    L'article est sur la sandbox et comment en sortir, mais j'ai fait un petit paragraphe sur les annuaires

    Je vois quotidiennement passer des messages sur ce sujet sur différents forums et je suis convaincu que les inscriptions massives dans des annuaires PR0 qui n'ont jamais aucune visite sont une vraie perte de temps.

    Pour le linking, la qualité sera bien plus efficace que la quantité. Je passe typiquemement plus de temps à chercher des sites intéressants qu'à faire les inscriptions / demandes de liens elle-mêmes.

×
×
  • Créer...