Aller au contenu

Kilroy

Webmaster Régulier
  • Compteur de contenus

    74
  • Inscrit(e) le

  • Dernière visite

Messages postés par Kilroy

  1. Au delà de 1000 pages, Google fait preuve d'une certaine créativité, voire d'une grande fantaisie dans son affichage du nombre de résultats.

    Bref, il n'est pas fiable du tout.

    La preuve, le sitemap que tu as mis en place ne décompte que 5000 pages !

    Tu peux essayer de préciser ta requête en ajoutant des paramètres, mais rien ne dit que ce sera plus exact.

    Note que Yahoo indique 13000 pages, ce qui semble aussi un peu bizarre à moins qu'il n'y ait des pages similaires indexées.

  2. Pour répondre aux questions soulevées ci dessus : Google ne considère pas les _ comme des séparateurs.

    mon_site dans une URL sera donc considéré comme un mot unique.

    mon-site comme deux mots séparés

    Pour le site, je ne pense pas que le problème soit technique.

    Le site est récent et surtout il n'a que 2 liens entrants d'après Yahoo Site Explorer.

    A priori, les liens (et le PR) sont une des indications que Google utilise pour déterminer les sites prioritaires pour le crawl.

  3. J'utilise sitemap quasiment depuis son lancement et je suis assez dubitatif sur les bénéfices réels qu'il apporte.

    Sur un de mes sites (PR5, 300 liens entrants d'après Yahoo), impossible d'obtenir une indexation exhaustive, malgré un sitemap remis à jour régulièrement.

    Du coup,je génère un seul fichier au format txt que j'utilise pour Sitemap et pour Yahoo Site Explorer. Au moins je ne perds plus mon temps à spécifier des fréquences de rafraîchissement et des priorités...

    Sitemaps reste intéressant pour les stats de crawl et de mots clefs qui apportent du trafic.

  4. Moi je vois surtout qu'ils ont réussi à faire indexer des pages qui contiennent des mots clefs géographiques:

    http://www.google.com/search?q=www.thrifty...ff&filter=0

    On peut les repérer avec le "loccode" dans l'URL

    Voici une page distributrice qui liste ces liens

    http://www.thrifty.co.uk/cgi-bin/gen5?runp...57&loccode=

    Je ne sais pas si c'est très efficace par contre car ces pages sont plutôt mal fichues. Pas de reprise des keywords dans le corps de page, preque pas de contenu texte, pas de liens latéraux.

    Sur certaines requêtes, ça marchotte :

    http://www.google.com/search?num=100&h...amp;btnG=Search

    Europcar.co.uk qui a maladroitement repompé le système mis en place sur la France est aussi sur les rangs, mais souvent largué.

    En fait ça a l'air plutôt concurrentiel le marché anglais sur ces expressions ville + car hire: plusieurs sites semblent bien placés.

    Le site thrifty à surtout un gros problème global (que le référenceur n'a pas traité apparemment), les pages sont indéxées avec un ID de session dans l'URL.

    Du coup, Google indexe les même pages plusieurs fois:

    http://www.google.com/search?q=site:www.th...ff&filter=0

    Ils doivent avoir tout le temps des pages qui passent en supplemental avec ça...

  5. C'est quoi ton mot clef ? Hépar ?

    Je te vois 47e sur Google.fr

    Tu devrais essayer de l'optimiser sur eau Minérale Hépar, tu aurais plus de chances.

    Sinon il y a de fortes chances que le positionnement dépende surtout de facteurs extérieurs.

    Ton site n'a pas de PR affiché sur la home, Yahoo ne lui connais que 43 liens entrants.

    Le site Hépar n'a qu'un PR de 4, mais une bonne partie de ses liens doit avoir le mot clef dans le <a href> ce qui est déterminant.

    Ajouter des <h1> et améliorer la densité de mots clefs n'a rien pu changer à la popularité de ton site.

  6. Je vois ce genre de chose régulièrement en examinant en détail les liens pointant vers certains sites. Dans la plupart des cas toutefois, le contenu est affiché.

    Ce qui me choque le plus avec ce genre de sites, c'est qu'ils se contentent de recopier le contenu des pages de résutlats de Google pour être positionnés !

    Je pense que Google devrait filtrer cela en comparant les descriptifs des sites avec ses propres pages de résultats.

  7. J'ai eu le cas deux fois en 2004. Une fois pour une création de site et l'autre pour une migration sous un nouveau nom de domaine.

    C'était difficile d'expliquer ce qu'était la sandbox car le phénomène n'était que peu expliqué à l'époque.

    Nous avons axé nos efforts sur le linking des sites et ils ont fini par sortir de la sandbox.

    Malheureusement, les deux clients ont résilié leurs contrats annuels avant que nos efforts ne donnent des résultats !

    Aujourd'hui, ils sont positionnés conformément à mes prévisions :unsure:

    Merci Google !

  8. Je ne suis pas sur que ce soit un problème car de nombreux annuaires - y compris DMOZ - modifient les liens pour les faire pointer vers la racine du site. Il faudra vérifier au cas par cas pour rediriger les liens.

    Je laisse les spécialistes te donner le code de la redirection éventuelle de tonsite.tld/index.htm vers tonsite.tld, si c'est possible !

  9. Tu auras toutes les informations sur les robots.txt sur http://www.robotstxt.org/

    Le principe c'est d'interdire l'indexation de tout ce qui "commence par" une chaîne de caractères.

    User-Agent: *

    Disallow: /lofiversion/index.php/

    Interdit l'indexation de toute URL commençant par cette chaîne de caractères.

    Google (et seulement lui) prend en compte quelques fonctionnalités supplémentaires comme le précisait Matt Cuts sur son blog.

  10. Comme l'indique Sébastien, tu peux placer quelques liens à partir de sites que tu contrôles pour que les moteurs crawlent ta nouvelle structure.

    Ca ne garantit pas que ce sera pris en compte, il faudra que tes liens soient sur des pages avec un bon PR.

    Sinon lis les conditions d'inscriptions de quelques annuaires et tu verras souvent une mention "nous n'acceptons pas les sites en construction".

    Il faudra qu'il y ait un minimum de contenu pour le faire.

    Sinon certains annuaires permettent des inscriptions avec une validation immédiate.

  11. Difficile de répondre directement. Le changement total de l'arborescence d'un site rend souvent Google assez sceptique.

    Vu que ton site est populaire (PR6) et s'il est suffisamment ancien, tu pourra espérer le refaire indexer assez rapidement.

    Tu peux tenter de mettre un Google sitemap pour accélérer les choses. C'est le type de cas où ça peut servir.

    Après, il risque de se passer certain temps entre le moment où Google aura réindexé le site et les premiers positionnements. Là encore, le fait d'avoir une bonne popularité peut t'aider.

  12. Désolé si je n'ai pas été assez explicite :)

    Je reprends.

    Yahoo Site Explorer permet maintenant de soumettre une liste d'URLs d'un site à Yahoo pour indexation.

    C'est donc à utiliser quand Yahoo refuse de prendre en compte les pages du site ou n'en prend qu'une partie.

    La liste doit être dans un fichier texte appelé urllist.txt placé à la racine du site.

    Avant de prendre en compte ce fichier, Yahoo demande de mettre en place un fichier spécifique pour vérifier que la personne qui fait la demande est bien le webmaster du site.

    Voilà !

  13. Google a une procédure pour supprimer rapidement (12h) des pages de son index.

    Il faut utiliser le formulaire de désindexation .

    Bien entendu, il faut avoir la main sur le site. Google n'effectue la désindexation d'urgence que si tu as un meta robots sur la page ou un robots.txt qui donne les instructions.

    Attention à ne pas te tromper de pages, car ce form est assez radical dans son genre.

  14. Yahoo Site Explorer propose depuis peu une fonctionnalité qui ressemble beaucoup au Google sitemap.

    En haut de la page, dans un encadré, tu verras un lien "add it to my sites".

    Pour pouvoir faire un tracking spécifique, il faudra faire une "authetification" auprès de Yahoo.

    Après, tu pourras soumettre des pages à indexer : flux RSS ou listes de liens au format texte.

    Je pense que ça peut être utile, mais rien ne garantit que ça marche.

    J'ai mis en place lundi une liste d'URLs pour un site que Yahoo refuse obstinément d'indexer (il garde des pages d'un ancien domaine malgré les redirections 301). On est vendredi aujourd'hui et toujours rien. Par contre il a bien désindexé l'ancien domaine.

  15. Même si le PR se transmet comme avant, il est probablement assorti d'autres facteurs annexes. La pertinence d'un lien entrant est surement corrélée au fait que le sujet de la page cible et de la page source sont proches.

    Mais un lien externe avec une expression précise dans le <a href> reste un des facteurs ayant le plus de poids pour le positionnement de la page cible sur l'expression en question.

    Autre avantage, si les deux sites sont crawlés régulièrement (ce qui n'est pas évident de la part de Google par les temps qui courent), les résultats peuvent être assez rapides.

  16. Obtenir des liens entrants peut permettre d'atteindre des buts différents :

    • Augmenter la popularité globale du site (son PageRank)
    • Améliorer le positionnement d'une page précise

    Dans le premier cas, il s'agira de liens d'annuaires ou de liens pointant sur la home de ton site à partir de sites ayant déjà un bon PR

    Dans le second cas, le PR de la page où se trouve le lien aura moins d'importance, mais le texte du lien sera essentiel. Il faudra qu'il corresponde le mieux possible au sujet (et au <title>) de la page ciblée

  17. S'il y a deux versions du site, dont une sans le menu Flash, il suffit de référencer la version non-Flash.

    Evidemment, les internautes venant des moteurs ne verront que cette version, ce qui n'est pas forcément le but.

    En tous cas, interdire impérativement l'indexation d'une des deux versions pour ne pas avoir de contenus dupliqués.

    Autres solutions :

    - un JS qui détecte la présence du plugin Flash et affiche une version statique du menu si Flash n'est pas présent. La version statique doit être sur ta page et pas écrite par un document.write dans le JS

    - un footer qui reprend les liens principaux

    <noembed> est en effet deprecated. C'était bien pratique et d'ailleurs utilisé par certains référenceurs pour insérer des contenus cachés dans les pages.

    Une page plan du site aura un peu le même effet qu'un sitemap Google. Ca permettra de découvrir tous les liens, sans plus. Le problème c'est que les liens inter-pages et les textes des liens sont importants pour les moteurs de recherche.

  18. Difficile de conseiller sans voir le site lui même et faire quelques tests.

    Effectivement, un hébergement en nom propre est un bon départ et les 30 annuels nécessaires ne grèveront pas le budget de l'association.

    Attention, ce genre de changement radical nécessite quelques actions pour que tout se passe bien :

    - mise en place d'une redirection (301 : définitive) à partir de l'ancien site. Idéalement chaque page de l'ancien site doit rediriger vers son équivalent sur le nouveau

    - demande de modification de toutes les inscriptions annuaires

    - demande de modification des liens en place vers l'ancienne adresse

    - mise en place d'un sitemap Google et d'une liste de liens pour Yahoo afin d'accélérer la reprise en compte

    Bref, c'est une opération assez lourde et même en faisant tout ce qui précède, cela risque de prendre du temps.

  19. C'est clair que la première page rassemble la majeure partie des clics (entre 80 et 90% selon les sources) et que c'est ce qu'il faut viser.

    Mais la position dans la première page à aussi beaucoup d'importance.

    Plusieurs études le montrent.

    La fameuse étude d'eye tracking d'Enquiro

    http://www.enquiro.com/eyetrackingreport.asp

    Confirmée par Jakob Nielsen

    http://www.useit.com/alertbox/reading_pattern.html

    L'analyse des recherches divulguées par AOL (données WebRankinfo)

    http://www.webrankinfo.com/actualites/2006...n-des-clics.htm

    Une étude sur le comportement des internautes faite par Jakob Nielsen dans son dernier livre : Prioritizing Web usability. Il donne le nombre de clics par résultat dans les pages de recherche.

    http://www.useit.com/prioritizing/

    Pour vous convaincre de tout ça, essayez d'analyser votre comportement quand vous faites une recherche sur Google. Dans quels cas est-ce que vous ne cliquez pas directement sur le premier résultat ? ;)

  20. Les problèmes de duplicate content sont plus complexes qu'il n'y parait au premier abord.

    On peut raisonner en termes de pourcentage du texte similaire sur deux pages.

    Voici un outil qui permet de comparer deux pages et indique leur taux de "similarité" (c'est pas joli comme expression mais bon)

    http://www.webconfs.com/similar-page-checker.php

    Mais c'est une approche réductrice.

    Certains moteurs identifient les différentes zones de la page : header, footer, nav, contenu principal et il est probable qu'ils ne comparent que ce qu'il est logique de comparer : le contenu principal.

    Cf cet intéressant article de Todd Malicoad de stuntdubl :

    http://www.stuntdubl.com/2006/06/12/dupe-content/

  21. J'irais dans le sens de Sébastien, et te recommanderais la configuration suivante :

    tondomaine.co.uk en domaine principal

    Les autres domaines -> redirection 301 vers le .co.uk

    Il faut éviter les contenus dupliqués.

    Si tu t'adresses à un public au Royaume Uni, il indispensable d'avoir :

    - soit un domaine en .co.uk

    - soit un serveur hébergé au UK (sur une classe d'IP clairement identifiée comme "UK")

    de cette façon, les moteurs de recherche (et pas seulement Google) identifierons ton site comme "UK"

    De plus, la concurrence est à priori moins rude si on limite la recherche de cette façon.

    Il faut bien comprendre que pour rechercher un site ou un service au Royaume Uni, les anglais n'ont pas le choix. Ils sont quasiment obligés de cocher la case "uk sites only" dans les moteurs ou alors ils ont plein de résultats américains.

    Nous autres français avons moins de problèmes, à moins de tomber sur un domaine où les sites Québecquois, Suisse, Belges sont très nombreux et bien référencés.

×
×
  • Créer...