Aller au contenu

Kilroy

Webmaster Régulier
  • Compteur de contenus

    74
  • Inscrit(e) le

  • Dernière visite

Messages postés par Kilroy

  1. Bonjour,

    Ma problématique est la suivante :

    Un de mes clients à actuellement 2 sites différents sur des hébergements mutualisés OVH.

    Ces sites sont gérés via un CMS (pour l'un) et une appli en PHP (Quelques pages statiques + gestion de réservations en ligne)

    Mon client envisage une opération promotionnelle via un site qui lui apportera un pic de trafic important sur une période assez courte.

    D'après les estimations du prestataire, on pourrait avoir jusqu'à 100 000 visites / jour sur les sites, contre environ 1000 actuellement.

    J'envisage de passer les sites sur un hébergement dédié.

    Quelles spécifications retenir pour le serveur et sur quelles bases ?

    Merci de vos lumières.

  2. Je me suis souvent posé la question du Charset et des moteurs car en crawlant les sites ou en les examinant avec différents outils, j'ai souvent des erreurs sur les caractères accentués.

    Un petit exemple avec SEO Browser sur Webmaster Hub.

    Ces erreurs n'apparaissent pas quand on regarde les pages avec un navigateur classique et pas non plus quand elles sont indexées par les moteurs.

    A priori le charset renvoyé par le serveur n'est pas le même que celui spécifié dans les pages... C'est assez courant si on en juge par le nombre d'erreurs dans les emails issus de formulaires.

    Un truc, par contre, il faut penser à placer la déclaration du charset au dessus du <title>.

    Sinon, j'ai donné aussi pour les problèmes d'encodage avec MODx, notamment lors de passages site en dev-> site en prod. La galère !

  3. Le W3C indique que le H1 doit être utilisé pour le titre du document en cours sur cette page.

    <h1> is the HTML element for the first-level heading of a document

    Placer le <h1> autour du titre du site revient à donner le même titre à tous les documents. C'est bien moins dommageable que faire la même chose avec la balise <title>, mais on perd probablement un peu d'information quand même.

  4. On peut détecter pas mal de choses en utilisant des outils de crawl de site destinés à générer des sitemap Google. Certains fournissent des infos intéressantes :

    • URL de la page
    • Title (donc doublons de title)
    • Niveau de profondeur
    • Nombre de liens entrants et sortants
    • header renvoyé (200,404,301 etc.)
    • Type de document (pour le non HTML)

    Evidemment, ces outils pourraient être améliorés, notamment pour détecter le texte des liens internes, mais en récupérant les données ci dessus on peut déjà identifier pas mal de problèmes... sans même regarder le site lui même.

    Pour ma part j'utilise XML Sitemap. C'est en Java, pas super stable, mais le filtre d'exclusion de documents est bien plus pratique que celui de Xenu. Il n'examine pas les images, les liens sortants... et fait moins de timeouts que Xenu.

    Pourquoi pas un outil payant, mais il devra m'en donner un peu plus pour mon argent !

  5. Après avoir examiné les liens de concurrents de mes clients, je doute de plus en plus de la subtilité des critères utilisés par Google pour évaluer le linking.

    Deux facteurs jouent beaucoup dans le positionnement sur des expressions concurrentielles :

    • Ratio Nombre de liens avec l'expression / nombre de liens avec d'autres textes
    • Utilisation du terme exact recherché dans les liens

    C'est bien plus important que le nombre brut de liens ou le PR qui en découle.

    Cas pratique : j'ai examiné 1600 liens du premier site sur mutuelle et comparatif mutuelle. Il dispose de

    • 500 liens avec le texte - mutuelle - (avec les tirets)
    • 100 liens avec mutuelle.
    • 360 liens avec guide comparatif de mutuelle

    Ces textes représentent donc 960 liens sur les 1600 que j'ai examinés. Et beaucoup des autres textes utilisés sont des variantes !

    Pour moi, ce critère de texte des liens à un "effet de levier" très important dans Google et il est aisément manipulable (sauf qu'il faut du temps pour obtenir tout ça). Il faut par contre veiller à ce que les liens avec le texte voulu soient plus nombreux que les autres sinon ça ne marche pas. Je pense que ce ratio est bien un critère qui a du poids.

    Avec ces techniques, un petit site peut faire face au site d'une marque qui aura bien plus de PR que lui. Quand on regarde les premiers sur mutuelle c'est typique : seulement 2 sites de grandes marques connues sur le top 10 (Groupama et MMA).

    Evidemment, la question de la pertinence pour l'internaute est posée. Quand on crée un site avec un contenu pertinent et qu'on récolte des liens spontanés, on ne contrôle pas le texte des liens et c'est vite pénalisant pour le positionnement ! Le contraire de ce qu'il faudrait !

    Il faut que je fasse un article sur ce sujet sur mon blog, tiens...

  6. Le site mentionné à 31000 liens entrants. 28000 pointent vers sa homepage. J'ai fait un test rapide sur 100 liens vers la home, ils sont tous placés sur des textes pertinents : assurance crédit, assurance prêt, assurance crédit immobilier, assurance prêt immobilier.

    Pour lutter contre ça, il ne suffit pas de répéter les mots clefs dans tes contenus. Créer des pages supplémentaires sur ton site n'apportera pas non plus directement de pertinence supplémentaire à ta home. Ton seul moyen c'est de disposer de plus de liens que lui, ou de liens de meilleure qualité. Avec 31000 liens ce site n'a qu'un PR4, donc une bonne partie de ce qu'il a obtenu est sur des pages PR0. En plus, une bonne partie de ses liens est réciproque si j'en juge par son "annuaire".

    L'autre stratégie c'est effectivement d'obtenir de la popularité par le biais de liens spontanés et unidirectionnels... mais ça prend du temps

  7. Même en les rendant indexables, les popups posent des problèmes pour le référencement :

    - ils n'ont pas de barre de navigation : une fois que les internautes y sont arrivés via un moteur, ils font back ou pire, cliquent sur le bouton "fermer la fenêtre".

    - ils s'afficheront en plein écran pour les internautes y accédant à partir des moteurs. Attention à voir ce que ça donne au niveau design.

    - ils reçoivent en principe un lien entrant et le site ne leur transmet donc quasiment pas de "link juice".

    Bref, je pense qu'il vaut mieux ne pas les utiliser pour des contenus destinés à être référencés et au contraire y mettre des choses que les moteurs ne doivent pas indexer (fonctionnalités uniquement destinées aux internautes par exemple : form de contact, envoi à un ami)

  8. Je pense que la qualité du code est souvent du même niveau que les autres aspects du développement d'un site. En général quand un concepteur de site est exigeant sur la qualité de son code, il fait attention à beaucoup d'autres aspects qui impactent la qualité du référencement.

    A l'inverse, des sites avec des erreurs de code, un montage en table, des URLs invraisemblables, et un développement anarchique ont en général des soucis de référencement.

    Enfin, il y a des erreurs de code qui peuvent avoir des conséquences importantes, notamment le doublement de certaines balises (pages avec deux "body" ou deux "title" par exemple).

  9. J'ai un site pour lequel je suis bien référencé. Je me suis aperçu il y a peu qu'il était 4e sur un mot, qui donne 1 200 000 résultats, sans homonymie ou confusion possible.

    Le nombre de résultats n'est pas un critère réellement objectif pour évaluer l'intensité concurrentielle sur une expression. Utilise plutôt allintitle:expression pour voir le nombre de sites qu'il y a en face.

    Pour le reste, je considère que le bon référencement d'un site dépend de trois facteurs :

    • Techniques (facilité d'indexation, optimisation des documents, structure du site)
    • Contenus (structure du site, libellés)
    • Linking (volume et qualité des liens entrants)

    Un bon référenceur s'occuppera de ces trois aspects. Il le fera en tenant compte des spécificités du site (où il en est sur les trois points) et des attentes du client. Sur ce point, il faut voir comment on va mesurer les résultats. Se baser uniquement sur du positionnement sert parfois surtout à satisfaire l'ego du client, mais dans certains cas, il sera difficile de l'en faire démordre.

    La plus grande difficulté de ce métier est à mon avis d'avoir suffisamment d'influence et de crédibilité auprès des clients et de leurs prestataires (agences web, développeurs en interne) pour parvenir à obtenir les modifications nécessaires sur le site. Plus les sites sont gros, plus les clients sont des sociétés importantes, moins ils ont l'habitude du web, plus c'est dur !

    Pour certains clients, habitués à se regarder le nombril, le référencement entre dans une démarche plus globale qui consiste à prendre (enfin) en considération les visiteurs de leurs sites et à réfléchir aux moyens de satisfaire leurs attentes, par exemple en proposant des contenus adaptés à ce qu'ils cherchent. Le référencement est très lié à l'utilisabilité (ou usabilité) d'un site. Un site utilisant des méthodos de conception orientée utilisateurs aura bien moins de soucis pour les deux premiers points de son référencement.

    Dernière chose, (au risque de me prendre de la flak), quand je bossais chez Aposition, ils avaient fait une étude sur les caractéristiques des pages bien placées dans les moteurs. A l'époque (2004), on avait constaté que les moteurs arrivaient à indexer et positionner des pages comportant des erreurs de code (hormis certaines, qui sont rédhibitoires) et que finalement la qualité de celui ci avait un poids assez faible, tout comme les balises H. Le site SEOMOZ qui a fait une enquête sur les critères de positionnement dans Google donne un poids faible (1.4 sur 5) au fait que le document soit valide W3C. Citation extraite du doc :

    Validation? Please, oh please, make it go away. Validation zealots just plain freak me out. Walking under ladders, breaking mirrors and stepping on cracks probably has more influence on your SERPs than validation
  10. Il faut en effet consulter un annuaire d'annuaires et relever ceux qui te semblent le plus intéressants. Au fil du temps, j'ai listé les annuaires en leur donnant une note basée sur de nombreux critères. Les mieux notés sur les plus intéressants.

    Tu peux te baser sur :

    - le PR de leur homepage. Un bon indice de qualité car de nombreux annuaires ont vu leur PR diminuer au passer à 0, ce qui n'est pas anodin

    - le PR des pages internes, en particulier celles où tu comptes inscrire ton site

    - l'Alexa Rank : pour évaluer leur potentiel de trafic. Mais en dehors de DMOZ, j'ai rarement vu des annuaires apporter du trafic

    - le type de lien : les annuaires qui font des redirections sont bien moins intéressants

    - la gestion des catégories : certains annuaires ont trop peu de profondeur ou des catégories mal définies. Du coup, il y a des centaines de sites dans les catégories avec des dizaines de pages consécutives pour les atteindre. Pas très efficace.

    - le texte des liens : certains annuaires font le lien sur l'URL du site. Là encore, c'est moins intéressant que de pouvoir choisir un titre

    - le type d'inscription : automatique, sans lien réciproque, avec lien réciproque, payante. A toi de voir, mais les liens réciproques obligatoires ne sont pas un gage de qualité.

    Bref, il faut passer du temps pour trouver les annuaires, les qualifier et trouver les catégories où inscrire ton site. Après ça, les inscriptions sont l'aspect le plus rapide.

    Les annuaires ne sont pas la panacée, mais sur des expressions moyennement concurrentielles, ils peuvent faire la différence. Ils ont certains avantages :

    - en général on peut se débrouiller pour avoir des liens avec un texte précis, contenant ses mots clefs

    - sur la plupart des annuaires, les liens sont unidirectionnels, ce qui est mieux qu'un échange

    - les taux de retour peuvent être meilleurs que des demandes d'échanges de lien auprès de sites tiers

    - pour certains sites, il n'y a pas vraiment d'autre source de liens

    Une dernière chose : il faut faire l'inscription DMOZ, mais ne pas en attendre grand chose. DMOZ à un fonctionnement qui devient totalement archaïque sur on le compare à des annuaires "classiques" et des validations qui prennent 18 mois...

  11. Pour le positionnement, tu peux utiliser IBP (www.axandra.com). La version gratuite ne permet toutefois pas d'interroger plusieurs moteurs à la fois.

    Je ne sais pas trop quelle info tu souhaites pour les backlinks, mais tu peux tester SEO Spyglass qui fournit de bonnes infos... sur un maximum de 1000 liens.

    Si tu cherches juste à relever le nombre de liens des sites concurrents, je ne pense pas qu'il y aie d'outil pour le faire en même temps que positionnement, mais on ne sait jamais...

  12. J'utilise la galerie Exhibit Engine (une ancienne version customisée) sur mon site de photos.

    Exhibit engine permet notamment de disposer de textes de présentation pour les galeries et les photos, ce qui ne semble pas être le cas d'autres scripts plus simples. Il prend en compte de nombreuses métadonnées sur les prises de vues et autres. Il dispose de champs pour les meta description et keywords (je réutilise ce dernier pour autre chose).

    Pas d'URL rewriting par défaut. J'ai dû bidouiller ma version pour le mettre en place. Les photos ont un alt tag qui reprend à priori le titre et l'auteur. Mais c'est facilement customisable quand on connait un peu.

    Ce système n'est pas parfait, mais une fois modifié, il répond presque à mes besoins.

    J'ai depuis longtemps un projet assez précis de galerie d'image conçue pour le référencement incluant des meta données exhaustives sur les images (hors données EXIF), mais je n'ai pas le temps et pas de développeur PHP compatissant sous la main.

  13. Si tu veux te positionner sur deux langues, la meilleure solution est d'utiliser réellement les deux noms de domaines et de faire en sorte qu'ils donnent accès à l'ensemble des pages de la version linguistique.

    www.domaine.com donne accès à tout ton site EN

    www.domaine.fr donne accès à tout ton site FR

    Et tes liens de changement de langue font passer de l'un à l'autre.

    C'est plus efficace qu'un paramètre passé dans les URLs ou un sous répertoire pour les différentes versions linguistiques.

    Attention également à l'extension choisie qui est vitale pour apparaitre dans les outils de recherches nationaux. Difficile par exemple d'apparaitre sur google.co.uk avec "uk websites only" coché si tu n'as pas un domaine en .co.uk ou un serveur dans ce pays.

  14. Sur un même site, le taux de rebond peut être très différent d'une section à l'autre, voire même d'une page à l'autre.

    Ca dépend de l'information qui est fournie, du nombre d'options proposées aux visiteurs sur la page.

    Ce qui est intéressant à mesurer par contre, ce sont les variations du taux de rebond sur une même page dans le temps, à la suite de changements par exemple.

  15. Les pays bas c'est le pays des "Startpages", des collections de liens thématiques concentrées sur une page. Elles ont tendance à remplacer les annuaires.

    Quelques uns des sites les plus connus :

    http://www.startkabel.nl/

    http://www.startpagina.nl/ ou http://www.pagina.nl/

    Tu as une liste assez complète ici :

    http://www.portalindex.nl/

    Sur chaque site il faut trouver une page (en sous domaine en général) qui correspond à ta thématique

    Ces startpages avaient été évoquées dans cet article du Google Webmaster Central : http://googlewebmastercentral.blogspot.com...startpages.html

  16. J'aurais tendance à dire que si un moteur place Wikipédia en première position sur une requête, c'est qu'il n'a trouvé aucun site spécialisé suffisamment pertinent.

    Wikipedia est bien structuré, avec un volume de contenus considérable, un linking interne entièrement sémantique, une popularité énorme, ce qui lui donne des avantages sur une masse de concurrents qui sont forcément moins bons sur ces points.

    Par contre, Wikipedia est généraliste. Des sites spécialisés doivent pouvoir le battre s'ils sont correctement conçus techniquement, ont des contenus bien rédigés et bien organisés, et un linking correct.

    Lorsqu'on fait des audits sectoriels avec des tests sur 100 mots clefs, Wikipedia ressort correctement placé sur des thématiques non marchandes, mais jamais premier au global. Quand c'est le cas, on peut se dire qu'il y a des places à prendre !

  17. Sébastien, ta méthode à l'air populaire. Il y a un article sur SEOMOZ qui donne aussi une méthodo de recherche de mots clefs basée sur l'extraction de contenus de sites. Personnellement, j'ai du mal avec les outils sémantiques, mais y'a pas, il faut que je m'y mette !

    Sinon, pour les applications pratiques, une fois une liste d'expressions définie, je les classe avec des critères bien précis (thématique, catégorie pertinents pour le groupe de mots clefs) et je finis par définir une arbo des contenus à partir de ces thématiques. Si elles sont cohérentes par rapport aux contenus potentiels du site, l'arbo définie est souvent très convaincante !

  18. Je fais toujours les mêmes tests avec différents CMS et je m'aperçois régulièrement qu'il y en a peu qui gèrent par défaut certains aspects correctement :

    - est-ce qu'ils renvoient bien un en-tête 404 pour une erreur 404 ? (beaucoup renvoient un code 200)

    - est-ce que les pages de fonctionnalités spécifiques (envoyer à un ami, imprimer, etc...) sont indexables dans la configuration par défaut ?

    - est-ce que le lien de retour à la home prédéfini pointe sur la racine du site ou sur un fichier

    - est-ce qu'ils ont des URLs contextualisées ? (avec les risques de doublons de pages que ça suppose)

    J'avais été agréablement surpris en testant les capacités de référencement de MODx.

    J'ai fait des audits référencement sur des sites basés sur d'autres CMS (Joomla, SPIP, Typo3, YACS) et constaté que :

    • Les solutions existent bien pour la plupart des problèmes ci dessus
    • Elles ne sont pas appliquées dans les configurations par défaut et la nombre de sites ne les mettent pas en oeuvre

    Qu'en est-il pour Drupal sur les points ci dessus ?

  19. Un article de Seomoz qui compile les avis de 37 SEO américains (dont Aaron Wall, Jill Whalen, Dan Sullivan... bref pas des plaisantins) sur les critères de positionnement dans Google : Search engine ranking factors

    Chaque critère est noté et le degré de cohérence des avis est également mentionné.

    Le critère HTML Validation of Document (to W3C Standards) n'a qu'une importance assez faible (1.4 sur 5) et tous les référenceurs sont d'accord là dessus.

  20. Après avoir constaté que mes formulaires étaient utilisés comme relais pour du SPAM, j'ai pris les choses en main et j'ai mis en place une vérification des éléments saisis dans les champs par PHP.

    Après avoir lu les conseils de ce document , j'ai donc interdit les sauts de lignes dans tous les champs de mes formulaires qui classiquement en comptent trois : nom, email, message

    Je filtre les caractères :

    \r

    \n

    %0A

    %0D

    0x0A

    0x0D

    Pour les champs nom et email, pas de problème.

    Par contre, dans le champ message, ça empêche mes visiteurs de mettre des sauts de ligne dans leur message. Logique, mais gênant pour eux !

    Comment faire ? Bloquer le contenu du champ 'message' est il bien nécessaire ? Des headers peuvent ils être injectés à ce niveau ?

×
×
  • Créer...