Aller au contenu

Suroptimisation ou imperfections


Sujets conseillés

Bonjour,

je me suis fait cette réflexion : un site trop bien fait pour le référencement, avec ses title, description, h1, h2, indice de densité, maillage interne, alt et title renseignés, ... Paraîtrait peut-être suroptimisé à Google,

et je me suis dit que si on laissait des imperfections, cela ferait plus naturel, qu'en pensez-vous ?

Pratiquez vous plutôt le perfectionisme jusqu'au bout ?

Lien vers le commentaire
Partager sur d’autres sites

Qu'est-ce que la perfection tout d'abord ? ;)

Je ne vois pas pourquoi un moteur pénaliserait une page "parfaite", càd une page au contenu mis en valeur de la façon la plus correcte possible s'inscrivant dans un site construit dans le respect des régles d'accessibilité et d'utilisabilité. Ce que les moteurs pénalisent, ce sont des comportements non naturels, motivés par le seul gain de visibilité.

Lien vers le commentaire
Partager sur d’autres sites

Posté (modifié)

Merci pour cet avis Sébastien,

certes, la perfection dans le respect des règles est idéale, mais souvent, je vois des collègues qui font des liens avec l'anchot-text "machin" et ils ajoutent "le machin" dans l'attribut title du lien, le title de la page linkée est "machin", la balise h1 est à nouveau "machin", puis les balises h2 contiendront obligatoirement "machin", la balise meta description commence par "machin", et le fil d'ariane de la page fait un lien vers elle même sur le terme "machin".

J'ai le sentiment que ce genre de perfection n'est pas valable pour Google. En tous cas pas naturel...

Pour moi c'est peut-être plus naturel par exemple, de mettre quelque chose d'un peu différent dans la balise h1, par exemple "truc muche" qui veut dire presque la même chose... C'est cela que j'appelle l'imperfection naturelle. Pour bien montrer à Google qu'un humain est à l'origine de cette page et pas une mécanique.

What da ya think ?

Modifié par campagne
Lien vers le commentaire
Partager sur d’autres sites

Si ton expression-clé apparaît à une fréquence telle que la lecture de la page en devient pénible, alors oui c'est un bon indicateur que tu es très certainement dans la suroptimisation. Mais je ne pense pas qu'il faille renoncer à une optimisation pour le référencement pour paraître naturel, tant que cette optimisation fait aussi sens pour l'utilisateur.

Dans ta balise <h1> par exemple, il faut être le plus explicite et le plus clair possible. Donc favoriser la forme la plus employée par ton lectorat. Dans le reste du contenu, tu peux élargir ton champ lexical en insérant des synonymes et termes conceptuellement proches.

(Et l'attribut title ne sert à rien pour le référencement).

Lien vers le commentaire
Partager sur d’autres sites

Merci Sébastien,

pour l'attribut title sur un lien, j'avais eu cette discussion ici :

http://www.webmaster-hub.com/index.php?showtopic=41861

Personnellement je pensais aussi que ça ne sert à rien, voir même que c'était du gavage d'oie !

Mais un autre SEO (qui gère des sites nationaux assez importants) m'a dit qu'il avait expérimenté et constaté des résultats impressionnants après quelques semaines...

J'ai lu aussi que ça aidait à déterminer la thématique des pages linkées...

Pour ce qui est de la suroptimisation pure et dure en tous cas, j'ai remarqué qu'il ne faut surtout plus s'amuser à dépasser un taux de densité disons de 8 ou 10% grand maximum pour un texte moyen, sinon Google nous donne des pénalités.

C'est aussi pourquoi je cherche à savoir ce qu'il est bon de faire ou de ne pas faire pour bien optimiser une page sans trop tomber dans l'excès.

Google doit avoir des curseurs qui se mettent dans le rouge si on dépasse la limite, et pénalise quand plusieurs curseurs l'ont dépassée. J'ai l'impression qu'ils sont de plus en plus sensible...

Lien vers le commentaire
Partager sur d’autres sites

bonjour,

une page n'est "suroptimisée" que quand des pratiques douteuses sont mises en place, à mon avis.

que tu aies des h1 h2... des title, des anchor, des alt... si tout cela est en rapport avec un contenu riche, lisible et accessible par un humain, aucun risque de passer pour un "suroptimiseur" :)

il ne faut juste pas abuser de "title" par exemple quand eux ci n'apportent rien de plus a la navigation du visiteur.

quant aux "curseurs" de google...personne ne le saura jamais !

en vérité je vous le dis... l'honneteté paye avec GG :smartass:

Lien vers le commentaire
Partager sur d’autres sites

bonjour,

une page n'est "suroptimisée" que quand des pratiques douteuses sont mises en place, à mon avis.

que tu aies des h1 h2... des title, des anchor, des alt... si tout cela est en rapport avec un contenu riche, lisible et accessible par un humain, aucun risque de passer pour un "suroptimiseur" :)

déjà, h1, h2, h3 est déjà une suroptimilisation. Pas un webmaster débutant ne sais que ca existe. ;)

En deuxième, GG semble plutôt méchament virer les pages (et sites :blush: ) qui utilisent des trucs de webmasters connus depuis des lustres ... et pas forcément QUE les techniques douteuses. Toutr ce qui semble être fait pour passer

Naturel, les liens, mais ... naturels les textes aussi.

Ca va être dur de référencer un site en restant :wub: de GG.

:blush: on va finire par tous reprendre à zero. Pas de liens d'annuaires, pas de lies de copains, pas d'écahange de liens (même s'ils sont pas voulus (quitte à mettre un HTaccess ou mieux, interdie via la configuration apache l'adresse IP).

D'accord, je blague (un peu) mais tout se passe depuis novembre comme si GG cassait tous les trucs, anciens ouy nouveaux, utiles ou pas mais repris dans les forums: les mauvais sites comme les bons.

Lien vers le commentaire
Partager sur d’autres sites

Pour ce qui est de la suroptimisation pure et dure en tous cas, j'ai remarqué qu'il ne faut surtout plus s'amuser à dépasser un taux de densité disons de 8 ou 10% grand maximum pour un texte moyen, sinon Google nous donne des pénalités.

J'ai déjà abordé ce sujet plusieurs fois sur le Hub. C'est de la pure légende urbaine de référenceurs que se baser sur la densité.

Déjà, les moteurs ne fonctionnent absolument pas en termes de densité. Ils analysent les occurrences sur la page, dans le site, chez les concurrents, etc. Il n'y a pas du tout le même rapport lorsqu'il est question d'occurrences ou de densité.

L'imperfection fait partie du naturel. Un texte naturellement rédigé peut exploser tes critères de densité, et pourtant il ne sera absolument pas spammy.

Compose un bon titre, fais gaffe au Hx, mais laisse ton texte être le plus limpide et naturel possible.

Lien vers le commentaire
Partager sur d’autres sites

déjà, h1, h2, h3 est déjà une suroptimilisation. Pas un webmaster débutant ne sais que ca existe. ;)
Ne prends pas s'il te plaît ton cas pour une généralité.

- h1, h2, h3, etc. ne sont pas des suroptimisations.

Ce ne sont pas non plus des "suroptimilisations" (comme tu le dis), puisqu'en effet ce terme n'existe pas en français.

- Lorsque j'étais débutant, j'ai commencé par apprendre <p> et les différents headers (h1, h2.... h6), donc au moins UN webmaster débutant (moi) sait que ça existe. Avec un peu de chance, je n'étais pas le seul webmaster débutant à suivre le même cours, il y a donc plusieurs webmasters débutants qui savent que ça existe.

Que toi, tu n'aies pas su, étant débutant, l'existence des balises de headings est une chose.

Mettre tout le monde dans le même panier que toi en est une autre.

Bien cordialement. :)

Lien vers le commentaire
Partager sur d’autres sites

En fait il n'y a pas vraiment à faire gaffe avec les <hn> tant qu'on utilise ces balises conformément à ce pour quoi elles ont été conçues, çàd les titres et sous-titres.

Lien vers le commentaire
Partager sur d’autres sites

bonjour,

une page n'est "suroptimisée" que quand des pratiques douteuses sont mises en place, à mon avis.

que tu aies des h1 h2... des title, des anchor, des alt... si tout cela est en rapport avec un contenu riche, lisible et accessible par un humain, aucun risque de passer pour un "suroptimiseur" :)

Tout à fait d'accord, pense humain d'abord et robot après, tu sauras si tu es dans la suroptimisation.

en vérité je vous le dis... l'honneteté paye avec GG :smartass:

Ouais...ça, j'y crois un peu moins...

Lien vers le commentaire
Partager sur d’autres sites

Bien sûr qu'un utilisation classique des Hx ne prête pas à la polémique, mais les "conseils" en référencement suggèrent bien trop souvent d'optimiser ces balises.

Au sujet du détournement W3C au profit du référencement, je ne peux que rappeler les propos de Raphaël

http://www.7-dragons.com/archives/standards-web-w3c.php

Lien vers le commentaire
Partager sur d’autres sites

En fait, j'ai un peu le même sentiment que Ybet : Google aligne les pages et les sites qui dépassent un peu les limites du raisonnable, sur ma page cabane, par exemple, j'avais plus de 15% des mots qui étaient justement "cabane". Je me suis forcé à descendre en dessous de 10 car avant novembre, j'étais en première page de Google et maintenant je suis à perpette la galette. J'attends de voir si je vais remonter après cette action.

C'est pourquoi je suis venu en parler ici, pour avoir d'autres avis.

Bien sûr, si on reste honnête et qu'on écrit naturellement tout se passe bien avec Google : mais pas tant que ça je trouve...

Je ne veux pas dire qu'il faut tricher, au contraire !

Mais quand on sait ce qu'il faut faire pour être un peu mieux positionné, on a tendance à le faire quoi !

Lien vers le commentaire
Partager sur d’autres sites

bonjour campagne,

a mon avis, c'est l'accessibilité qui "coince"....

deja, un petit coup de w3c ça fait pas de mal....

ensuite, la navigation. essaye de structurer ou de faire un menu auquel on puisse se raccrocher.

et pour finir, comme tu dis tu peux largement "suroptimiser" avec des H1 H2....

le contenu de ton site est riche, mais il faut le mettre en valeur. ce n'est pas si simple je sais.

bon courage ! ;)

Lien vers le commentaire
Partager sur d’autres sites

Ne prends pas s'il te plaît ton cas pour une généralité.

- h1, h2, h3, etc. ne sont pas des suroptimisations.

Ce ne sont pas non plus des "suroptimilisations" (comme tu le dis), puisqu'en effet ce terme n'existe pas en français.

- Lorsque j'étais débutant, j'ai commencé par apprendre <p> et les différents headers (h1, h2.... h6), donc au moins UN webmaster débutant (moi) sait que ça existe. Avec un peu de chance, je n'étais pas le seul webmaster débutant à suivre le même cours, il y a donc plusieurs webmasters débutants qui savent que ça existe.

Que toi, tu n'aies pas su, étant débutant, l'existence des balises de headings est une chose.

Mettre tout le monde dans le même panier que toi en est une autre.

Dudu, suis pas franchement un débutant :smartass: et je sais que tu ne l'est pas non plus :unsure: La même chose existe en Word et pas 1 utilisateur sur 100 ne les utilise. Mais quand le robot arrive sur une page, qu'il trouve des segmentations en balises h1, h2, .... l'algorytme doit se rendre compte que le site a pas été fait par un débutant, mais au moins par quelqu'un qui a lut quelques trucs :whistling:

Si si Google récompense l'honnêteté, c'est juste qu'il se laisse régulièrement abuser :)

et que maintenant, il se méfie tellement que tout ce qui est fait correct (sans esprit de tricherie aucune) est vu avec méfiance .... Ca explique pas les pénalités des derniers mois, mais au mpoins que Google modifie son algorythme pour essayer que ces techniques ne fonctionnent plus. Je ne lui reproche pas ses modifs, mais bien les dégats collatéraux.

Lien vers le commentaire
Partager sur d’autres sites

Sans rentrer trop dans des tests, et sans avoir la science "infuse".

Les déclassement des sites moyens ont l'air de venir de différentes parties. GG découpe les pages en deux parties, la partie navigation (normlement les liesn plus le header reprenant le logo du site) et le contenu.

. Trop de liens avec peu de texte ou contenu -> out

. duplicate content dans la partiie contenu (souvent les annuaires) -> out

. répétition des parties de liens sur toutes les pages, surtout avec un nombre de liens importants -> out. On a longtemps pensé que c'était les annuaires qui étaient visés depuis novembre mais d'autres sites similaires (vente en ligne, annonces, ....) sont dans le même cas.

Mais je connais aussi des contre exemples, lié au PR peut-être. Les gros sans sortent plutôt mieux (quoique quelques vieux PR 6 sont tombés aussi).

Lien vers le commentaire
Partager sur d’autres sites

et que maintenant, il se méfie tellement que tout ce qui est fait correct[ement] [...] est vu avec méfiance ....
J'en conclus donc qu'il ne faut pas écrire ces pages correctement afin d'être pris en compte sans méfiance par Google.

Non ?

Et pour les autres moteurs de recherche (genre Yahoo, Exalead, Live, Cuill (!) ), tu penses que je peux écrire correctement ou alors mon contenu va être vu avec méfiance?

PS: ne change pas de dealer, c'est de la bonne.

Lien vers le commentaire
Partager sur d’autres sites

Je suis assez d'accord avec Ybet. Lorsque j'étais webmaster sans m'occuper du tout de référencement, je n'appliquais pas de balises h1, h2... Je me contentais de mettre mes titres et sous-titres en gras ou avec des styles particuliers pour que les internautes les visualisent (car déjà si les webmasters n'utilisent pas tous ces balises, les visiteurs ne se rendent même pas compte de leur existence, surtout depuis l'application de feuilles de styles qui changent totalement leur apparence).

Ensuite, lorsque j'ai commencé à apprendre le référencement, j'ai compris qu'il valait mieux que je les utilise avec mes expressions clés pour que les moteurs positionnent mieux mes pages...

Je pense donc qu'un certain nombre de webmasters n'utilisent certaines balises que pour le référencement, et pas pour les utilisateurs, ce qui fait que Google s'en méfie et qu'il n'y accorde plus l'importance qu'elles avaient auparavant (en plus avec tous les abus : h1 masqués par des feuilles de style, liens dans les balises...).

C'est assez logique de sa part mais, à force de mettre des filtres de ce type, Google va se couper de tous les webmasters "sérieux".

Lien vers le commentaire
Partager sur d’autres sites

Soyons sérieux juste 2 minutes.

Qu'il y ait eu des abus de h1 (et il y en a toujours, je le vois quasi quotidiennement), et que les moteurs prennent leur précaution à ce propos:

Ça, on est d'accord. Plus que d'accord, parfaitement d'accord.

Mais là, vous êtes en train de dire qu'il faudrait écrire

<div class="GrosTrucEnGras">le titre de ma page</div>

plutôt que

<h1>le titre de ma page</h1>

Et lorsque vous dîtes ça, vous le dîtes sérieusement sans avoir l'impression de sombrer dans la caricature ?

PS: comme je le demandais plus haut, vous pensez que pour Cuill et Yahoo, je peux prendre le risque inconsidéré de mettre un h2 dans une page (hé oui, j'aime vivre dangereusement!) ou bien je risque les foudres divines ? (bon, je plaisante bien sûr).

Lien vers le commentaire
Partager sur d’autres sites

Je suis bien loin de la suroptimisation. Perso, je consacre de moins en moins de temps à l'optimisation du code.

je me donne à fond dans la chasse aux "bons liens":

à savoir des sites déja bien placés dans GG et qui correspondent à ma thématique.

Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...