Aller au contenu

Taux de mots-clés


nobilis

Sujets conseillés

Bonjour,

Je voudrais optimiser le positionnement de mon site.

Quel taux mots-clés / texte dois-je appliquer ? Plus clairement, quel est le pourcentage de mots clés à mettre dans un texte (rapport nombre de motx-clés sur nombre de mots totaux) ?

Y a-t-il une longueur de texte idéal ?

Merci

Lien vers le commentaire
Partager sur d’autres sites

bonjour nobilis,

Je ne vais parler que de Google :

Concernant le taux pur de densité du mot clef sur la page, tu peux cibler 3-5% pour rester "naturel", mais j'ai poussé des pages jusqu'à 20% sans obtenir de pénalité (requêtes non commerciales donc sans doute moins enclins à être filtrées).

Bien sûr, il faut admettre qu'une page à 20% de densité n'est pas vraiment "lisible" par un visiteur humain. Je ne conseille pas un tel taux.

Je te conseille aussi de cibler 1 seule requête par page pour être + efficace.

Concernant la longueur du texte, il n'en faut pas tellement pour faire réagir Google. Je dirais que 15-20Ko de texte est plus que suffisant.

Si tu essayes la nouvelle version de l'excellent SeeURank, tu as un nouvel outil qui te permettra d'étudier la densité de mots clefs de ton site et de tes concurrents (surtout tes concurrents d'ailleurs ;))

Tu trouveras SeeURank par ici http://www.yooda.com/

Lien vers le commentaire
Partager sur d’autres sites

Salut,

Y a une astuce que j'ai remarquée en utilisant, justement, le logiciel de Yooda. Etant donné que dans ce calcul, on ne tient pas compte des mots courants tels que "le" "la" "les" "un" "une", etc, on peut mettre le mot clé à 100% de densité dans un titre, sans pour autant faire un titre brutal. Par exemple dans le titre : "Une voiture pour tous", le mot "voiture" est à 100%, puisque les autres mots sont des mots courants. Reste à savoir si Google néglige ces petits mots de la même façon que le logiciel de Yooda :?:

tu peux cibler 3-5% pour rester "naturel",

Tu as sans doute raison, mais déjà il faut s'accrocher pour réussir à placer un mot à 5% de présence... Une fois sur vingt c'est beaucoup. J'ai fait des essais, justement avec le logiciel gratuit de Yooda, et pour arriver à 5% il faut beaucoup d'imagination, en rajoutant le mot un peu partout... pas facile de rester naturel...

Cela dit, c'est vrai que ça a l'air d'être un critère très important.

Il est également important que le mot clé apparaisse parmi les premiers du texte.

Ernestine

Lien vers le commentaire
Partager sur d’autres sites

OK Merci.

Il faudrait donc rester entre 3 et 5% pour rester naturel.

Mais si on monte plus haut, jusqu'à 20%, par exemple, est-ce qu'on constate une plus grande amélioration du positionnement ?

Par ailleurs, qu'en est-il des filtres sur les requêtes concurrencielles ?

Lien vers le commentaire
Partager sur d’autres sites

Salut à tous,

Une fourchette de 2-5 % me semble parfaitement raisonnable. Personnellement je ne te conseillerai pas d'aller au delà de 7 %, même si cela semble efficace à court terme, sur le moyen et long terme tu risques de voir ton site plonger dans les méandres du positionnement.

quant à la quantité de texte entre 200 et 500 mots semble donner de bonnes réactions.

En effet Google ignore certain mot vide de sens (stop Word)

Cordialement,

Modifié par Adifco Référencement
Lien vers le commentaire
Partager sur d’autres sites

Je suis désolé de casser l'ambiance, mais raisonner avec un taux de mots clés valable pour toutes les requêtes est une absurdité...

Ce n'est pas parce que tout le monde raisonne sur la densité de mots clés depuis des années qu'il faut continuer à utiliser ce concept qui n'a aucune utilité pour un référencement efficace...

Les moteurs n'utilisent pas la densité de mot clé sur une page (nb d'occurrences / nb de mots dans la page), mais en règle générale une mesure basée sur le rapport entre le nb d'occurences du mot dans le document et la fréquence des documents contenant ce mot dans le corpus (nb de pages contenant ce mot dans l'index).

La mesure la plus classique est tf * idf :

Poids du terme = fréquence du terme x Log ( taille de l'index / fréquence des documents contenant le terme)

Cela signifie que cette mesure change pour chaque mot. Et que la longueur de la page n'est pas prise en compte. Il y'a de très bonnes raisons de linguistique statistique pour cela.

Ensuite, pour être bien classé, il faut que la "distance" entre la requête tapée, et la page, soit la plus réduite possible... Cela se fait avec une mesure de similarité...

Donc, pour améliorer le référencement d' une page donnée, il ne faut surtout pas raisonner sur la densité de mots clés, mais sur les facteurs qui développent la similarité entre une page donnée et la requête ciblée...

C'est donc plus subtil : la bonne méthode est d'analyser les pages sortant en tête des résultats sur une requête donnée, notamment la fréquence des termes correspondant aux requêtes visées...

Cela signifie aussi que la densité la plus appropriée pour une page est le plus souvent la densité apportée par une page naturelle, et que le "keyword stuffing" mal fait peut conduire à une dégradation du référencement.

Lien vers le commentaire
Partager sur d’autres sites

Ensuite, pour être bien classé, il faut que la "distance" entre la requête tapée, et la page, soit la plus réduite possible... Cela se fait avec une mesure de similarité...

Donc, pour améliorer le référencement d' une page donnée, il ne faut surtout pas raisonner sur la densité de mots clés, mais sur les facteurs qui développent la similarité entre une page donnée et la requête ciblée...

<{POST_SNAPBACK}>

Peux-tu expliciter ces notions de distance et de similarité, je ne suis pas certain d'avoir compris.

Merci

Modifié par nobilis
Lien vers le commentaire
Partager sur d’autres sites

Poids du terme = fréquence du terme x Log ( taille de l'index / fréquence des documents contenant le terme)

Cariboo quelle est donc la définition de fréquence du terme ??

Lien vers le commentaire
Partager sur d’autres sites

Cariboo quelle est donc la définition de fréquence du terme ??

C'est la fréquence dans le document, dans sa définition la plus basique : le nombre de fois où le terme apparait dans la page.

On ne tient donc pas compte de la longueur du document (qui elle a une influence indirecte dans la mesure de similarité).

Lien vers le commentaire
Partager sur d’autres sites

Je n'osais pas casser l'ambiance non plus, donc j'ai répondu directement à la question, mais je suis aussi d'avis à propos du taux de densité. Il faut aller au-delà pour contrôler son positionnement.

Pour tout avouer, je contrôle surtout la densité de mots clefs des concurrents avec SeeURank, mais jamais la mienne.

C'est plutôt au niveau de la structure de la page et au placement du mot clef au sein de cette structure que je me concentre.

Chacun a sa petite recette pour distiller savamment les mots clefs dans le HEAD et le BODY, mais le résultat final me semble plus probant que de stuffer la page avec un mot clef car le taux de densité n'y est pas.

Au pire, il est toujours temps d'en remettre une couche plus tard en soupoudrant le mot clef par la suite dans la page et voir si ça influe sur le ranking.

Lien vers le commentaire
Partager sur d’autres sites

Peux-tu expliciter ces notions de distance et de similarité, je ne suis pas certain d'avoir compris.

Cela fera l'objet d'un article complet que je ne devrais pas tarder à publier, mais tu as déjà pas mal d'infos ici :

La sémantique appliquée au référencement et aux moteurs de recherche

Lien vers le commentaire
Partager sur d’autres sites

Il est vrai que de raisonner uniquement en termes de ratio pour un mot-clé est une absurdité pour un bon positionnement. Mais, il me semble que ce n'est pas à négliger non plus. Tenir compte de ce paramètre a prouvé son utilité pour obtenir un bon positionnement.

Cariboo sur quels éléments concrets te bases-tu pour affirmer qu'il s'agit d'une absurdité ? Le poids du terme n'est-il donc pas un facteur supplémentaire à prendre en compte pour le positionnement ? Si je te comprends bien, il remplace le ratio ? Moi qui pensais qu'il fallait tenir compte des deux (entre autres évidemment)

De plus si, ce paramètre est aussi absurde pourquoi le partenaire du Hub (Yooda) vient tout juste de l'intégrer à son application professionnelle SeeUrank ? J'attends les explications de Dams à ce sujet.

La question étant "quel est le pourcentage", j'ai donc répondu par un pourcentage... et j'assume ma pseudo absurdité tant que l'on ne m'aura pas prouvé mon erreur. Alors Cariboo, Philippe, montre nous, à nous tous pauvres personnages empreints d'absurdité, la lumière du Saint Graal.

Au fait, Thick, jolie pirouette !

Cordialement,

Modifié par Adifco Référencement
Lien vers le commentaire
Partager sur d’autres sites

La question étant "quel est le pourcentage", j'ai donc répondu par un pourcentage... et j'assume ma pseudo absurdité tant que l'on ne m'aura pas prouvé mon erreur. Alors Cariboo, Philippe, montre nous, à nous tous pauvres personnages empreints d'absurdité, la lumière du Saint Graal.

Adifco, je ne vais sûrement pas reprocher à quelqu'un de répéter ce que l'on trouve dans les meilleurs ouvrages sur le référencement disponibles à l'heure actuelle. Donc, attention, ce que j'ai dit, c'est que je trouve ce ratio absurde. Je ne trouve pas absurdes les gens qui l'utilisent : vu la popularité de l'outil, il est clair qu'il n'y a pas que des imbéciles qui l'utilisent.

Sauf qu'on va peut-être faire l'effort un jour de dépasser les mesures empiriques pour essayer de comprendre comment cela marche vraiment ? ;)

Mais, il me semble que ce n'est pas à négliger non plus. Tenir compte de ce paramètre a prouvé son utilité pour obtenir un bon positionnement.

En général, ce que l'on ne voit pas, c'est que ce n'est pas la "densité" qui est importante, mais juste le nombre de fois où l'on trouve le mot dans la page...

La longueur de la page n'ayant aucune importance...

Donc cela signifie que le keyword stuffing fonctionne, mais juste parce que l'on a mis plus de fois le mot clé que le voisin, et pas à cause du ratio "nb de mots/nb de mots total de la page".

Dans les calculs de similarité entre la requête et une page donnée, ou de probabilité de pertinence d'une page par rapport à une requête, on ne tient compte que du nombre d'occurrences du mot... (suffit d'éplucher les algos pour s'en apercevoir).

En fait, certains moteurs utilisent bien le critère de densité : mais ce ne sont pas les plus pertinents. En effet, utiliser ce critère signifie que l'on juge plus pertinent sur la requête "bibliothèque" un texte de trois pages qui contient dix fois le mot bibliothèque, qu'un texte de dix pages qui contient aussi le mot bibliothèque dix fois... Si Google utilisait ce critère, on pourrait vérifier que les textes courts seraient favorisés sur Google. On ne dirait pas.

En fait, l'intérêt pour améliorer la pertinence des réponses, serait de mesurer une densité "locale" pas "globale".

C'est un fait, les raisonnements de linguistique statistique restent vrais tant que l'on raisonne sur des documents ou des textes d'une longueur minimale. Certains algos (LCA) fonctionnent en utilisant des "fenêtres" virtuelles de x mots (200/300 en général) que l'on déplace dans le texte... Dans ce cas, la densité change tous les 200 mots !

Quand à Yooda, je pense qu'ils répondent à la demande, tout simplement. Si tout le monde leur demande une mesure de densité, ils fournissent un outil de mesure de densité. ;)

Mais ce qui serait bien, c'est qu'ils fournissent aussi le pourcentage de présence d'un mot dans le corpus de google, parce que dans les pages web, il y'a des mots fréquents (comme "web") et des mots rares (comme "ornithorynque"). Donc avec trois fois le mot ornithorynque dans la page, vous faites un carton sur le critère de similarité, alors qu'avec trois fois web, quelle que soit la longueur de la page, vous aurez un peu plus de mal...

Lien vers le commentaire
Partager sur d’autres sites

Adifco, je ne vais sûrement pas reprocher à quelqu'un de répéter ce que l'on trouve dans les meilleurs ouvrages sur le référencement disponibles à l'heure actuelle.

Comme toi et comme nous tous, je me sers du travail des autres pour nous faire avancer et j'essaie, dans la mesure de mes humbles et modestes moyens, d'apporter ma pierre, aussi minuscule soit elle, à l'édifice. Merci de ta réponse Cariboo.

Cordialement,

Lien vers le commentaire
Partager sur d’autres sites

... Si Google utilisait ce critère, on pourrait vérifier que les textes courts seraient favorisés sur Google. On ne dirait pas.

<{POST_SNAPBACK}>

Hum... Suis pas tout a fait d'accord avec toi cariboo... Mes mesures à moi , pas encore publiés ;) tendent à prouver le contraire...

En fait, l'intérêt pour améliorer la pertinence des réponses, serait de mesurer une densité "locale" pas "globale". (...) Mais ce qui serait bien, c'est qu'ils fournissent aussi le pourcentage de présence d'un mot dans le corpus de google, parce que dans les pages web, il y'a des mots fréquents (comme "web") et des mots rares (comme "ornithorynque"). Donc avec trois fois le mot ornithorynque dans la page, vous faites un carton sur le critère de similarité, alors qu'avec trois fois web, quelle que soit la longueur de la page, vous aurez un peu plus de mal...

<{POST_SNAPBACK}>

Tout a fait d'accord.. Mais l'outil marche aussi a partir du relevé des leaders. Et permet d'analyser en parallèle plusieurs pages :)

A noter que l'on ne donne pas QUE la densité, mais aussi le nombre d'occurrence :)

Quand à Yooda, je pense qu'ils répondent à la demande, tout simplement. Si tout le monde leur demande une mesure de densité, ils fournissent un outil de mesure de densité. ;)

<{POST_SNAPBACK}>

Exact... On essai de devancer la demande aussi.. Mais quand l'on voit le nombre de webmaster qui considère les balises Meta comme le plus important... S'intéresser à la densité et au nombre d'occurrences d'un document, c'est pas si mal!!!

Tu as certainement raison (Javoue jai pas encore eu le temps de lire en détail tout ton post..) Mais tout le monde na pas le temps et les compétences pour ce lancer dans une méthodologie nécessitant une maîtrise de Math et un travail aussi ... fourni. De la théorie, à la pratique. Il y a toujours eu un fossé...

On verra tout ca l'année prochaine :hourra:

Modifié par Dams
Lien vers le commentaire
Partager sur d’autres sites

Hum... Suis pas tout a fait d'accord avec toi cariboo... Mes mesures à moi , pas encore publiés  tendent à prouver le contraire...

Très très intéressant...

Sauf que : s'agit-il juste d'une étude statistique sur la longueur des pages placées dans les premières positions dans les résultats de google ?

Si c'est le cas, cela va être dur de déterminer le critère à l'origine du phénomène... Corrélation ne veut pas forcément dire relation de cause à effet...

Lien vers le commentaire
Partager sur d’autres sites

Pour ce qui est des fenetres de 2-300 mots, apparemment les moteurs de recherche y travaillent tous, mais....

au sujet de la densité des mots dans le corpus...

Ca reviendrait à dire qu'il y aurait une sorte de liste des mots, partant des 'stopwords' aux mots rares, et plus un mot serait proche des stopwords plus on pourrait le placer, alors que plus il serait au fond de la liste, vers les mots rares, et moins le moteur acceptera de le trouver dans le texte.

Pour ce qui est du ratio de mots clé dans le texte, c'est le genre de ratio qui marche tant que tout le monde lui coure après.. Si tout le monde écrit des pages de même longueur, avec un ratio quasi-identique, alors on peut mesurer des différences intéressantes, mais ce n'est pas pour ca que les moteurs suivent cette logique.

Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...