Aller au contenu

Augmenter la "densité de mots clé" ne dope pas le référencement


Cariboo

Sujets conseillés

Quand je dis que je me méfie de l'appellation densité, je fais allusion aux connotations propre au monde du référencement pour ce terme, et aussi au parallèle malheureux fait avec la notion habituelle de densité (poids volumique / poids volumique). Parce que si on parle de "poids" des termes, cela devient autre chose, dans une mesure de type tf*idf, le poids est donné par la formule tf*idf, et ce que l'on appelle densité, n'est que tf.

En voila une question qu'elle est bonne :)

Quand tu dis : je me méfie : tu penses qu'un même mot n'est pas interprété de la même façon par differentes personnes ?

J'aurais tendance à dire que la densité se rapproche plus de la masse que du poids. (j'englobe l'environnement dans la densité )

Jeff,

Lien vers le commentaire
Partager sur d’autres sites

  • Réponses 50
  • Créé
  • Dernière réponse

Contributeurs actifs dans ce sujet

Contributeurs actifs dans ce sujet

Ceci dit, en toute rigueur, rien n'interdit d'appeler densité le ratio nombre d'occurrences / nombre total de mots. Quand je parle de fréquence, c'est bien la même définition.

Dans la notion habituelle de densité (ou de fréquence des termes), la longueur du document n'est pas prise en compte. Un mot présent une fois dans un texte de 100 mots, aura la même fréquence qu'un mot présent deux fois dans un texte de 200 mots.

Hein ??????????

Attendez, j'hallucine franchement de lire ça venant de toi.

Bien sûr qu'on peut avoir plusieurs intérprétations du terme densité puisqu'il faut prendre en compte l'environnement. Par contre, quand on parle de densité dans le domaine du référencement je ne vois qu'une définition et elle implique bien la prise en compte du corpus de la page et rien d'autre. Où y a t'il un outil ou un référenceur qui va parler de densité par rapport à quelque chose d'externe à la page ????

Si on admettait prendre d'autres éléments donc j'en cite quelques uns plus haut oui je veux bien qu'on puisse admettre densité autremement, mais on ne peut pas utiliser des termes autrement que dans le sens où tout le monde le comprend sinon comment se faire comprendre et parler de la même chose ?

En effet, peut-être que fréquence est mieux approprié que densité pour parler du sujet dont on débat ici.

Edit : cela dit non on ne peut pas utiliser fréquence (je viens de relire mes définitions car j'avais un doute sur "fréquence":P) La fréquence implique la notion de temps. Où est ce qu'on parle de temps en terme de référencement ??? Concernant densité, la notion est certainement plus floue, mais si on parle de densité en trafiquant la notion communément admise par tous (densité d'un mot clé dans une page pour le réf) je crois que l'incompréhension est totale, conséquemment le message est carrément flou, tordu et biaisé. Et encore, on n'est que sur le Hub, mais si c'était une publication sur Scientific America je crois que la communauté scientifique te sauterait à la gorge.

Etre en dessous de la norme c'est ne pas être pertinent. Etre au milieu de la norme c'est être moyen. Etre dans le haut de la norme c'est être éventuellement jugé plus pertinent. Etre au dela de la norme c'est être suspect ;)

Je suis à 100% d'accord avec l'interprétation de Cariboo.

Hmmm quelle est la norme ? Tu penses vraiment que les requêtes sont toutes "égales" en terme de filtres algorithmiques ? A mon avis, c'est fausser le référenceur que de lui faire croire qu'on peut travailler sur les mêmes normes de densité, peu importe de la requête.

Modifié par thick
Lien vers le commentaire
Partager sur d’autres sites

En effet , je pense que le terme "densité" est utilisé et adapté d'une façon différente de sa définition littéraire dans le monde du référencement c'est un peu comme le terme :Référencement

Référencement => action à référencer un site dans une base de données de moteur.

Le reste c'est de l'optimisation... et bien plus encore.

Jeff,

Lien vers le commentaire
Partager sur d’autres sites

Référencement => action à référencer un site dans une base de données de moteur.

Le reste c'est de l'optimisation.

Ben oui ça c'est encore plus vrai que pour "densité" :lol: Mais bon attaquons une chose à la fois :P On a presque tordu le "PageRank", on remet en place "densité" et après on recale "référencement". Faut partir de la base et monter vers le sommet de la pyramide.

Lien vers le commentaire
Partager sur d’autres sites

Laurent, tu as raison, mais dans un autre contexte.

Là je parle dans le contexte des statistiques, et, en statistique, on appelle fréquence le rapport entre l'effectif d'une valeur et l'effectif total. Plus de notion de temps.

C'est bien le problème, lorsqu'on utilise un mot "hors contexte", il est souvent mal compris.

A force d'en parler, j'ai fini par comprendre ce qui me gênait dans le terme densité. C'est la confusion avec la "densité de population" qui est une mesure qui a une dimension (elle se mesure en habitants au km2). Quand on leur parle de "keyword density", j'ai observé que certains voyaient une mesure du nombre de mots rapporté à la taille de la page. C'est ce télescopage que je trouve malheureux, car il conduit à des erreurs de raisonnement que l'on retrouve dans les forums de SEO.

Lien vers le commentaire
Partager sur d’autres sites

Le terme "langage naturel" est effectivement insatisfaisant, car en fait il y a plusieurs langages naturels selon le contexte.

Cela dit pour le web, suivre les directive d'accessibilité des WCAG et s'efforcer d'écrire en langue simple et claire (plain language), permet avec une emphase sur les mots-clés stratégique de produire des contenus naturellement optimisés pour les utilisateurs et les moteurs. Quand je dis "emphase" j'entend par là insérer les mots clés un tout petit peu plus que ce que l'on écrirait si les moteurs n'existaient pas, sans pour autant produire un texte pénible à lire ;) (bref c'est toujours une question de dosage et d'expérience)

Lien vers le commentaire
Partager sur d’autres sites

Le terme "langage naturel" est effectivement insatisfaisant, car en fait il y a plusieurs langages naturels selon le contexte.

Cela dit pour le web, suivre les directive d'accessibilité des WCAG et s'efforcer d'écrire en langue simple et claire (plain language), permet avec une emphase sur les mots-clés stratégique de produire des contenus naturellement optimisés pour les utilisateurs et les moteurs. Quand je dis "emphase" j'entend par là insérer les mots clés un tout petit peu plus que ce que l'on écrirait si les moteurs n'existaient pas, sans pour autant produire un texte pénible à lire ;) (bref c'est toujours une question de dosage et d'expérience)

Sébastien, ton explication pourrait être mal interprétée et certains pourraient penser que tu incites à suroptimiser les pages sur une requête en augmentant le nombre de mots clés ;)

Si un mot doit exister alors qu'il existe, jouer sur les mots (leurs nombres) peut dans certains cas faire prendre des risques inutiles au site si cette méthode est appliquée à son ensemble.

J'ai bien noté que tu mets en garde en parlant de dosage et d'expérience, faudrait-il encore bien définir les mots dosage et expérience ;)

Mais je crains que l'on remette en cause tout le language utilisé dans le big word du SEO.

Jeff,

Lien vers le commentaire
Partager sur d’autres sites

Cela dit pour le web, suivre les directive d'accessibilité des WCAG et s'efforcer d'écrire en langue simple et claire (plain language), permet avec une emphase sur les mots-clés stratégique de produire des contenus naturellement optimisés pour les utilisateurs et les moteurs.

Sébastien, je veux pas dire, mais relis-toi, : ta phrase est exactement le contraire de ce qu'elle serait si tu suivais le conseil que tu donnes, faut la lire trois fois pour la piger :lol:

(La mienne aussi, mais c'est pas moi qui file le conseil :P )

Mais c'est bien mieux ainsi :thumbsup: "Simple et clair", ça veut dire sujet-verbe-complément avec un vocabulaire de 300 mots. Ce genre de conseil s'adresse au rédacteur débutant de chez débutant, on ne peut pas en rester là si on a un sujet sur lequel on a des objectifs précis et ambitieux.

De plus, en matière commerciale, il vaut mieux ne pas être trop clair sur certains aspects du produit que l'on doit mettre en avant ! :shutup:

(Amis hubiens, j'ai déjà pondu des posts moins constructifs ici, mais pas souvent. Mes excuses, hein ! :) )

Lien vers le commentaire
Partager sur d’autres sites

ta phrase est exactement le contraire de ce qu'elle serait si tu suivais le conseil que tu donnes

Tu as tout à fait raison, ce qui montre bien que l'écriture est un sujet complexe :P Donc ce que je disais, c'est que pour produire un texte bien conçu pour le référencement, on ferait bien de s'inspirer des techniques pronées par le W3C, ainsi que des techniques d'écriture en langage clair, en insistant juste un peu plus fort sur ses mots-clés (mais sans sacrifier la lisibilité).

J'espère avoir été plus clair, sinon j'ai cette synthèse sur le sujet :)

Lien vers le commentaire
Partager sur d’autres sites

Oui oui Sébastien, tu es très clair, je note je note ;)

Mais je ne suis pas d'accord du tout (du tout du tout) avec le fond du propos, qui est grosso-modo celui du site http://www.redaction.be/ qui fait hélas référence en la matière. Ce débat dépassant le cadre du Hub, je vais, au grand dam de mon amour-propre, te laisser le dernier mot en ne donnant aucun argument :)

Pour revenir au débat d'origine, nous pouvons quand même constater que des référenceurs se basent bel et bien sur l'idée de densité de mots-clés et obtiennent d'excellents résultats.

Parce qu'à un moment, le discours est : il y a un Graal (une densité optimale, ou fréquence idéale, ou ce que vous voulez), mais il est inatteignable à moins d'être pur (comme Galaad, forcément) c'est à dire ne pas se souiller à écrire pour le robot mais à écrire "naturellement".

D'où puissante réflexion : s'il y a densité idéale, pourquoi aurait-on plus de chance de l'atteindre en laissant faire le hasard (en écrivant "naturellement") qu'en tentant de forcer le destin et en essayant de repérer, fût-ce empiriquement, ce qu'elle pourrait être ?

Donc d'accord pour moi pour l'écriture sans s'occuper de densité ou autre, parce que c'est une façon de faire qui me va bien et qui fonctionne pas mal. Mais il faut tout de même reconnaître que d'excellents référenceurs, genre bien pros avec expérience sur des années et top positions sur du long terme, ont un autre discours, travaillent autrement et obtiennent d'excellents résultats !

On va pas se la jouer pensée unique sur un truc aussi flou que le réf, si ? :smartass:

Lien vers le commentaire
Partager sur d’autres sites

Je ne vais pas rentrer avec vous dans un débat sémantique sur la "densité" ou la "fréquence". Ca dépasse largement mes compétences :lol:

En revanche j'ai l'impression que parler de densité idéale dans l'absolu c'est faire fausse route. En matière d'optimisation, et particulièrement de frontière entre optimisation idéale et suroptimisation, il est vain de disserter en faisant abstraction d'un élément primordial: tous les sites ne sont pas égaux face aux filtres.

L'age du site, ses backlinks, son pagerank, son trustrank, etc... jouent un rôle clé. Pour parler trivialement, plus un site a de poil aux pattes, de backlinks, ou de "capital confiance" (notion bien floue j'en conviens), plus son webmaster peut se permettre de "bourriner" en matière d'optimisation.

A mon avis, la densité ou le nombre d'occurences de mots-clés présents dans une page n'échapppent à cette règle ;)

Lien vers le commentaire
Partager sur d’autres sites

Ouf enfin quelqu'un pour venir à mon secours. Merci Jan ;)

100% d'accord avec ce que tu dis et j'ajoute juste ce que j'ai dit quelque part plus haut. Les filtres sur les requêtes ne sont pas tous les mêmes. Ainsi, la "densité" peut être bonne sur une requête et pas l'autre. Puis aux quelques paramètres qu'on cite, il y en a quelques centaines d'autres qu'il faudrait inclure pour avoir une mesure juste de l'environnement et du corpus.

Lien vers le commentaire
Partager sur d’autres sites

J'espère avoir été plus clair, sinon j'ai cette synthèse sur le sujet :)

[Hors sujet]

Je fais une petite parenthèse parasite à ce sujet pour dire à Sébastien à quel point j'aime ce qu'il écrit. Cette synthèse sur le "text-appeal" est une merveille. Merci d'exister, Sébastien !

[/Hors sujet]

Lien vers le commentaire
Partager sur d’autres sites

Je prends le sujet un peu tard dommage car ce debat sur la definition de la densite et de son utilite ou non etait passionnant.

Pour resumer le fond de ma pensee je dirais un peu comme seb:

Dans la mesure ou l'on respecte les Guidelines pour optimiser le site il y a de grandes chances que les internautes lisent les textes qui composent le site.

Or si ces textes doivent etre optimise au niveau de leur contenu pour les moteurs, il faut aussi que les internautes qui sont en general un poil plus critiques que les moterus de recherche vis a vis du style) le trouvent interessant. Si il y a donc Sur-densite cela va porter prejudice au site.

Perso je suis plus enclin a proner une certaine "correspondance" entre les mots cles presents sur le parcours du bot , ce qui a un impact sur la densite mais qui laisse beaucoup plus de libertes vis a vis des contenus.

Lien vers le commentaire
Partager sur d’autres sites

Je pense que le calcul de la densité se fait par des statistiques des autres sites. Sur un mot clé précis, google doit faire un ratio du nombre de fois qu'apparait le mot clé par rapport à la quantité de contenu. Si un site dépasse trop fortement ce ratio, alors je pense qu'il est marqué comme trop dense, avec le risque de sandbox / blacklist ...

Lien vers le commentaire
Partager sur d’autres sites

Perso je suis plus enclin a proner une certaine "correspondance" entre les mots cles presents sur le parcours du bot , ce qui a un impact sur la densite mais qui laisse beaucoup plus de libertes vis a vis des contenus.

Ho, ho... l'idée d'anticiper/gérer "le parcours du bot" éveille mon intérêt.

Pourrais-tu préciser ce que tu entends par là ?

Lien vers le commentaire
Partager sur d’autres sites

Pourrais-tu préciser ce que tu entends par là ?

C'est tres simple en fait - les bots peuvent tout a fait etre considere comme des internautes se servant de navigateur de 1ere generation (grosso modo) - ils parcourent le web en suivant les liens. Ils lisent le contenu des pages comme tout un chacun de gauche a droite et de haut en bas

LE PARCOURS :

1)Page de provenance du bot --> linking si possible avec des sites 1) en relation thematique, 2) possedant un fort PR, Trust Rank

2) Incoming Link --> toujours sur le site de provenance avoir un lien text qui contienne le mot cle correspondant a la page de destination (en l'occurence Mon site)

3) URL du site (attention je parles d'URL pas de domaine) --> Si possible avoir des mots cles dans l'URL (GG est de moins sn moins sensible a ca mais MSN oui

4) <title> - le mot cles sur lequel je veux optimiser ma page est presnet dans le <title>

5) <meta name="description"> --> Idem avec le mot cle dans un phrase coherente et attractive pour les client potentiels

6) <meta name="keywords"> tant qu'on optimise un page on fait tout keywords y compris

7) on retrouve le mots cles dans differents elements du contenu de la page - pas obligatoirement avec une densite enorme - et de maniere "harmonieuse" ca peut etre dans la nav, le texte, en titre , en sous titre ... --> attention le texte est ecrit pour les internautes

En plus en effet secondaire tu pourras voir que la densite de mots cle augmente d'elle meme, sans atteindre de pourcentage faramineux et tout en laissant un texte a la fois comprehensible pour les internautes et pertinent pour les moteurs.

Grosso modo voila - quand le bot note qu'il a vu le mot cles sur tout ce parcours on finit par avoir des resultats pas degueu :)

Lien vers le commentaire
Partager sur d’autres sites

Je plussois.

En dehors de la balise keywords qui n'est plus utilisée que par yahoo.

Mais sinon, c'est ça : on écrit pour les visiteurs en pensant aux moteurs et pas le contraire.

Parce que, quand dans les résultats de google, on voit une description et un titre bourrés de mots clés, même si le lien est 1°, on n'ira pas.

De la même manière que dans un magasin, en règle générale, on a horreur qu'un vendeur essaie de nous forcer la main.

Lien vers le commentaire
Partager sur d’autres sites

1)Page de provenance du bot --> linking si possible avec des sites 1) en relation thematique, 2) possedant un fort PR, Trust Rank

2) Incoming Link --> toujours sur le site de provenance avoir un lien text qui contienne le mot cle correspondant a la page de destination (en l'occurence Mon site)

3) URL du site (attention je parles d'URL pas de domaine) --> Si possible avoir des mots cles dans l'URL (GG est de moins sn moins sensible a ca mais MSN oui

4) <title> - le mot cles sur lequel je veux optimiser ma page est presnet dans le <title>

5) <meta name="description"> --> Idem avec le mot cle dans un phrase coherente et attractive pour les client potentiels

6) <meta name="keywords"> tant qu'on optimise un page on fait tout keywords y compris

7) on retrouve le mots cles dans differents elements du contenu de la page - pas obligatoirement avec une densite enorme - et de maniere "harmonieuse" ca peut etre dans la nav, le texte, en titre , en sous titre ... --> attention le texte est ecrit pour les internautes

D'accord, rien de vraiment nouveau dans tout ça. C'est juste que je n'avais envisagé la problématique sous l'angle du parcours que suivent les robots. C'est intéressant de garder cette idée en tête.

J'ajoute à ta liste l'idée de construire une page "tête de chapitre" qui commence déjà à placer quelques mots clés dans un résumé des contenus proposés au visiteur, et qui renvoie sur toutes les pages dont la thématique encadre le ou les mots clés qu'on souhaite promouvoir.

Si ce résumé est un texte original (non repris dans les pages présentées) et que cette page comporte quelques liens externes pointant vers des pages fortement connexes avec la thématique du chapitre on obtient un très bon positionnement de cette tête de chapitre qu'on pourrait également baptiser "page portail".

Toutes les pages "phares" de mon site correspondent à cette description. ;)

Modifié par zapman
Lien vers le commentaire
Partager sur d’autres sites

Belle leçon de reverse engineering à la petite semaine que voilà !

J'émet simplement une idée, un principe de fonctionnement, pas une vérité, et encore moins du "reverse engineering". Ce que je sais c'est qu'un robot ne peux as comprendre les phrases telles qu'elles sont. Il peut simplement compter des mots clés, leur accorder une importance selon différents critères, ce qui forme l'algorithme de google. Comment savoir si on effectue beacoup de répétition dans un texte ? un nombre absolue ? Bien sûr que non, sinon nous ne pourrions utiliser la plupart des déterminants / articles etc... La répétition abusive de mots dépend donc du type de mot ciblé. Ainsi google ne considère pas les déterminants / articles etc... comme des mots clés.

Pour le reste ? pour qu'un robot puisse savoir si un mot est trop utilisé, il doit se baser sur un échantillon non ? Ou tu considères qu'un programme du type

int nb_max = random(1000);
if(nombre_mot_clé > nb_max){
sandbox();
}

peut s'avérer suffisant ?

Pour se baser sur un échantillion, il existe plusieurs méthodes d'apprentissages, les réseaux bayésien et les réseaux de neuronnes principalement. Mais ils se servent d'un échantillion d'observation pour déterminer la classe (un texte dans notre cas). Ainsi, une bonne méthode serait de classer un texte donné dans une classe en fonction du nombre d'occurence de mots clés trouvés par rapport à tous les autres textes disponibles (la base du réseau bayésien, utilisé notamment par thunderbird pour traiter les spams). Une fois qu'on connait la classe d'un texte (son thème), on peut observer le ratio "nombre d'occurence d'un mot clé / taille du texte" par rapport au même ratio pour les textes de la même classe, et ainsi déterminer (avec une marge d'erreur) si un texte est trop répétitif ou non.

Voilà le principe de fonctionnement que je voulais évoquer, mais une fois de plus, je ne sais pas si ça fonctionne ainsi. J'expose simplement une méthode qui ne me semble pas tirée par les cheveux. Et quand bien même mes propos seraient totalement "idiots" (ce qui est peut-être le cas), nous pouvons en discuter, en débattre. N'est-ce pas là le but d'un forum ?

Quoi qu'il en soit, rien ne t'autorises à te montrer injurieux vis a vis de mes pensées, d'autant que ma reflexion se base tout de même sur les cours de spécialistes de fouilles de texte que j'ai eu la chance de suivre récemment... Preuve que ça ne doit pas être si crétin que ça...

Désolé, mais ton concept est trop simpliste pour me satisfaire...

Tout d'abord, je dirai que je ne suis pas là pour te satisfaire. Ensuite, expliques pourquoi tu trouves le concept trop simpliste ! Car en ces termes, ta contribution ne sert à rien...

Modifié par dams41
Lien vers le commentaire
Partager sur d’autres sites

Tout d'abord, je dirai que je ne suis pas là pour te satisfaire. Ensuite, expliques pourquoi tu trouves le concept trop simpliste ! Car en ces termes, ta contribution ne sert à rien...

Relis les posts depuis le début du thread et tu comprendras mieux. Tu définis en 2 lignes le concept et ma réponse devrait faire 3 kms ??? Allons, ton truc est simpliste au possible et oui ça ne me convient pas du tout parce que tu n'apportes rien au débat. Depuis le début je m'échine à dire que la longueur du texte ne compte pas et tu viens en remettre une couche ? Ben désolé, mais non c'est complétement futile de venir ajouter ton "petit" commentaire tel qu'il est. A ta place, il valait mieux s'abstenir.

Lien vers le commentaire
Partager sur d’autres sites

Relis les posts depuis le début du thread et tu comprendras mieux.

Je viens de tout bien relire, c'est fait. J'ai réexpliqué mon point de vue dans le post précédent, en me basant sur une théorie un peu différente de celle de cariboo (encore que pas si eloignée que ça) des réseaux d'apprentissage. Mon truc est donc simpliste au possible reseaux neuroniques et bayésiens, sauf que ce n'est pas "mon" truc, mais un sujet de recherche fondamentale qui permettra peut-être à long terme de faire comprendre un texte à un robot.

Depuis le début je m'échine à dire que la longueur du texte ne compte pas

Je suis désolé d'avoir osé penser différement de toi :(. Si j'avais sû que ce forum ne permettait pas de s'exprimer, je me serais contenté de m'abreuver de tes profondes paroles... (ie : je suis d'accord, je ne suis pas d'accord, j'aime pas le mot "densité")

tu n'apportes rien au débat

Je tiens à m'en excuser auprès des membres du forum.

A ta place, il valait mieux s'abstenir

C'est ce que je compte faire...

Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant

×
×
  • Créer...