Aller au contenu

Le spamdexing sur les moteurs de recherche.


Christophe

Sujets conseillés

Le spamdexing...le sujet n'est pas nouveau...mais toujours, sinon de plus en plus, d'actualité.

Je me risque à centrer le débat sur trois points :

- Quelle définition donner au spamdexing ? Quelles sont les limites ? Jusqu'où peut-on aller ?

- A qui la responsabilité ? Les moteurs de recherche (ceux qui ont des milliers de pages de résultats indexées ou bien ceux qui les indexent ?) ? Certains référenceurs ? Franao et Cie ?

- Comment agir ? Quelles solutions ?

Je crois que nous pouvons mener un débat constructif et déboucher sur un consensus. Aussi, et dans le même but, il me parait inutile de faire des procès d'intention sur qui que ce soit et primordial d'argumenter sa position.

Le sujet est mal posé ? Une question majeure oubliée ? N'hésitez pas à le dire... je modifierai ce message.

Bon débat à tous.

Lien vers le commentaire
Partager sur d’autres sites

Merci Christophe de lancer le débat...

Et je pense qu'il est grand temps qu'il ai lieu ce debat! Je me suis d'ailleurs risquer recemment pour moteurzine a un article sur le Spam Massif. Qui je pense peut être un bon depart de réflexion...

Commencons par trouver une definition au spamindexing avant d'aborder la résponsabilité ? Non ?

Lien vers le commentaire
Partager sur d’autres sites

Bonjour,

Je trouve que c'est un bon débat mais, en parler sans avoir le premier concerné, à savoir Google, ça me semble complètement inutile. En effet, il nous manque de nombreux éléments pour pouvoir juger en bien ou en mal.

Enfin, faire un débat sur ce sujet en l'appelant spamdexing et le fait qu'il soit initié par une société de référencement donne tout de suite le genre de fil que cela va produire... une condamnation pure et simple.

Ce qui est appelé "spamdexing" et rend le travail des sociétés de référencement plus difficile fait le bonheur de certains de mes amis, internautes de base. Ils trouvent rapidement l'information qu'ils recherchent.

C'est difficile de satisfaire tout le monde ! :rolleyes:

CHRis

Lien vers le commentaire
Partager sur d’autres sites

Tout à fait d'accord.

Je pense que les différents points doivent effectivement être abordés dans l'ordre.

L'IPEA propose une définition et quelques règles à propos du spamdexing : http://ipea.adoc.fr/charte.html

Je pense qu'une mise à jour s'impose face aux éléments actuels.

En effet, un des points abordés pour définir le spam est : "Utilisation de mots clés inadéquats avec le contenu du site".

C'est surement de bon sens mais bien flou. Un outil de recherche ne propose pas réellement de contenu au sens propre. Mais peut-on qualifier de spam toutes les pages présentant des résultats de recherche sur des mots clés sans rapport avec l'objet du site ?

Personnellement, je pense que oui. D'autant plus que ces pages n'apportent généralement rien à la recherche effectuée sinon de mettre en retrait les sites les plus pertinents et donc d'inciter l'internaute à passer par un tiers pour arriver sur l'objet de sa recherche.

Je ne crois pas que cela soit discriminatoire pour la promotion des outils de recherche alternatifs. Le spam s'appliquant surtout à Google, leur notoriété fait qu'ils seront bien positionnés sur les recherches correspondant à leur réelle activité. De toute façon, les internautes cherchant de nouveaux outils de recherche les trouveront facilement et seront d'autant plus fidèles qu'ils ne percevront pas ces outils comme une nuisance dans leurs recherches.

Lien vers le commentaire
Partager sur d’autres sites

Enfin, faire un débat sur ce sujet en l'appelant spamdexing et le fait qu'il soit initié par une société de référencement donne tout de suite le genre de fil que cela va produire... une condamnation pure et simple.

Autant pour moi, je parle en mon propre nom et non pour ma société. J'ai donc modifié ma signature.

Ce qui est appelé "spamdexing" et rend le travail des sociétés de référencement plus difficile fait le bonheur de certains de mes amis, internautes de base. Ils trouvent rapidement l'information qu'ils recherchent.

Très honnêtement, je ne pense pas que cela aide les internautes dans leurs recherches puisque les sites qu'ils trouvent sont le plus souvent déjà présents dans les résultats mais généralement classés en retrait du coup.

Le problème vient peut-être, surement selon moi, de la définition que l'on donne au spamdexing. Et c'est bien là le pb, que Google soit présent dans le débat ou non.

Lien vers le commentaire
Partager sur d’autres sites

o Concretement... Google ne viendra pas de ce debat ! *Donc on va faire sans... Mais quel peut être le point e l'aboutissement du debat ?

Imaginons (Et ce serais le premier miracle...) que nous nous mettons tous d'accord sur une definition. Que faisons nous ensuite ?

:unsure:

Lien vers le commentaire
Partager sur d’autres sites

C'est juste une réflexion sur la façon de juger la pertinence d'un outil de recherche.

Pour moi, spamdexing implique nuisance dans la recherche d'information. Mais où est la limite entre nuisance et pertinence d'un résultat ?

Après tout, je n'ai pas attendu ces nouveaux éléments pour effectuer mes recherches sur d'autres outils... ce que je ne peux que conseiller.

Que Google soit un bon outil ou pas, peu m'importe, j'irai sur l'outil que je jugerai le plus pertinent par rapport à ma recherche.

Je trouve assez intéressant, à travers la définition du spamdexing, de pouvoir définir des critères de pertinence et d'imaginer des solutions pour améliorer l'efficacité de la recherche sur Internet en général.

Aucun jugement en bien comme en mal dans tous les cas.

Lien vers le commentaire
Partager sur d’autres sites

Je trouve le silence des principaux "accusés" dans ce dossier assourdissant...

Il me parait difficile de croire que Google ou Espotting, ou d'autres ne se soient pas rendu compte, à l'heure ou nous parlons, de l'émoi que ces problèmes suscitent dans la communauté des référenceurs et des webmasters.

Cette absence de communication en retour peut être interprétée de plusieurs manières :

1°) Le mépris... Quoi qu'il arrive, pour eux tout va bien... et les webmasters peuvent crier au scandale, leur pouvoir de nuire étant limité, on en reste au statu quo ante. Ou le constat que cela puisse être dix fois pire sur d'autres moteurs leur laisse penser qu'au royaume des aveugles, les borgnes sont rois...

2°) L'embarras... Ils ne savent pas quoi répondre, et dans l'attente de mesures concrètes à annoncer, préfèrent dans l'expectative, mettre la tête dans le sable

3°) La maladresse... peut-être sont-ils conscients de l'émoi causé, et des problèmes d'image croissants que cela suscite derrière, mais ne savent pas gérer une "communication de crise".

Bref, on ne sait pas, et on en est réduit à des spéculations...

Lien vers le commentaire
Partager sur d’autres sites

Bonjour,

- A qui la responsabilité ? Les moteurs de recherche (ceux qui ont des milliers de pages de résultats indexées ou bien ceux qui les indexent ?) ? Certains référenceurs ? Franao et Cie ?

Aux moteurs de recherche qui ont des milliers de page, a mon sens tout du moin.

Pour ne pas se faire indexer, il suffit d'inserer un robots.txt et le tour est jouer.

On parle donc bien de polueurs.

D'un autre coté Google devrait pouvoir les evincés. donc il a a quelque part un interet lequel ? Je ne sais pas.

Les referenceurs en cause ? je pense pas, eux ils essaient de placer des sites avec des techniques plus ou moins "catholiques" c vrai, mais de la à apparaitre sur n'importe quelles requetes...

Lien vers le commentaire
Partager sur d’autres sites

En lisant les différentes interventions de ce débat, j'ai le sentiment que personne n'ose réellement se jeter à l'eau.

La définition qui a été donné du spamdexing

Utilisation de mots clés inadéquats avec le contenu du site

Me semble elle même bien timide.

A mon sens, le spamdexing commence lorsqu'on réalise des pages uniquement destinées aux robots des moteurs de recherche, même si le contenu de ces pages est en rapport avec le site dont elles améliorent le positionnement.

Certains regrette l'absence de représentant de Google mais je ne vois pas pourquoi car la position de ce moteur est bien claire sur cette question.

Vous la connaissez tous. Pas de spamdexing.

En réflichissant quelques secondes on comprends bien pourquoi.

1/ Des milliers de pages qui encombrent son index et qui occupe de la mémoire

2/ Google travaille à fournir des bons résultats aux internautes, autrements dit à indiquer des sites avec l'information qu'ils recherchent. Toute la technologie de ce moteur est faite dans ce sens et c'est parce qu'il y arrive très bien qu'il est n°1. Donc si on essaie de tromper son robot avec des pages auxquelles les internautes ne peuvent accéder, il n'y a pas de raison qu'il apprécie.

3/ Certains vont dire mais les sites en flash... Pour les sites en flash ce n'est pas aux référenceurs de trouver le moyen de les référencer mais à macromedia et aux moteurs qui s'y intéressent

4/ Lorsque les internautes vont se rendre compte que Google ne renvoit pas des resultats de qualité (ce qui est déjà le cas sur certains mots clés tel que ... référencement) ils se rendront sur un autre moteur. Google a donc intérêt à lutter contre le spamdexing

Mais bien sûr, tous ces points concernant Google, nous les connaissons tous et j'imagine que ce qui intéresse certains d'entre vous c'est plutôt de savoir ce que le moteur va mettre en place et ce qu'il met déjà en place pour lutter contre le spamdexing.

Vous voudriez savoir combien de temps il reste avant que le risque de bannissement ne devienne vraiment sérieux.

Alors là, il manque éffectivement un membre de Google pour nous répondre.

Si le débat porte sur cette question, ce qui me semblerait beaucoup moins hypocrite, je dirais ceci.

Nous connaissons les risques et l'attitude professionnel consiste à ne pas recourir à ces méthodes ou alors à informer son client des risques.

Pour ma part, je ne veux pas recourir à ces méthodes car je pense que nous avons tous intérêt à proposer des sites de qualités (avec un contenu intéressant) ( par tous j'entends, les professionnels du net et les internautes présents mais surtout futurs) et nous avons tout à perdre en proposant des sites sans intérêts qui doivent recourir au spamdexing pour apparaître dans les résultats des moteurs.

Pour finir, comment expliquez-vous qu'un moteur de recherche tel que Google juge utile de mettre sur son site une page entière destinée à prévenir les internautes contre le recours à certains SEO, autrement dit référenceurs professionnels ?

Vous m'excuserez, j'espère, de m'exprimer sans détours mais je crois que cette discussion a vraiment besoin que l'on rendre dans le vif du sujet, comme on dit.

Lien vers le commentaire
Partager sur d’autres sites

J'interviens à nouveau car pendant que j'ecrivais mon message, certains on eu le temps d'écrire leur réactions.

Maintenant, on se demande pourquoi les moteurs ne font rien pour éliminer ces pratiques. Or dans mon message, je dis justement qu'ils font et, surtout, je démontre pourquoi ils ont intérêt à faire.

Dites-vous que le jour ou Google perdra sa pertinence, il ne sera plus n°1. Dites-vous que c'est un marché de plusieurs milliard de dollars dont il s'agit et, aux Etats-Unis, encore plus qu'ailleurs, on ne rigole avec ça.

Donc forcément qu'il réagit. Mais vous devez savoir que ce moteur c'est également plus de 3 milliard de pages indexées.

Il arrive que des sites soient bannis, peut-être pas ceux que vous voudriez, mais ça arrive.

Alors, franchement, je trouve injuste d'accuser Google de ne rien faire. Dites vous que s'il ne fait rien, il perdra sans aucun doute bien plus que vous n'avez à perdre.

Lien vers le commentaire
Partager sur d’autres sites

En attendant, j'ai trouver une bonne parade,

il y a google-filtrer. c'est pas mal !

Et aussi apocalx.com qui avait fermer mais qui est apparament de retour, lui aussi possede un bon filtre contre les resultats douteux que nous fournis google a l'heure actuelle.

Kiara

Lien vers le commentaire
Partager sur d’autres sites

Je suis d'accord avec toi kiara... Mais

N'oublions pas le titre: Le spamdexing sur les moteurs de recherche., Définition, responsabilités, solutions.

il faut attaquer par le debut sinon on s'en sort pas et cela part dans tous les sens... ;)

Donc ma definition Globale de spam indexing est la suivante:

Ensemble des méthodes  et techniques permettant d'améliorer son positionnement artificiellement. Par artificiellement j'entend un positionnement sur un mot clé sans rapport avec le contenu de la page finale (Apres redirection diverse et variés) et n'apportant à l'internaute aucune information propre et/ou pertinente en  rapport avec le mot clé tapé sur le moteur de recherche.

Premier essai

:nono:

Modifié par Dams
Lien vers le commentaire
Partager sur d’autres sites

Bon je reposterais quand on sera aux resultats, je veux la premiere place ;)

j'entend un positionnement sur un mot clé sans rapport avec le contenu ....

rectification : sur une quantité de mots clés sans rapport .ETC.

Kiara

Lien vers le commentaire
Partager sur d’autres sites

Salut Dams

J'ai poposé une définition que tu n'as pas lu ou qui ne t'a pas plu

le spamdexing commence lorsqu'on réalise des pages uniquement destinées aux robots des moteurs de recherche, même si le contenu de ces pages est en rapport avec le site dont elles améliorent le positionnement.

La nuance par rapport à ta définition se trouve dans la deuxième partie. A t'entendre il y a les bon spammeurs et les mauvais spammeurs. C'est comme les bons chasseurs et les mauvais chasseurs, on ne voit toujours pas quelle est la différence.

Lien vers le commentaire
Partager sur d’autres sites

Oui mais si on prend cette définition, alors beaucoup d'entre nous en ferait,

ca voudrait dire exit le rewriting, exit les echanges de liens avec bon PR, exit l'optimisation des balises meta et j'en oublie.

Parce que toutes ces techniques sont faîtes pour améliorer le positionnement.

Qu'il y'ait des abus, sans doute... ( et vu votre définition du spam indexing, beaucoup doivent se sentir concernés.. )

En tous les cas c'est un secteur en pleine croissance, un vrai commerce et certains en vivent très bien, et à mon avis ils ont encore de beaux jours devant eux.

Lien vers le commentaire
Partager sur d’autres sites

Escuse moi thierryf... Effectivement j'ai du lire trop "transversalement" ton post...

Le probléme de ta définition c'est qu'elle inclut toute action de référencement. Et que si on s'y référe on ne doit pas créer les pages dans une optique d'optimisation et d'indexation...

L'avantage de ma définition c'est qu'elle reconnait l'optimisation et le référencement. D'ou le bon et le mauvais chasseur ;)

Qu'en pense tu ?

Lien vers le commentaire
Partager sur d’autres sites

Bonjour,

Dams et smile, j'allais abonder dans votre sens : définition trop restrictive.

Mais j'ai relu plus attentivement la définition de thierryf, il y est question de "pages uniquement destinées aux robots des moteurs de recherche".

Des techniques comme l'URL rewriting (URL plus parlantes), les échanges de liens (suggestion d'autres sources d'information), l'optimisation du code (contenu bien structuré)... employées à bon escient, sont aussi bénéfiques pour les internautes, il me semble.

Lien vers le commentaire
Partager sur d’autres sites

bonjour à tous,

Je suis tout à fait d'accord avec Monique sur le fait que l'url rewriting, l'echange de liens et l'optimisation du code vont dans le sens de l'internaute.

Aussi, la définition de Dams me semble aller dans ce sens.

Par contre la définition de thierryf soulève un problème fondamental :

même si le contenu de ces pages est en rapport avec le site dont elles améliorent le positionnement

un site ne proposant pas de contenu textuel spécifique mais étant positionné sur des mots clés caractérisant réellement son activité peut-il être considéré spammeur ?

Imaginons un site, développé en Flash ou totalement graphique, de vente de boudins aux pommes. Aucun contenu textuel, ou tres peu, n'est présent. Le fait que ce site soit bien positionné sur les expressions "boudins pommes" et "vente boudins pommes" doit être considéré comme du spam à cause des techniques utilisées ou bien pertinent parce qu'apportant une réponse pertinente aus expressions recherchées ?

Alors : pertinence du résultat ou "fraude technique" ?

Il me semble en tout cas que ces premiers essais de définition sont intéressants. Vue la difficulté de la chose, nous devrions peut-être garder une définition générale et de bon sens et la compléter par un ensemble de règles précises ?

Lien vers le commentaire
Partager sur d’autres sites

Pour moi, le Spamdexing peut tres bien etre présent meme si les mots clés sont en rapport avec le contenu. le fait que les mots optimisés (titre par exemple) ne soient pas en rapport avec le contenu n est qu une des facettes du Spamdexing. Ainsi, un webmaster montant 200 sites satelites avec duplicate contnt, redirection automatique, etc et optimisant tous ces sites (ou toutes ces pages) sur les mots clés "appartenant" a son domaine d activité utilise tout autant des methodes spamdexing. La notion de Spamdexing prend son sens a partir du moment ou es internautes ou les webmaster ou les deux en meme temps sont lesés par ces pratiques)

je m essaye donc :

"Ensemble de methodes visant à optimiser artificiellement le référencement et le positionnement dŽune page ou dŽun site internet ayant pour conséquence

1) une dégradation de la pertinence des résultats de recherche

2) une restriction excessive du choix des sources d informations proposés aux internautes

3) lŽentrave à lŽinformation ou la concurrence déloyale au sein des "fournisseurs" dŽinformations (Webmasters, Référenceurs, Entreprises propriétaires de site internet, etc.)"

En dŽautres termes, et parce ue des exemples sont toujours plus parlant quŽune explcation pseudo "literrraire", je fait un "copier/coller" des conseils "a ne pas faire" donnés par google que tout le monde devrait connaitre :

Évitez texte caché et liens cachés.

N'utilisez pas de pages masquées (« cloaking ») ou de redirections sournoises.

N'envoyez pas de requêtes automatiques à Google.

Ne multipliez pas les mots sans rapport avec votre contenu réel.

Ne créez pas plusieurs pages, domaines ou sous-domaines au contenu essentiellement identique.

Évitez les pages satellite (« doorway ») créées exclusivement pour les robots des moteurs de recherche, ou autres solutions « bateau » telles que les programmes d'affiliation au contenu pauvre ou inexistant.

Si on part de là, il ne me semble pas difficile de savoir si tel ou tel site pratique le Spamdexing.......

A+

Hervé

Lien vers le commentaire
Partager sur d’autres sites

salut,

Voila, c'est un des poinst a garder :

vont dans le sens de l'internaute.

Un site de boudin au pomme peut se positionner sur vente de boudin pommes, si c'est son activité, a partir du moment ou il respecte les internautes, et ou il ne les induits pas en erreur.

Apres il utilise la technique qu'il veut, surtout en flash et sans contenu il est un peu obliger.

Le spam intervient si ce meme site se place sur des requetes totalement hors contexte. visant a tromper les internautes.

Kiara

Lien vers le commentaire
Partager sur d’autres sites

Je pense que le gros probleme de cette tentative de définition... C'est l'absence de critère objectif.

Pour les limitations de vitesse: 90 Km c'est clair...

Pour le nombre de paquets de cigarettes lorsque l'on passe la frontière c'est clair.

Pour l'école ce n'est pas "tant que l'éducation n'est pas..". Non c'est "L'école est obligatoire jusqu'a 16 ans".

Donc comment peut t'on rationaliser quelque chose qui n'est pas mesurable :?::?:

Existe t'il des indices qui pourrais permettre de dire blanc ou noir :?::?:

Car veuillez m'excusez mais le terme "pertinence pour l'internaute" n'est pas très reproductible.

:whistling:

Modifié par Dams
Lien vers le commentaire
Partager sur d’autres sites

Après avoir longtemps souhaité l'ouverture d'un débat public avec les moteurs de recherche sur la question du spamdexing, j'ai tendance à penser aujourd'hui que ça ne servira à rien...

D'abord, parce qu'ils refuseront l'ouverture d'un vrai débat pour des raisons d'image.

Mais aussi et surtout parce que finalement le terme de spamdexing est trop vague et trop flou.

La définition "classique" ("ensemble de techniques et méthodes...") n'est plus opérante aujourd'hui.

Comme le reconnaissent la plupart des moteurs, le spamdexing se définit moins comme un ensemble de techniques que comme un abus ou un détournement de n'importe quelle technique quelle qu'elle soit.

Continuer de définir le spamdexing comme un ensemble de techniques reviendrait à interdire le Html...

D'autre part, en regroupant sous l'appelation générique de "spamdexing" des pratiques de nature et de niveaux de gravité complètement différents, on en vient finalement à banaliser les formes d'abus les plus graves...

Parlons plutôt de stratégies de référencement déloyales, ou même illégales pour certaines d'entre elles.

Je vois a priori trois catégories distinctes :

- l'optimisation trompeuse

- toutes les formes de concurrence déloyale : nuire au référencement de concurrents, truster les premières pages de résultats, publicité mensongère...

- les infractions au copyright, au droit d'auteur, à la propriété intellectuelle, l'usurpation d'identité, etc.

Il va de soi que la 3eme catégorie est la plus grave.

Lien vers le commentaire
Partager sur d’autres sites

salut,

en ecrivant ma definition, je me suis aussi dit :"ou commence le manque de pertinence ? c est flou". bref, en reprenant la liste de ce qu on ne doit pas faire, tout devient clair. un site utilise du texte a la couleur du fond ? spamdexing. un site existe en plus de de deux exemplaire (on tolerera les cas flash et le cas temporaire de déménagement de sites, etc.) ? spamdexing. liste de mots clé dans le contenu ? spadexing, etc etc. bref, il suffirait de controler que l unde de ces methodes est employée pour jusger du caractere "spadexant" d un site. je vois la difficulté plus dans le controle et lŽaction a entreprendre (manuellement ? aie !!) que dans lŽappreciation ou la definition du spamdexing. la definition, tout le monde la connait meme si elle n est pas explicitement ecrite quelque part. donc on sait qui fait du spam, on est capable de les pointer du doigt mais la question est :

- que veut-on faire de ces sites ? rayer de la carte ? tolérer ? ignorer ?

bref, on trouvera toujours une definition et des criteres, la question est de savoir si on veut mettre des radars (pour reprendre la comparaison) et faire payer des amendes aux fraudeurs....

a+

hervé

Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...