Aller au contenu

En finir avec les pages redirections trompeuse


Sujets conseillés

Ahum, tu n'as peut-être pas bien compris.

Notre outil de détecte pas

les pages référençant des pages satellites

mais

les pages satellites elle-mêmes, qui redirigent vers une autre

Je pense que c'est toi qui confonds.

Ton outil détecte les redirections, et non les pages satellites.

Les pages satellites n'ont pas besoin de redirection... ce sont des pages qui sont faites "pour les moteurs" et non-destinées à être vues par les utilisateurs.

Ce que tu détectes est ce que Google appelle une "deceptive redirect", ou "redirection trompeuse".

C'est le titre de ton premier post qui est trompeur vu que tu parles de pages satellites, alors que tu traites uniquement les redirections. ;)

Dan

Lien vers le commentaire
Partager sur d’autres sites

  • Réponses 79
  • Créé
  • Dernière réponse

Contributeurs actifs dans ce sujet

Contributeurs actifs dans ce sujet

Ton outil détecte les redirections, et non les pages satellites.

Okayyyy, d'où les incompréhensions.

Il faut dire que la littérature sur ces sujets est pour le moins hermétique et qu'on a bien du mal à s'y retrouver.

(cf. spam report et autres de Google, que ceux qui comprennent lèvent le doigt :hypocrite: )

Naïvement je voyais les pages satellites tournant autour de la page cible vers laquelle elles renvoient toutes.

Le terme anglais "doorway page" me semblait illustrer à peu près la même chose.

Tout ça aura au moins eu le mérite d'apporter cette clarification.

Et je ne suis sûr de ne pas être le seul à faire cette confusion.

Vaut mieux ne pas imaginer ce que peuvent comprendre les clients sur le sujet ...

J'ai changé le titre erroné du fil ...

Merci encore de vos contribs.

Modifié par AbaqueInside
Lien vers le commentaire
Partager sur d’autres sites

Si c'est tout le contenu de la page qui est trafiqué, c'est un autre problème que mon outil n'a nullement l'ambition d'adresser.

La seule solution envisageable serait de passer après le robot comme internaute lambda, lire la page et l'envoyer au MR pour comparaison avec le cache.

Et c'est une toute autre histoire...

A nouveau, je pense que ce genre d'approche "internaute mystère" serait très intéressante.

Il ne s'agit pas de vérifier toutes les pages mais, disons, les dix premières sur les 20 % de mots clés représentant 80 % des recherches, et ce de façon aléatoire.

Contrôle anti-dopage est probablement la meilleure analogie.

Et je verrais très bien une communauté comme le Hub jouer les contrôleurs.

Bon je mélange encore un peu les termes cloaking, pages satellites, redirections etc. car je suis novice, mais il me semble que le problème en gros c'est qu'il est possible d'afficher une page en fonction du visiteur cad de son ip.

Les moteurs étant surveillés, connus, et ne pouvant avoir des ip qui changent à tout bout de champs, ils restent donc quelques que soient leurs méthodes, identifiables et sujets à cette fraude...

Faire appel à une communauté par définition variable et illimité qui comparerai ses "maigres" résultats en terme de pages indéxées par site, avec le même panel de page disons scannées par google (on parle donc d'un partenariat avec les moteurs) me semblerait donc une bonne méthode pour distinguer du contenu traffiqué et du contenu utile.

Et puis pour les dommages collatéraux, google a à mon avis une échelle d'évaluation suffisament large pour faire perdre quelque places a un site utilisant des techniques peu habituelles mais pas systématiquement mal intentionnées sans pour autant le faire complétement disparaitre.

Un tout dernier mot au sujet de jagger, il semble que nous devons encore faire face à sa version 2 puis 3 dans les prochaines semaines donc il nous réserve peut être de très agréables surprises en terme de détection de spam... :P

Il faut quand même lui reconnaitre que c'a bouge ces temps-ci sur ce point.

Modifié par Amibien
Lien vers le commentaire
Partager sur d’autres sites

Faire appel à une communauté par définition variable et illimité qui comparerai ses "maigres" résultats en terme de pages indéxées par site, avec le même panel de page disons scannées par google (on parle donc d'un partenariat avec les moteurs) me semblerait donc une bonne méthode pour distinguer du contenu traffiqué et du contenu utile.

Cela existe déjà pour ainsi dire puisque Google a mis en place des outils de délation.

Le problème majeur vient du fait que même si tu leur écrit pour leur fournir une preuve flagrante de tromperie, j'ai l'impression qu'il n'en tiennent pas compte ou alors mon anglais est trés mauvais :blink:

Lien vers le commentaire
Partager sur d’autres sites

Je ne sais pas quelle est l'origine étymologique de "page satellite" ni qui a inventé le terme ...

Mais le terme n'existe que dans le jargon français.

Effectivement, les anglophones parlent de "doorway page", ce qui n'est pas la traduction...

Il s'agit donc bien, comme l'a dit Dan, de pages conçues pour être vues par les moteurs. Ensuite, elles peuvent être visible ou pas par les internautes (en général, ces pages mochissimes sont cachées par un "cloaking").

Pour info, la dénomination anglosaxonne n'est pas très bien définie non plus, ni l'appellation. J'ai déjà vu les termes :

- bridge pages

- jump pages

- gateway pages

- entry pages

Tout ce qui est "bridge" et "jump" font allusion à des pages redirigeant automatiquement vers autre chose que le contenu de la page sat', tandis que gateway et entry plutôt vers une page inaccessible mais avec le même contenu que la page sat'...

Doorway est plus générique...

Lien vers le commentaire
Partager sur d’autres sites

Faire appel à une communauté par définition variable et illimité qui comparerai ses "maigres" résultats en terme de pages indéxées par site, avec le même panel de page disons scannées par google (on parle donc d'un partenariat avec les moteurs) me semblerait donc une bonne méthode pour distinguer du contenu traffiqué et du contenu utile.

Content qu'une de mes idées ait pu trouver un accueil favorable dans ces colonnes

Perso. je suis convaincu que les MR devront un jour envisager de recourir à des "internautes mystères".

Un tout dernier mot au sujet de jagger, ... il nous réserve peut être de très agréables surprises en terme de détection de spam...

Sur les mots clés qui nous concernent, les premières places sont toujours trustées par des pages htm avec redirections douteuses.

J'insiste sur htm car cela signifie que, sauf si le Webmestre de ces sites est un virtuose, ce dont je doute, ce sont des pages statiques, donc pas "cloakées" (le cloaking nécessite des pages dynamiques type PHP, ASP, etc.).

Il semble que Jagger ait encore un peu de mal avec le "cloaking du pauvre", c'est à dires les redirections JavaScript de base.

C'est justement l'objet de l'outil présenté par ce fil.

Je veux bien qu'il faille s'attaquer au cloaking sophistiqué, mais il reste encore tant de redirections "basiques" ...

On pourrait résoudre d'abord les problèmes les plus simples, non ?

Il s'agit donc bien, comme l'a dit Dan, de pages conçues pour être vues par les moteurs

Disons qu'il s'agit plutôt de pages dont le contenu dépend du visiteur.

C'est un bon principe pour, par exemple, localiser un site selon les HTTP_ACCEPT_LANGUAGE du fureteur client.

En revanche il est détourné pour leurrer les moteurs : selon le visiteur, le programme serveur envoie un contenu différent ou parfois redirige vers une autre page.

AMHA la clarification réelle de ces techniques, même si elle peut mal inspirer ceux qui ne les connaissent pas encore, permettrait de lutter plus efficacement contre.

Comme dans le cyclisme, il reste à savoir si la majorité des Webmestres préfèrent un web propre ou bricolé.

A la lumière de cette longue conversation, je me permets d'avoir quelques doutes sur la pureté des intentions moyennes.

Je ne sais pas si ça a déjà été organisé ici, mais un sondage sur "Voulez-vous réellement un web clean" serait assez intéressant.

Lien vers le commentaire
Partager sur d’autres sites

J'insiste sur htm car cela signifie que, sauf si le Webmestre de ces sites est un virtuose, ce dont je doute, ce sont des pages statiques, donc pas "cloakées" (le cloaking nécessite des pages dynamiques type PHP, ASP, etc.).

Alors, là encore, tu dis n'importe quoi... La technique de l'URL-Rewritting permet basiquement à n'importe quel webmaster - même non virtuose - de renommer toutes ses pages ".php, .asp, .jsp" en ".html"... ( http://www.webmaster-hub.com/publication/a...r_recherche=url )

A la lumière de cette longue conversation, je me permets d'avoir quelques doutes sur la pureté des intentions moyennes.

On ne t'a pas attendu pour mener ce débat sur le HUB. On a toujours proné ici le développement d'un WEB "propre" qui privilégie le contenu utile aux bidouilles.

La plupart des problèmes que tu souléve sont les bons... On en a déja largement discutté dans les colonnes du HUB. Par contre, tu les regardes par le petit coté de la lorgnette. Il y a des dizaines d'ingénieurs - et pas les moins bons - qui travaillent chaque jour chez google pour leur trouver une solution. Si la résolution de ces problèmes était aussi simple que tu le prétend, il y a longtemps à mon avis qu'ils l'auraient fait.

Tizel

Lien vers le commentaire
Partager sur d’autres sites

J'insiste sur htm car cela signifie que, sauf si le Webmestre de ces sites est un virtuose, ce dont je doute, ce sont des pages statiques, donc pas "cloakées" (le cloaking nécessite des pages dynamiques type PHP, ASP, etc.).

Il semble que Jagger ait encore un peu de mal avec le "cloaking du pauvre", c'est à dires les redirections JavaScript de base.

C'est justement l'objet de l'outil présenté par ce fil.

Salut,

Pas besoin d'être un virtuose pour utiliser la réécriture d'URLs ... et encore moins pour faire usage d'une directive AddType pour faire parser les fichiers .htm par l'interpréteur de son choix (php, asp, etc...)

Tu te lances dans des affirmations qui démontrent que tu es loin de maîtriser le sujet et tu m'en vois désolé.

Je pense qu'on peut clôturer ce fil avant qu'il ne se transforme en troll ou qu'il ne tourne au dialogue de sourds.

Dan

Lien vers le commentaire
Partager sur d’autres sites

Tu as raison Dan,

Je dois veiller à ne pas émettre d'affirmations hâtives dont ce fil(et) est déjà largement garni.

J'ai donc vérifié le contenu du cache Google qui a confirmé mes doutes.

Voici ce que j'y ai trouvé pour les deux sites les mieux placés sur nos mots clés :

(les URL sont maquillées en "Site Concurrent")

Le premier ne fait pas dans le subtil (extraite le 31 août 2005 17:50:34 GMT)

<script>location.href="http://www.Site Concurrent.fr"</script>

Le second est plus futé (extraite le 10 oct 2005 15:52:46 GMT)

<mwhook href="http://www.Site Concurrent.com/" oldref="http://www.Site Concurrent.com/" flags="1">
<script Language="JavaScript" mwhook>
<!--
function mwhook(data,id)
{
if ( data =='http://www.Site Concurrent.com/')
return '../index.html'
else
return data;
}
//-->
</script>

Dans les deux cas Google n'a pas détecté la redirection JavaScript.

Je conviens que les dates d'extraction sont antérieures à la dernière Google Dance.

Je vous propose donc de faire la même vérification d'ici un mois sur les mêmes pages.

Si vous avez des exemples de redirections récents, je me ferai un plaisir d'y jeter un coup d'oeil.

(j'ai dû utiliser un outil HTTPGet car les redirections empêchent de lire le cache Google avec un fureteur).

Lien vers le commentaire
Partager sur d’autres sites

Le premier ne fait pas dans le subtil (extraite le 31 août 2005 17:50:34 GMT)

CODE

<script>location.href=&quot;http://www.Site Concurrent.fr"</script>

J'avoue ne pas trés bien comprendre le principe ou alors je suis encore mal reveillé.

Cette méthode a pour but de rediriger automatiquement le visiteur vers un autre site (en l'occurence le vôtre, si je ne me trompe)

Quel est l'intêret ?

Lien vers le commentaire
Partager sur d’autres sites

Bonjour c.klouchi,

Cette méthode a pour but de rediriger automatiquement le visiteur vers un autre site (en l'occurence le vôtre, si je ne me trompe)

Je vais tenter de réexpliquer, plus clairement j'espère, je vais tout faire pour. :blink:

Comme nous tous, notre société a un site que nous essayons de bien placer dans Google sur certains mots clés.

Nous y travaillons depuis plusieurs mois avec des moyens respectueux de la charte de référencement : du vrai contenu que nous espérons pertinent pour nos prospects, placé dans les titres, nous utilisons <em> au lieu de <b> etc..

Nous n'utilisons aucune redirection, page satellite, cloaking, texte caché, ou autres. :wacko:

Il se trouve que, sur les mots clés que nous visons, la première page de Google est peuplée de pages que j'avais qualifiées, à tord semble-t-il, de "satellite", qui sont en fait des pages ayant de nombreux liens et textes non pertinents, dont le but est de leurrer le moteur de recherche, et, quelque part, un JavaScript qui renvoie l'internaute sur la page d'accueil du site. Cette page d'accueil, elle, ne fait bien sûr aucune mention des mots clés en question.

Après :

- avoir suivi attentivement ces colonnes,

- plusieurs Google Dances,

- plusieurs Google spam reports infructueux,

J'en suis arrivé à la conclusion que Google et ses confrères ne savaient pas détecter les redirections JavaScript.

Je me suis dit qu'il y avait peut-être quelque chose à faire et ai travaillé à l'outil présenté en tête de ce fil qui sait détecter ces redirections JavaScript.

S'en sont suivi des échanges nourris avec le Hub, dont le dernier a été l'hypothèse légitime de Dan selon laquelle les sites en question pouvaient pratiquer le cloaking, c'est à dire montrer au robot du moteur de recherche une page sans redirection, et à l'internaute lambda la même page avec redirection.

J'ai donc poursuivi mon enquête en regardant ce que Google avait en cache, c'est à dire ce que les sites lui avaient effectivement montré.

J'ai constaté que les redirections sont bien en cache, que Google en a connaissance et n'a pas su pas la détecter.

(rappellons que la redirection trompeuse fait partie des critères du Google spam reports)

J'ai mis un bémol en constatant que Google avait mis ces pages en cache il y a un mois ou deux, avant la dernière version de son "Jagger" (je ne saurais dire ce que c'est exactement) réputé pouvoir résoudre ces problèmes.

J'attends donc un peu pour tirer des conclusions plus affirmatives.

Voilà donc où nous en sommes.

N'hésite pas si cela reste obscur ... Il plus décidément facile de s'exprimer par oral que dans une boite de texte !

Lien vers le commentaire
Partager sur d’autres sites

Ah oui je comprend mieux, je croyais que la redirect redirigé vers votre site comme les 301 pour s'emparer d'un positionnement.

Désolé.

Donc :

nous utilisons <em> au lieu de <b> etc..

Il serait à mon avis plus judicieux d'utiliser <strong> à la place de <b> ;)

peuplée de pages que j'avais qualifiées, à tord semble-t-il, de "satellite", qui sont en fait des pages ayant de nombreux liens et textes non pertinents, dont le but est de leurrer le moteur de recherche, et, quelque part, un JavaScript

Google ne sait pas encore lire le JS et les CSS :whistling:

Mais ça ne devrait tarder.

Mon meilleur conseil est d'optimiser votre référencement en laissant de côté les dits-sites, le travail honnête paye toujours mais il faut vraiment laisser le temps au temps !

Lien vers le commentaire
Partager sur d’autres sites

Il serait à mon avis plus judicieux d'utiliser <strong> à la place de <b>

En effet, coquille dans mon post

Google ne sait pas encore lire le JS et les CSS mais ça ne devrait tarder.

Que St Google vous entende ! Je vais de ce pas brûler un cierge :fou:

Je garde un doute sur Jagger car il aurait dû réévaluer les pages en cache et donc les redirections dont je parle plus haut.

Mais laissons du temps au temps ... Google est aujourd'hui un paquebot qui ne manoeuvre plus comme un dériveur.

Ma proposition, que je répète (la répétition étant paraît-il l'art de la pédagogie), serait de constituer un groupe d'internaute mystère qui remonte à Google (ou autre) les pages réellement vues par l'internaute aux URL données dans les résultats de recherche. D'où l'intérêt d'un outil non Google contournant les redirections JS.

Avec un tel outil (le nôtre par exemple), nous pourrions (modestement) lutter contre le cloaking ET les redirections JS.

Mon meilleur conseil est d'optimiser votre référencement en laissant de côté les dits-sites, le travail honnête paye toujours mais il faut vraiment laisser le temps au temps !

Nous avons eu le même conseil au mois de février que nous avons appliqué scrupuleusement ... et je dois dire que parfois je perds un peu patience ... :whistling:

Lien vers le commentaire
Partager sur d’autres sites

Ma proposition, que je répète (la répétition étant paraît-il l'art de la pédagogie), serait de constituer un groupe d'internaute mystère qui remonte à Google (ou autre) les pages réellement vues par l'internaute aux URL données dans les résultats de recherche.

<{POST_SNAPBACK}>

Ca m'intéresse !

Je vais donc consacrer du temps à cette tâche. Grâce à celle-ci, les résultats des recherches donnés par Google vont s'améliorer, celui-ci sera donc encore plus consulté et il rentabilisera encore mieux ses emplacements publicitaires. Je vais donc faire gagner des sous à cette société.

Qui me rémunère pour cela, et combien ?

Lien vers le commentaire
Partager sur d’autres sites

Qui me rémunère pour cela, et combien ?

Il faudrait constituer une association (par exemple "les Internautes Anonymes") et proposer le deal à Google et à ses concurrents.

Je pense que ça leur épargnerait des prises de tête pas possibles pour lutter contre les méthodes déloyales.

Pour certaines d'entre elles (cloaking), vu que les IP's des robots sont bien connues et ne peuvent changer à tout champ (je rejoins tout à fait l'avis de nos camarades), ils ne peuvent pas faire grand' chose.

L'idée serait que, peu après avoir fait passer le robot, Google envoie aux Internautes Anonymes une liste d'adresses fraichement mises en cache.

Les IA remontent le contenu des pages réellement vues par l'internaute et Google les compare au cache.

Au bout de x comparaisons bien différentes, l'adresse est rétrogradée.

Google pourrait Gérer :

- les adresses à vérifier (donc pourrait écarter celles qu'il juge sensibles d'un point de vue commercial)

- la comparaison avec le cache (comment apprécier la différence, est-elle fortuite ou maligne)

- la politique de déclassement éventuel

Juste une idée.

Pour que le système puisse fonctionner, il faut que les Internautes Anonymes déjouent à coup sûr les redirections par JavaScript.

Bien sûr il faut mettre au point les modlités garantissant l'anonymat des Internautes et la fiabilité des visites anonymes.

Lien vers le commentaire
Partager sur d’autres sites

Euh... Ma question était une boutade : je n'aime pas le principe de l'idée (la délation, gratuite ou non, c'est vraiment pas mon truc).

Je doute que tu parviennes à démontrer à un moteur que cette idée est rentable, si les anonymes doivent être correctement payés. Mais merci tout de même d'avoir répondu.

Lien vers le commentaire
Partager sur d’autres sites

Ton idée ressemble un peu à ce que faisait Alexa. Les internautes installaient une barre d'outil qui envoyaient à Alexa les adresses visitée par les internautes... Alexa peut alors produire un classement en tenant compte des sites réellement visités par les internautes. Problème, le nombre d'Alexa Barre n'est pas suffisant pour que le résultat soit représentatif sur des requêtes peu courantes.

Google pourrait trés bien implémenter une barre qui renvoie vers Google toutes le pages visitées par l'internaute. Il y a cependant un problème, et de taille : est-ce que tu souhaiterais que Google sache quels sont tous les sites que tu visite ? Pas sur... En plus, cela générerais énormément de traffic upload chez les internautes, et il faudrait que Google crée des serveurs dédiés pour cela... Cela coute trés cher pour que google vérifie que le blog de ta nièce n'est pas cloaké... Il ne faut quand même pas exagérer, les sites cloakés ne sont quand même pas si nombreux et ne le sont que pour des requêtes trés concurentes. La plupart des sites qui sur-optimisent leurs pages savent à quoi ils s'exposent. La preuve, il n'est pas rare de voir des membres pleurer car leur site a été blacklisté (et pas forcément que des petits sites).

Tizel

Lien vers le commentaire
Partager sur d’autres sites

Bonjour "AbaqueInside",

Je viens de lire tout ton post...

Certains éléments m'échappent (je n'ai pas les compétences pour cela)... mais j'ai retenu, entre autre : détection des redirections javascript...

Et je me suis rappelé d'un article que j'ai lu, il y a quelques semaines...

Je cite :

Un programme pilote de Google concerne l'avertissement aux webmasters coupables de tricherie, notamment à l'aide de redirections Javascript.

L'article est ici.

Le sujet a été abordé, aussi, sur les forums suivants : ThreadWatch, SearchEngineForums, SearchEngineWatch (cf. liens en bas de l'article ci-dessus)

Lien vers le commentaire
Partager sur d’autres sites

si les anonymes doivent être correctement payés

Bien sûr dans ma proposition les Anonymes ne font rien manuellement.

Ils mettent simplement à disposition une machine équipée d'un programme qui visite les adresses et remonte automatiquement les résultats.

D'où l'intérêt d'un programme pouvant déjouer les redirections JS.

Une sorte de robot bis vraiment anonyme lui.

Lien vers le commentaire
Partager sur d’autres sites

Un programme pilote de Google concerne l'avertissement aux webmasters coupables de tricherie, notamment à l'aide de redirections Javascript.

Tant mieux si le problème est réellement résolu, je m'en réjouis comme toi.

Pour ma part je me méfie un peu des effets de manche Marketing tendant à conforter auprès de la communauté des Webmaster l'image de marque de Google comme "le moteur de recherche donnant les résutats les plus pertinents".

En effet, si cet image se dégrade, adieu les AdWords et autres AdSense qui rapportent tant à Google (1.5 milliards de dollars l'an dernier à coups de .02 centime le clic) et leur donne une valeur en bourse double de celle de General Motors.

N'oublions jamais que Google est désormais en bourse et doit être gérée comme tel.

Ce que je peux dire à coup sûr, c'est que j'ai pas mal de concurrents qui utilisent encore ce "cloaking du pauvre" sans aucun souci.

Lien vers le commentaire
Partager sur d’autres sites

Google pourrait trés bien implémenter une barre qui renvoie vers Google toutes le pages visitées par l'internaute.

On appelle cela la Google ToolBar et ça fait actullement polèmique sur la vie privé des utilisateurs ;)

Lien vers le commentaire
Partager sur d’autres sites

tu souhaiterais que Google sache quels sont tous les sites que tu visite

Ma proposition est bien éloignée de ce scénario.

Clarifions la donc.

Le système s'apparente aux "Clients Mystères" utilisés par la plupart des chaines de magasins franchisés.

Les Internautes Anonymes signent un accord avec Google (ou autre).

Ce faisant ils lui donnent leur adresse IP fixe qu'ils s'engagent à ne dévoiler à personne (croix de bois croix de fer si je mens etc.)

Périodiquement Google identifie un lot d'adresses à vérifier qu'il distribue à ses x Internautes Anonymes (par HTTPS, FTPS ou autre)

Les machines des Internautes Anonymes recoivent les adresses, font tourner leur programme dessus et communiquent à Google le contenu des pages lues à ces adresses, après redirection javascript éventuelle bien sûr.

Google fait sa sauce derrière, compare à son cache, fait les gros yeux, ce qu'ils veulent.

Il ne s'agit en aucun cas de flicage à l'insu de quiconque, mais un programme auquel chacun est libre de souscrire ou non.

Lien vers le commentaire
Partager sur d’autres sites

Salut,

bon, a mon avis y'a quant meme un ch'tit probleme avec ton outil.

Par exemple, mon site etait duplique chez mon ancien herbergeur et sur ma propre machine. Comme ca me penalisait dans GG (pages dupliques : il y a un sujet dans le hub pour mon probleme ...), j'ai implemente une redirection GENERALE chez mon ex-hebergeur vers ma machine.

Exemple : http://membres.lycos.fr/destroyedlolo/galerie/

qui pointe reelement sur

http://destroyedlolo.homeunix.org/galerie/

Ton outils indique que c'est un

redirection trompeuse
, alors que c'est a ma connaissance la methode recommendee par Google lorsque l'ont deplace un site ... C'est d'autant plus faut que cette redirection s'applique a tous les visiteurs, donc aussi au robots.

Ca n'a donc rien de frauduleux :boude:

Bon courage pour la suite :)

Lolo

Modifié par destroyedlolo
Lien vers le commentaire
Partager sur d’autres sites

Périodiquement Google identifie un lot d'adresses à vérifier qu'il distribue à ses x Internautes Anonymes (par HTTPS, FTPS ou autre)

Là, oui, ça peut être viable puisqu'en aucun cas ce sont les pages de l'internautes qui sont visitées, mais celles définies à l'avance par Google.

En gros, ce que tu propose, c'est un robot d'indexation distribué... En plus, ça leur économise pas mal de ressources serveur puisque ce n'est plus eux qui gérent directement l'indexation...

Tizel

Lien vers le commentaire
Partager sur d’autres sites

j'ai implemente une redirection GENERALE chez mon ex-hebergeur vers ma machine

Qu'est-ce qui redirige ? pointer.js ?

Les deux pages sont différentes :

- URL demandée : http://membres.lycos.fr/destroyedlolo/galerie/

Poids : 11.35 kb

- URL après redirection : http://destroyedlolo.homeunix.org:8080/galerie/

Poids : 8.34 kb

Je vais enlever le "trompeur" pour te faire plaisir :rolleyes:

Je n'ai jamais prétendu avoir un outil parfait, juste une ébauche qui donne des résultats que je trouve encourageants.

Il a besoin d'être perfectionné et vos contribs mesurées y aideront.

Ce serait pas mal, et agréable, que ceux qui obtiennent de bons résultats en fassent état, pas seulement les failles.

Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant

×
×
  • Créer...