Aller au contenu

futur positionnement


skale

Sujets conseillés

Bonsoir,

je reçois des visites depuis Google pour des mots clés que je cible, mais je ne suis pas encore dans les 20 premières pages :) Ces recherches sont vraiment celles qui m'intéressent, où j'espère me positionner et pour lesquelles j'ai optimisé mon site.

Je peux ajouter que ces visites ne sont pas celles d'un robot (a priori). C'est comme si j'étais victime de spam referer depuis un moteur de recherche. Je trouve cela étonnant car l'intérêt (entre guillements) de ce genre de spam est d'obtenir un lien retour depuis un site qui afficherait ses statistiques ou la visite d'un webmaster curieux.

Est-ce que je peux envisager d'avoir un bot de Google (avec IP et User Agent qui différe de la normale) qui anticipe les résultats du moteur. Est-ce qu'un autre bot passe en revue les résultats de Google pour je ne sais quelle raison ? Par exemple je pense à un robot qui ferai des statistiques comme Yoovi, mais pourquoi va-t-il visiter le site ?

Voilà, si quelqu'un a une idée, merci d'avance.

skale

Lien vers le commentaire
Partager sur d’autres sites

C'est peut-être quelqu'un qui utilise ce User Agent à l'aide d'un navigateur comme firefox et une extension permettant de le changer.

Pourquoi ? Peut-être pour détecter si tu fais du cloaking (ce qui, en se basant sur le User Agent, ne serait pas très futé :whistling: )

Lien vers le commentaire
Partager sur d’autres sites

je n'ai pas l'URL complète du referer. Je dis que j'ai des visites depuis Google car c'est que me dis mon programme de stats.

Le programme récupère l'adresse référante, et avec la fonction PHP parse_url, sépare les éléments de la requête, ensuite si la valeur host se trouve dans une table qui liste les domaines des moteurs de recherche, il récupère les mots clés associés. Donc le visiteur vient de Google.

Si besoin pour étude, je me débrouillerai de stocker tous les referer pendant un temps. Mais jusqu'à présent, le programme a rarement été mis en défaut.

skale

Lien vers le commentaire
Partager sur d’autres sites

C'est peut-être quelqu'un qui utilise ce User Agent à l'aide d'un navigateur comme firefox et une extension permettant de le changer.

Pourquoi ? Peut-être pour détecter si tu fais du cloaking (ce qui, en se basant sur le User Agent, ne serait pas très futé :whistling: )

<{POST_SNAPBACK}>

Mais quel user agent ? :blink: je ne comprends pas.

Et je ne fais pas de cloaking. (j'ai voulu utiliser ce smiley :hypocrite: mais il s'appelle hypocrite :lol: ). Et je suis assez futé pour faire ça à partir de l'IP. Justement si l'IP est celle d'un robot connu, le programme ignore la page référante.

skale

Modifié par skale
Lien vers le commentaire
Partager sur d’autres sites

je n'ai pas l'URL complète du referer. Je dis que j'ai des visites depuis Google car c'est que me dis mon programme de stats.

Je ne demandais pas le referrer complet pour vérifier que l'URL provenait de Google, mais pour examiner en détail tous les paramètres de la requête. Les programmes de stats ne s'occupe que des paramètres les plus courants.

Sur Google, on peut faire les recherches "standards" (pour laquelle ton site n'est qu'en 20ème page) ou faire des recherches avec des critères plus pointus (langue, pays, images, date, emplacement,...).

Il est probable que ton site sorte mieux avec certaines de ces sélections.

Jean-Luc

Lien vers le commentaire
Partager sur d’autres sites

Les programmes de stats ne s'occupe que des paramètres les plus courants.

Jean-Luc

<{POST_SNAPBACK}>

Merci, car effectivement le programme ne s'occupe que du paramètre q mais c'est moi qui ai développé ce programme, si c'est possible tu pourras me donner quel critère de sélection je dois prendre en compte de façon à ce que je modifie mon script. Mais cette tâche risque longue et compliquée faut que je m'occupe de tous les moteurs de recherche de ma liste. De plus, il ne peut s'agir d'une recherche avancée puisque ce n'est plus un paramètre q qui est envoyé mais as_q que malheureusement mon programme ignore, mais j'aurais vu l'URL comme un lien.

Merci déjà pour toutes les réponses.

skale

Lien vers le commentaire
Partager sur d’autres sites

Ce qui te trouble, c'est que tu reçois des visites soit disant émanant de Google, alors que tu penses ne pas être apparaître dans les pages de résultats pour ces mots clés là ?

Si c'est bien ça, il y'a une explication bien simple :

- vérifies tu TOUS les datacenters pour savoir si par hasard tu n'es pas déjà indexé sur l'un d'entre eux

- vérifies tu REGULIEREMENT TOUS les datacenters ? Car il n'est pas rare (pour ne pas dire maintenant : fréquent) que des index nouveaux, expérimentaux, apparaissent sur tel ou tel datacenter, puis dans les résultats de www.google, pour se propager ensuite ou retomber dans les limbes de l'oubli.

- vérifies tu REGULIEREMENT TOUS les datacenters en testant avec les différentes extensions (.com, .fr, .co.uk) pour accéder aux index subtilement différents que Google concocte pour chaque pays.

Tout ça pour dire que je ne serais pas étonné que tu apparaisses en première page ou en deuxième page quelque part...

Lien vers le commentaire
Partager sur d’autres sites

> Cariboo

non je ne vérifie pas tous les datacenters, mais c'est une idée pour un script à développer si ce n'est pas déjà fait (?).

Si effectivement j'apparais en première ou deuxième page sur un des datacenters, alors mon idée de départ d'un futur positionnement n'est pas complètement à écarter, mais je sais que cela peut être un positionnement totalement expérimental qui ne se répercutera pas sur les autres datacenters.

> JeanLuc

Je ne pense pas qu'il s'agisse d'un recherche avancée, la paramètre de la requête n'est plus le même qu'une recherche normale, et mon programme aurait comptabilisé cette visite comme une visite depuis un autre site et non un moteur de recherche.

Finalement, je ne pense pas qu'il s'agisse d'un bot mais bien une personne physique dernière son ordinateur. C'est ce qui compte.

Merci à tous

skale

Lien vers le commentaire
Partager sur d’autres sites

Guest Crazy

La question est sérieuse difficile à résoudre, surtout sur Google, actuellement.

Le dernier concours SEO terminé auquel j'ai participé m'a permis d'en apprendre

un peu plus sur Google et la gestion des DataCenters.

Je ne peux tout expliquer rapidement ni de facon absolument sûre,

mais toujours est-il qu'il apparaît que :

- Tous les DataCenters de Google n'ont pas le même mode de fonctionnement

- Il y a parfois des échanges de portions de BDD entre DataCenters

- Il y a des Datacenters qui visitent, d'autres qui indexent et d'autres qui valident

- Il y a des DataCenters de backup (normalement invisibles et non actifs)

- Il y aurait aussi, apparemment (et cela perturbe gravement toute analyse), des DataCenters de test (dont le fonctionnement peut sembler aléatoire)

Je peux donner un exemple :

Sur Google.PL (peut être ailleurs aussi, mais mon attention se portait principalement sur Google.pl à ce moment là), des sautes de 10 positions ont été fréquentes pendant la deuxième quinzaine d'août et les trois premières semaines de septembre. Ces sautes semblaient provenir de permutations de pages entre DataCenters afin, probablement de permettre des refreshs partiels. Cela avait lieu plusieurs fois par jour (de 3 à 15 fois [dûment vérifié], ce qui est énorme) et devait probablement être provoqué par le(s) test(s) des algorithmes qui vont probablement remplacer ceux qui agissaient lors des Google Dance habituelles.

De plus, l'indexation d'un site, chez Google comme sur MSN Search et Yahoo

semble ne plus se faire uniquement sur les keyword mais chaque moteur de recherche tente de référencer les pages des sites en générant à partir du contenu des pages, probablement au travers d'algorithmes IA (vraisemblablement avec chaînage bidirectionnel, logique des prédicats, analyse syntaxique et sémantique, [évaluation probabiliste des faits et des conséquents ?] et utilisation de méta-règles qui sont enrichies au fur et à mesure par l'algorithme lui-même) avec des heuristiques précises, des listes de mots-clés auxquels sont donné des poids (indice de validité qui s'applique aussi aux règles et aux prédicats). Plus le mot-clé aurait de poids, mieux il positionnerait la page lors d'une requète de recherche.

Maintenant, à mon avis personnel, la nouvelle politique à adopter (hormi l'aspect commercial du référencement) me paraît être celle du référencement naturel...

Avec des aides, telles que Google Sitemaps ?

En tout cas Google Sitemaps, ça marche bien... A ne pas négliger...

;)

Alain

Modifié par Crazy
Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...