Aller au contenu

Mise à jour du PR & BLs


rottman

Sujets conseillés

Si un tel algo était en place, cela nécessiterait pour se référencer d'analyser les IP des partenaires et autres annuaires pour pouvoir se référencer proprement. ça me parait improbable.

<{POST_SNAPBACK}>

Pour moi, il y a en effet un gros danger à avoir la même Class C de l'IP et si les échanges de liens tournent autour du même mut c'est clair que ça peut être un gros problème.

Reste à voir à partir de quelle dose le GG accepte les liens émanant d'une même Class C ?

Lien vers le commentaire
Partager sur d’autres sites

On choisit un partenaire en fonction de certains critères (PR, nombre de pages, intérêt du site, ...), pas en fonction de sa classe d'IP.

Sinon pour en revenir au sujet initial, effectivement changement de PR et nombre de bl, mais les positions n'ont pas du tout évoluée. Faut espérer que cette mise à jour ne soit pas terminée...

Lien vers le commentaire
Partager sur d’autres sites

Le problème comme à chaque fois est de trier entre les éléments "sûrs" car confirmés par Google (au moins par Googleguy), les éléments "quasi certains" car vérifiables et vérifiés, et les "rumeurs", les "bruits", et les hypothèses.

Dans les choses sûres : les backlinks et les PR affichés sont déjà utilisés par Google dans son index. Il s'agit d'une photographie prise il y'a quelque temps par Google, et qui sert à alimenter une base spéciale qui sert pour la Googlebarre. Ce mode de fonctionnement a été confirmé trois fois par Googleguy.

Donc Nicolas, ne t'attend pas à voir les classements changer en fonction de ces nouveaux PR / backlinks, c'est déjà une situation passée que tu observes.

Sur les classes d'IP : je classe toujours cela dans les bruits et rumeurs diverses. L'IP des serveurs est utilisable dans la lutte antispam. Mais personne n'a pu démontrer que c'était utilisé par Google dans les algorithmes de classement des pages. Cela a même été démenti au moins deux fois.

La répartition du PR ne se fait plus en fonction des BLs mais aussi en fonction du contenu de la page et de la structure html adoptée.

Pierre, tu fais allusion au blockrank là ? Attention, ça sort des labos de Microsoft, on ne sait pas déjà si c'est utilisé sur MSN, alors chez Google, cela fait un pas de plus qu'il vaut mieux, à mon avis, franchir avec prudence.

Même chose pour le PR négatif : un terme dangereux (genre sandbox) qu'un coup de rasoir d'Occkham peut éliminer. Tant qu'on a pas d'éléments sur un algo spécial, mieux vaut s'en tenir aux filtres "à l'ancienne" qui expliquent déjà pas mal de choses.

Lien vers le commentaire
Partager sur d’autres sites

Donc Nicolas, ne t'attend pas à voir les classements changer en fonction de ces nouveaux PR / backlinks, c'est déjà une situation passée que tu observes.

J'ai bien dit que c'était juste une actualisation du nombre de backlink et du PR et pas une modification du classement :-) donc je m'attends pas à un changement dans le classement suite à cette "dance" ;)

c'est déjà une situation passée que tu observes

Exactement Philippe ! Effectivement les "nouveaux" BL depuis la dernière dance ont été pris en compte dans le classement bien avant celle-ci.

Mais ils le seront aussi lors de la prochaine grosse mis à jour de type "bourbon", c'est ça que je voulais dire ;-)

Lien vers le commentaire
Partager sur d’autres sites

Le problème comme à chaque fois est de trier entre les éléments "sûrs" car confirmés par Google (au moins par Googleguy), les éléments "quasi certains" car vérifiables et vérifiés, et les "rumeurs",  les "bruits", et les hypothèses.

<{POST_SNAPBACK}>

Il y a ce qu'on sait, il y a ce qu'on croit et il y a ce qu'on intuite.

A partir de là, la meilleure façon d'y arriver est d'observer: ses sites, ses concurrents, et des pages spécialement créées pour tester l'algo de google. Pour peu qu'on y passe un peu de temps, l'observation attentive permet de dégager des tendances, souvent payantes. Même s'il est difficile de les mettre en équation. D'autant plus qu'il existe toujours des contre-exemples (du moins apparents).

Faute de règles scientifiques, le bon sens est souvent payant. Il n'y a pas de raison que google n'applique pas la règle (universelle?) des 80/20:

- 80% des pages qui "polluent" (au sens de google) l'index de google, utilisent 20% des techniques de spamdexing classiques.

- 80% des techniques de spam sont filtrables par les 20% des filtres les plus faciles à mettre en oeuvre par google.

A partir de là: si j'utilise des techniques de positionnement peu répandues ou difficiles à détecter, je ne risque rien. Dans le cas contraire, google peut finir par me déclasser, voire blacklister.

Lien vers le commentaire
Partager sur d’autres sites

A partir de là: si j'utilise des techniques de positionnement peu répandues ou difficiles à détecter, je ne risque rien. Dans le cas contraire, google peut finir par me déclasser, voire blacklister.

Quelles sont ces techniques ?

Je crois savoir que certains sont adeptes de cloacking, il y a que ça ou il y a encore pire (ou mieux) ?

Lien vers le commentaire
Partager sur d’autres sites

Quelles sont ces techniques ?

<{POST_SNAPBACK}>

Je ne pense pas spécialement à des techniques exotiques ou "underground" :lol: Par "techniques peu répandues", j'entends tout ce qui n'est pas techniques classiques que tout à chacun apprend quand il commence à s'intéresser au référencement.

Par exemple les backlinks. Tout le monde sait qu'ils représentent une arme très efficace en matière de positionnement. Alors il y a des dérives: les backlinks non naturels, échangés voire achetés. Dans ces conditions il n'est pas interdit de penser qu'une croissance trop rapide (pas naturelle) des backlinks sur un site qui démarre sera filtrée par google. On le constate et on lui donne un nom: la sandbox par exemple ;)

Alors pour un bon référencement, "l'imagination au pouvoir!" :lol:

Lien vers le commentaire
Partager sur d’autres sites

Pour moi je ne vois pas aucune différence sur mon PR et mes BL :( :(

je reste a 0 et mon futur a 4 mais maintenant toutes les pages du sites sont indéxés :D

La mise à jour dure une journéee ? Je devrais attendre la prochaine google dance pour que mon Pr bouge

Lien vers le commentaire
Partager sur d’autres sites

Zut j'ai perdu quelques BL sur mon site ix-dz.com (18 a 13) mon PR passe de 3 a 4, amis sur certains Datacenter seulement (ceux avec le nouveau BL) sauf www, qui lui affiche les nouveaux BL mais l'ancien PR :wacko:

Par contre une remarque tout de meme : j'ai un nouveau site aluor.com qui passe de PR0 a PR4 avec 4 BL (qui ne sont pas plus fort que ceux de ix-dz.com) et ça c'est etonnant , le seul truc c'est qu'il est valide XHTML 1.0 et CSS! ca joue pour le PR?

En tout cas cette GD repond a ma question sur le fait qu'il n y ai plus de GD ces temps ci :lol:

Lien vers le commentaire
Partager sur d’autres sites

Pierre, tu fais allusion au blockrank là ? Attention, ça sort des labos de Microsoft, on ne sait pas déjà si c'est utilisé sur MSN, alors chez Google, cela fait un pas de plus qu'il vaut mieux, à mon avis, franchir avec prudence.

Même chose pour le PR négatif : un terme dangereux (genre sandbox) qu'un coup de rasoir d'Occkham peut éliminer. Tant qu'on a pas d'éléments sur un algo spécial, mieux vaut s'en tenir aux filtres "à l'ancienne" qui expliquent déjà pas mal de choses.

<{POST_SNAPBACK}>

Je ne faisais pas forcément allusion au blockrank, mais effectivement, le phénomène que j'observe serait similaire.

Google ne s'intéresse, encore une fois 'semble t il', qu'à une partie de la page html selon le type de mot-clé.

Ainsi, j'ai le sentiment que GG arrive à décomposer dans une structure html ou dans un contenu rédactionnel (le contenu et le contenant) les parties rédactionnelles censées être les plus pertinentes sur la recherche effectuée.

Pour cela, ils peuvent se servir des élèments servant à délimiter le contenu (toute la structure html : par exemple un <div> ou un <table> remplie de links une fois dans un document est forcément un menu ou une liste de données tabulaires servant à structurer le contenu donc ayant un rôle particulier par rapport à l'ensemble du contenu du site). Il est également facile pour eux de calculer sur l'ensemble d'un site les parties html et texte redondantes sur plusieurs pages afin de les identifier et surtout de les classer comme : élèments de navigation, contenu, contenu moins important, element structurant le contenu, etc.

Et du coup, google attribuerait le positionnement d'un site en fonction du bloc de contenu qu'il jugerait le plus pertinent d'aprés son analyse de la structure html et du rédactionnel. Bien sur, leur analyse a ses limites, ce qui provoque des effets de bords ou on peut observer des sites positionnés sur des requêtes hyper concurrentielle avec un simple mot-clé contenu une fois dans un footer ou un texte sans grande importance.

Concernant le PR négatif, le terme est peut être un peu fort. Mais clairement, il n'est pas logique que des pages sans contenu se tapent un PR de 3/4 sur des nouveaux sites alors que ce même site avec des pages disposant d'un contenu beaucoup plus dense type tête de rubrique ne se voit qu'attribuer un PR de 2 ou 1. On pourrait se dire que finalement plus on rentre dans l'arborescence d'un site, plus Google estime que le contenu des pages est ciblé et donc plus pertinent, mais lorsque ces pages disposent d'à peine 3/4 lignes de textes, là je crie au loup :P

De manière générale, à observer sur les pages à fort contenu, l'attribution du PR de ces pages devient complètement aléatoire et ne répond à plus aucune logique. Pour moi, c'est la preuve que son attribution est faite de manière différente, de de ce que j'ai vu, je penche en effet pour une attribution du PR, bien évidemment en fonction des BL's, mais aussi par la structure du code html, sa redondance dans un ensemble (toutes les pages d'un site) mais également le code en lui même utilisé ou on peut être pénalisé par l'utilisation de certaines balises. (deux h1 dans une page par exemple est forcément un élèment pénalisant du coup).

Par ces observations, au final, je m'aperçois que Google a su faire évoluer son outil de manière radicale et qu'aujourd'hui, toutes les techniques de référencement classiques sont 'gérées' par Google.

Je rejoins Jan du coup pour dire qu'effectivement et heureusement, il nous reste encore l'imagination, qui sans limite, devrait nous permettre de trouver de nouvelles techniques.

Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...