Aller au contenu

Avez-vous remarqué cette tendance ?


Kent

Sujets conseillés

Bonjour le hub :)

J'ai remarqué que lorsque je lance l'indexation d'un nouveau site et que celui-ci est optimisé (disons naturellement) il a tendance à bien se positionné dans les jour qui suivent sont indexation puis à rechuter dans le classement peut de temps après.

Pensez-vous que google attribut un classeemnt pertinant temporaire le temps pour lui d'évaluer la pertinance de l'ensemble des pages ?

Un cadeau de la part de google pour les nouveau site indexé ? (j'avoue que ceci est un peu folklorique :))

En bréf avez-vous remarqué ce genre de choses pour vos créations ?

Lien vers le commentaire
Partager sur d’autres sites

Hello,

Si ca t'intéresse, y a une étude qui est sorti y a pas longtemps sur le Journal du Net à propos du temps d'indexation des différents moteurs de recherche.

Et il semble qu'en effet Google fait apparaitre les résultats moins rapidement pour juger de la pertinence du site, alors que Msn et Yahoo étaient plus rapides.

C'était vraiment un article intéressant, qui peut surement être discuté car on a tous notre propre expérience contradictoire.... :wacko:

Je vais essayer de retrouver l'article en question.

++

Case

Lien vers le commentaire
Partager sur d’autres sites

Oui ça serait interessant, mais je trouve que le temps d'indexation dans le moteur (c'est à dire figurer dans sa bdd) n'est pas enormement long. Du moins via le hub.

Je mets un lien en signature, le site en question apparait dans l'index entre 2 à 3 jours plus tard seulement.

Ce après quoi il est bien placé pour les mot clef dont il a été optimisé pour.

Puis 8 à 10 jour après c'est la dégringolade dans le positionnement ....

Lien vers le commentaire
Partager sur d’autres sites

(..)J'ai remarqué que lorsque je lance l'indexation d'un nouveau site et que celui-ci est optimisé (disons naturellement) il a tendance à bien se positionné dans les jour qui suivent sont indexation puis à rechuter dans le classement peut de temps après.

Pensez-vous que google attribut un classeemnt pertinant temporaire le temps pour lui d'évaluer la pertinance de l'ensemble des pages ? (...)

Bonjour Kent,

Je pense que tu fais allusion à la "prime de fraîcheur" (temporaire) pour les nouvelles pages.

En 2004, Cariboo en parlait, déjà, dans cette publication de Webmaster Hub - Quelques pistes pour comprendre le nouvel algorithme de Google.. Même si certains points ont évolués ou changés...

Les nouvelles pages "recevoient" une sorte de bonus avant d'être classées correctement.

Lien vers le commentaire
Partager sur d’autres sites

Ah ! je me disais aussi, j'ai remarqué ça sur tous mes sites, c'est plutôt sympathique de la part de google... mais bon rien n'est fait il faut remonter le classement petit à petit au fil des semaines...

Lien vers le commentaire
Partager sur d’autres sites

On a souvent parlé de prime de fraicheur, j'ai toujours eu un doute face à ce terme. Je serait plus du genre à dire que google dans un premier temps index le site en globalité, puis via les différents passages des bots il voie les imperfection du site.

Ou encore deuxième théorie google indexe le site dans un premier temps sans filtrer le site (hypothèse selon laquelle google appliquerais des filtres sur les sites, requêtes) puis dans un deuxième temps mais des filtres

Lien vers le commentaire
Partager sur d’autres sites

Ou encore deuxième théorie google indexe le site dans un premier temps sans filtrer le site

Comment google peut-il placer le site dans les première position (ce qui implique que le site est pertinent pour certains mots clef) sans le filter dès le départ ? Je veux dire, pour évaluer la pertinance d'une page, il faut bien l'analyser avant non ?

Je pense plutôt qu'il analyse effectivement les pages, suivant l'optimisation du site pour son positionnement google en déduit une pertinance + " la fameuse prime de fraîcheur " . Puis au deuxiemme crawl un peu plus avancé la prime "saute" et le site est classé reelement pour ce qu'il vaut à cet instant là en prenant comme critère tout ce que l'on connais sur le réferencement (backlink etc).

Lien vers le commentaire
Partager sur d’autres sites

J'ai observé cela également de manière unformelle. Ca s'apparente à une prîme de fraicheur.

Le problème, c'est que cette prime de fraicheur n'a pas les mêmes suites pour tous les sites. Certains retombent (comme les tiens ou certains des miens), d'autres s'accrochent à leurs bons positionnements.

J'essaie de faire une étude -je peine un peu- pour vérifier un postulat : la prîme de fraicheur serait peut-être une période d'essai. Après la 1ere indexation; Google sur-représente un site (=prîme de fraicheur). Cette sur-représentation génère des BLs et/ou du trafic... ou pas. Cela permettrait à Google d'évaluer l'intérêt d'un site web.

Ainsi, un site avec un départ canon (trafic et BLs) prendrait naturellement de bonnes position, sans subir de filtres.

Un site qui ne mettrai pas à profit sa "période d'essai" pour attirer Bls et trafic serait sandboxé.

Cette étude repose au départ sur l'observation non rigoureuse du lancement d'une vingtaine de sites de médiocre qualité. Ils subissent tous prime de fraîcheur, puis Sandbox, puis retour progressif à un positionnement "normal".

J'ai donc mis quelques sites en lancement sous surveillance hebdomadaire (positionnement + BLs). J'ai bien quelques sites médiocres dans ma besace. Je manque de sites ambitieux avec un bon travail dès le lancement (on devais m'en proposer quelques uns... mais).

Je ne peux donc proposer pour l'instant qu'un constat partiel et une idée qui me parait logique (prime de fraicheur = période d'essai).

Si certains d'entre-vous s'apprêtent à lancer des sites webs ambitieux, avec un travail de création de lien de QUALITE dès le lancement. Je veux bien les ajouter à mon panel.

Rien à faire pour vous si ce n'est m'envoyer URL + mots-clés visés.

L'étude se fait sur plusieurs mois.

Lien vers le commentaire
Partager sur d’autres sites

Google met un "rank boost" sur tous les nouveaux sites afin qu'ils ne soient pas désavantagés par rapport aux autres et à leur niveau de contenu.

Par contre je ne sais pas combien de temps ce "rank boost" dure... Il faudrait vérifier...

Lien vers le commentaire
Partager sur d’autres sites

Je ne le sais pas non plus mais une chose est sur c'est que ca avantage vraiment les nouveaux sites ! Un lien en signature vers un site très récent sur le Hub est vraiment un propulseur côté référencement et placement...

J'ai doublé un gros site communaitaire du même thème que moi en très peu de temps et sans grand effort réel de référencement.

Si vous avez des informations concernant le temps de ce "rank boost" je suis prenneur bien entendu, car j'ai pas trop envie de descendre maintenant que ca commence à bien marcher :wacko:

Lien vers le commentaire
Partager sur d’autres sites

Google met un "rank boost" sur tous les nouveaux sites afin qu'ils ne soient pas désavantagés par rapport aux autres et à leur niveau de contenu...

Dans quel objectif à ton avis ?

Lien vers le commentaire
Partager sur d’autres sites

Une page met du temps à se faire connaître par une communauté donc les backlinks sont difficilement nombreux sur les sites récents comparé à un site plus vieux.

Admettons qu'un site A gagne 120 backlinks par an. Au bout de 5 ans, il a 600 backlink.

Un site B, lui, gagne 240 backlinks par an, et il a seulement 2 ans. Il aura 580 backlinks.

C'est logique que le site qui gagne 2 fois plus de backlink par an ait un meilleur PR, même si il est plus récent. Le site B est à coup sûr 2 fois plus pertinent que le premier, même avec moins de backlink.

Google doit donc faire un calcul de ce type, il prend en compte l'âge du site et fait une sorte de ratio. L'objectif de Google en faisant ça est de rester le plus pertinent possible lui aussi ;-)

Modifié par web-creation.ca
Lien vers le commentaire
Partager sur d’autres sites

Je fais pas trop les mêmes analyses. Je pense que Google à intégré des notions de cycle de vie de l'information dans son algo.

Le nombre de Bls est loin de suivre une progression linéaire. Certaines infos ont une pertinence de faible durée. Elles n'ont donc aucune raison de squatter les SERPS pendant des années.

La pertinence de Google dépend donc de sa capacité à fournir de l'info en cours de validité.

Je sais pas si ça passe par l'analyse de la courbe des Bls, par de l'analyse de trafic, ou les deux. Mais j'ai vraiment cette idée en tête.

Le problème comme toujours pour faire une analyse poussée est d'isoler les facteurs.

Lien vers le commentaire
Partager sur d’autres sites

Allez, je vais ramener ma théorie de la Google Toolbar sur le tapis.

Grâce à la "prime de fraicheur" appliquée aux nouveaux sites, Google génère des visites sur ces sites et peut mesurer - grâce à la Google Toolbar - le comportement des visiteurs : restent-ils ? consultent-ils plusieurs pages ?

Cette épreuve du feu lui permet d'attribuer très vite une note de qualité au nouveau site, note qui entrera en ligne de compte dans le classement définitif.

Ne tirez pas, S.V.P., je suis bien conscient de nager en pleine théorie conditionnellement hypothétique (ou peut-être hypothétiquement conditionnelle).

Modifié par zapman
Lien vers le commentaire
Partager sur d’autres sites

_AT_Zapman : C'est exactement ce dont je parle ;)

prime de fraicheur = période de test

Test sur quoi ?

- Le trafic ?

- Les Bls ?

Ce sont en effet 2 données à disposition de GG.

Lien vers le commentaire
Partager sur d’autres sites

Tant qu'on y est, faudrait étudier le comportement de Google vis à vis des sites qui ont Google Analytics comme statistiques... Ca leur permet d'étudier encore mieux que Toolbar le nombre de visites, et surtout le nombre de pages par visite, la fidélité etc...

Vous pensez qu'une page étudiée par Google Analytics a plus de chances d'avoir des bonus qu'une page qui ne l'est pas ?

Lien vers le commentaire
Partager sur d’autres sites

  • 1 month later...
Tant qu'on y est, faudrait étudier le comportement de Google vis à vis des sites qui ont Google Analytics comme statistiques... Ca leur permet d'étudier encore mieux que Toolbar le nombre de visites, et surtout le nombre de pages par visite, la fidélité etc...

Vous pensez qu'une page étudiée par Google Analytics a plus de chances d'avoir des bonus qu'une page qui ne l'est pas ?

Google Analytics n'a pas d'influence sur le PageRank ;)

La popularité d'un contenu n'est pas forcément un gage de sa pertinence ;)

pour vos positionnements, n'oubliez pas Google Sitemap!

https://www.google.com/webmasters/tools/docs/en/about.html

Lien vers le commentaire
Partager sur d’autres sites

Il y'a eu pas mal d'articles scientifiques il y'a 18 mois sur la prise en compte de la "dimension temps" dans les algorithmes des moteurs de recherche, l'objectif étant soit de pénaliser des sites dont l'évolution dans le temps est "hors normes" (ce qui donne les résultats connus sous le nom de sandbox chez Google), soit de favoriser les pages "fraîches" parce que parlant de l'actualité, et comment combiner les deux logiques (une page ancienne avec un fort pagerank et un fort trustrank est sans doute "fiable", mais une page nouvelle qui n'a pas encore de liens entrants doit pouvoir sortir en tête des résultats si elle est pertinente sur une requête liées à l'actualité, elle doit donc être "boostée" artificiellement, et temporairement).

Il y'a pas mal d'indices qui démontrent que Google combine une série de règles en cascade pour booster et/ou pénaliser les pages récentes, des règles qui ressemblent à ce qui est décrit dans ces articles.

La "prime de fraicheur" telle que je la décrivais est devenue beaucoup plus sophistiquée.

Lien vers le commentaire
Partager sur d’autres sites

Google Analytics n'a pas d'influence sur le PageRank ;)

La popularité d'un contenu n'est pas forcément un gage de sa pertinence ;)

pour vos positionnements, n'oubliez pas Google Sitemap!

https://www.google.com/webmasters/tools/docs/en/about.html

Oh punaise Julien, 3 phrases, 3 fois pas d'accord avec toi.

Personne n'a fait le lien entre GGAnalytics et le PageRank. Juste un lien entre GGA et connaissance par Google du trafic et du comportement des internautes sur la page... Plus qu'un lien direct Analytics/positionnement, je pense que GGA permet à Google de confirmer ou infirmer la qualité de ses critères de mesure de la pertinence. A mon sens, trop peu de sites utilisent GGA pour en faire un critère de pos.

Ensuite, sur le lien entre popularité et contenu. Je voudrais rappeler que, contrairement à ce que tu dis, ce lien à été montré par Brin & Page dans leurs travaux universitaires. Que c'est un des fondamentaux historique de Google. Que l'intégration de la popularité dans l'algo a été rendue possible le calcul d'un indice appelé PageRank.

Enfin, Sitemaps n'a pas de lien direct avec le positionnement, mais avec l'indexation. Le lien entre les deux est conditionné par beaucoup beaucoup de critères.

Lien vers le commentaire
Partager sur d’autres sites

Google ne se sert des informations de GA que pour des statistiques internes (ce qui rappelait le post d'avant) : on est donc d'accord sur ce point là en fait.

Google n'est pas non plus le seul moteur de recherche existant (si si , je vous assure ;) ) et d'autres moteurs utilisent d'autres algoritmes. Pour revenir aux travaux de Sergei et Larry, j'ai toujours eu l'impression que la popularité influant le PR était basé sur les liens entrants, pas sur la consultation de la page. Me trompe-je?

Enfin pour Sitemap, il s'agit effectivement d'une erreur de ma part, mon post aurait du faire mention d'indexation et non de référencement. Merci de l'avoir relevé :oops:

Lien vers le commentaire
Partager sur d’autres sites

Google n'est pas non plus le seul moteur de recherche existant (si si , je vous assure ;) ) et d'autres moteurs utilisent d'autres algoritmes.

Quand je lis cet article du jour http://www.atelier.fr//article.php?artid=34625&catid=30 je me dis que sans Google, on est peu de chose...

Par contre, certains essayent justement de voir si on peut se passer des principaux moteurs http://searchengineland.com/070612-093020.php

Pour revenir aux travaux de Sergei et Larry, j'ai toujours eu l'impression que la popularité influant le PR était basé sur les liens entrants, pas sur la consultation de la page. Me trompe-je?

A l'époque des études de Larry et Sergei, oui la popularité était basée principalement sur le PR. Désormais, GG dispose d'une multitude de points d'entrée et de sortie (Gmail, Toolbar, Talk, Orkut, Analytics, etc...) qui permettent d'évaleur la popularité d'URLs. L'internaute est beaucoup mieux cerné, permettant d'utiliser nombres de paramètres additionnels.

Lien vers le commentaire
Partager sur d’autres sites

Pour ma part, de l'expèrience que j'ai avec mon site, je peux dire qu'un lien sur la page d'accueil référence un nouveau site web en moins de 2 jours (avec apparition dans les résultats de recherche).

Par contre ca met plus longtemps pour faire bouger le positionnement d'un site sur un mot clé.

Autre chose, je peux vous dire que Google adore les actualités, depuis que j'en écris le bot reste tout le temps sur mon site et mes pages apparaissent dans les résultats (et en très bonne place) moins de 30min après la mise en ligne (pour dire, j'apparaîs avant LeMonde) !

:thumbsup:

Modifié par snwoman49
Lien vers le commentaire
Partager sur d’autres sites

Autre chose, je peux vous dire que Google adore les actualités, depuis que j'en écris le bot reste tout le temps sur mon site et mes pages apparaissent dans les résultats (et en très bonne place) moins de 30min après la mise en ligne (pour dire, j'apparaîs avant LeMonde) !

:thumbsup:

Tu as fait quelque chose de particulier pour obtenir ce résultat (j'imagine d'ailleurs que ça n'a pas été instantané) ?

Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...