Aller au contenu

Le nouveau Google


zantar

Sujets conseillés

Quelques constatations personnelles sur le nouveau Google :

Ne me demandez pas mes sources ou mes références, cest un constat personnel et empirique que je vous expose :

1- Le nom de domaine, na plus grande importance : des sites personnels ou associatifs désargentés montent facilement dans les SERPS, il était temps que Google comprenne que ces sites renferment parfois des pépites.

2- Le contexte textuel et thématique doù émane le lien a plus dimportance que le rank ou la popularité de la page émettrice. Avis aux annuaires fourre-tout où les navets côtoient les pipoles et les « bons plans ».

3- Les sous-répertoires qui sont le cauchemar de Yahoo , plaisent à Google dans le cas de dossiers structurés et au contenu dense.

4- Lâge du nom de domaine a perdu de son poids, on voit des sites anciens qui reculent devant des requêtes où ils ne tenaient leur « pertinence » que par lancienneté de leur NDD.

5- La proximité du mot clé du début de la balise a perdu de son poids, Google semble considérer que léloignement du mot clé du début de la balise est un signe de « naturel » et de non optimisation.

6- La densité des mots clefs nest plus calculée par rapport à la page référente , le calcul est plus complexe et tient compte des occurrences du mot et du thème à léchelle de tout le site, cest pourquoi certaines pages bourrées de mots clefs ne sont pas sanctionnées et dautres oui, en clair, plus votre site est gros et cohérent, plus vous avez le droit « dabuser du mot clef ! »

7- Les balises méta sont importantes pour Google à une condition rarement présente : la balise doit être extrêmement personnalisée pour la page et représenter un résumé de larticle sans mots clés ni optimisation. La preuve : ce genre de balises sont reprises volontiers dans ses résultats de recherche.

8- Google semble avoir affiné « sa perception » des thématiques connexes : il donne plus de poids aux liens entre deux rubriques connexes, quà lancien système où les gens liaient les pages par simples mots clés ( vous savez ces pages bourrées de mots clefs en lien hypertexte qui font que lon se perd dans la lecture dun article car on narrive jamais au bout, tellement on se fait promener).

9- Goggle est rRgistrar et suit à la trace les nouveaux domaines. Si le nouveau domaine créé fait référence aux mêmes éléments que lancien, et si le nouveau domaine traite dun domaine proche de lancien, Google le fait bénéficier dun capital confiance acquis par le premier. Un site nouveau peut gagner près dune année de capital confiance si les conditions énumérées plus haut sont réunies.

10- La qualité de la langue et le contenu sont plus que jamais déterminants pour Google, ; si les gens écrivaient bien, on se passerait presque de référencement ...

Lien vers le commentaire
Partager sur d’autres sites

Je suis plutôt d'accord avec ce constat sans pour autant pouvoir tout expliquer. Plus google affine son algo, et plus on se rend compte que le meilleur moyen d'être dans les premières pages est d'avoir du contenu de qualité. Si ces évolutions marque la fin des contenus approximatifs, ds combines en tout genre pour monter sur une requête ou je ne sais quoi d'autre, on ne peut que s'en réjouir !

:)

Lien vers le commentaire
Partager sur d’autres sites

Je vais essayer de faire de mon mieux pour étayer ce que j'ai avancé :

1- Le nom de domaine, na plus grande importance : des sites personnels ou associatifs désargentés montent facilement dans les SERPS, il était temps que Google comprenne que ces sites renferment parfois des pépites.

on avait coutume de dire aux mal aimés de Google: achète un nom de domaine et prends un hebergement pro, et ça ira mieux ; ce n'est plus vrai du tout, la qualité d'un site contrebalance largement ces handicaps.

2- Le contexte textuel et thématique doù émane le lien a plus dimportance que le rank ou la popularité de la page émettrice. Avis aux annuaires fourre-tout où les navets côtoient les pipoles et les « bons plans ».

Quand on utilise des outils de Seo classant les backlinks par page rank ou par pertinence, j'ai remarqué que les liens obtenus auprès de sites élogné de ma thématique avaient perdu de leur page rank et etaient classés loin en pertinence, changement depuis quelques semaines, un lien émamant d'un gros site à gros rank mais éloigné en thématique est moins bien considéré qu'un lein émanant d'une "petite page" mais dont la thématique est proche. le phénomène est devenu flagrant

3- Les sous-répertoires qui sont le cauchemar de Yahoo , plaisent à Google dans le cas de dossiers structurés et au contenu dense.

une thématique developpée largement avec des sous repertoires aux noms et au contenu approprié, ressortent sous plusieurs occurences lors d'une recherche. ( yahoo est connu pour se noyer dans un dé à coudre des qu'il passe aux repertoires de second niveau)

4- Lâge du nom de domaine a perdu de son poids, on voit des sites anciens qui reculent devant des requêtes où ils ne tenaient leur « pertinence » que par lancienneté de leur NDD.

Avant les sites universitaires par exemple trustaient les premieres places sur certaines requêtes, sites souvent non mis à jour et là l'abandon,( comparés aux sites univ anglo saxons) à présent ces sites sont relégués loin derrière sur des requêtes où ils étaient champions

:)

bon j'ai pas le courage de pousuivre

Lien vers le commentaire
Partager sur d’autres sites

Merci pour ton retour Zantar :thumbsup:

Pour éclairer ma lanterne : tu te bases sur un constat "personnel et empirique", ça me pose aucun problème, bien au contraire, mais ce constat est fait d'après quels types de requêtes ?

Je veux dire : les sites dans ta signature relèvent d'un domaine scolaire ou universitaire. Les infos que tu partages sont relatives à ce domaine-là exclusivement ou bien as-tu fait des observations dans d'autres domaines ? Et, si c'est le cas, lesquels ?

A te lire :)

Lien vers le commentaire
Partager sur d’autres sites

Merci de me resouhaiter la bienvenue lafleur, pour t'apporter une réponse partuelle, je vais developper, le point 05

5- La proximité du mot clé du début de la balise a perdu de son poids, Google semble considérer que léloignement du mot clé du début de la balise est un signe de « naturel » et de non optimisation.

Dans les points plus haut, on a vu que la structuration du contenu etait aussi importante que celui-ci, autrement dit , ça ne sert à rien d'optimiser 01 - une page- sur un thème, pour que le contenu ait du poids chez Google, il faut que le sujet soit developpé exactement à la manière d'un livre; titres, sous titres, et surtout sous rubriques !! je vais prendre un exemple: mon site parle de peinture industrielle: le dossier casse la baraque non pas en plaçant le mot "peinture" en début de balise , mais en developpant tout au long des titres et pages tous les mots techniques même esoteriques qui se rapportent au monde la peinture, solvants, molécules, procédés ... je suis convaincu qu'il arrive même à determiner s'il ya continuité sémantique du thème ou pas sur l'ensemble du dossier je pense que les ingénieurs de chez google ont considérablement étendu le champ sémantique du moteur qui ne fonctionne plus seulement par synonimes cariboo maitrise mieux le sujet, il m'excusera si je m'avance maldroitement ...

Lien vers le commentaire
Partager sur d’autres sites

Les points évoqués par Zantar ne manquent pas de pertinences et demande réflexion ou en tout cas doivent en suciter.

Le gros problème avec Google, c'est que pour toutes constations, il existe toujours des dizaines (et certainement des milliers) de contre-exemples ! Je vais en prendre 1 juste pour l'exemple ( :wacko: ) : j'ai créé et référencé le site d'un de mes clients dont le nom de domaine est composé d'un couple de mots-clés en .com. En 2 semaines le site était 1er (et il l'est toujours) sur Google pour une recherche basé sur le couple de mots-clés en question (qui donne plus de 10 000 000 de résultats). Bref cela vient appuyer la constation n° 4 mais cela met à mal la constation n° 1.

Serait-ce là force de Google, exemples et contre-exemples pour tous les cas (ou presque) qui rend son algo si indéchiffrable ?

A ma connaissance, ce qui est vrai pour un site l'est difficilement pour un autre et il reste très diffcile de tirer des conclusions fermes sur le comportement de Google car (je radote) pour chaque exemple, il est toujours possible de trouver des contre-exemples.

Mais bon, peut-être vous aussi avez-vous des contre-exemples de ce que je dis :whistling:

Par contre Zantar, je suis 100% d'accord avec ton approche du point n°5 que tu détailles juste ci-dessus :thumbsup:

++

Patrick

Lien vers le commentaire
Partager sur d’autres sites

Non ce n'est pas un contre exemple: Google adore les mots clefs gravés dans le marbre, je veux dire els mots clefs dans les noms de fichiers et de repertoire, mais mais, il vous favorise si ces mots clefs graves dans le amrbre ( nom de domaine, NDD, sont cohérents et en concordance avec le reste : exemple flagrant: un site rewrité, si le "contenu" reporté depuis le titre et qui se retrouve dans l-URL est cohérent avec le nom de fichier la c'est tout Bonus, mis si le nom de fichier n'est pas suivi du contenu adéquat alors la la sanction tombe. On trouve Google etrange car on le juge peut etre par le bout de la lorgnette, je pense qu'il agit par innocence présumée dev

jai posté malgre moi, je continue : dans ton cas si NDD, noms de fichiers et contenus etaient coherents normal que ton travail monte...

Lien vers le commentaire
Partager sur d’autres sites

Le nom de domaine, na plus grande importance

Google adore les mots clefs gravés dans le marbre ... il vous favorise si ces mots clefs graves dans le amrbre ( nom de domaine, NDD ...

J'avoue ne plus comprendre :wacko:

Alors selon toi le nom de domaine n'a plus d'importance pour le positionnement ou Google favorise le positionnement d'un site sur son nom de domaine ?

Merci de détailler un peu plus car je suis perdu. C'est surement à cause de la fin de semaine (qui a été longue pour moi) et je n'ai plus les idées très claires. Arf désolé de te faire encore poster ;)

++

Patrick

Lien vers le commentaire
Partager sur d’autres sites

Merci pour cette très intéressante analyse zantar :).

D'après toi, depuis combien de temps ce "nouvel algo" est-il particulièrement en place (ça doit faire un moment qu'ils progressent dans cette direction chez Google, mais depui quand en sont-ils à ce point) ?

J'avoue ne plus comprendre :wacko:

Alors selon toi le nom de domaine n'a plus d'importance pour le positionnement ou Google favorise le positionnement d'un site sur son nom de domaine ?

Merci de détailler un peu plus car je suis perdu. C'est surement à cause de la fin de semaine (qui a été longue pour moi) et je n'ai plus les idées très claires. Arf désolé de te faire encore poster ;)

++

Patrick

Pour lui Google favorise les sites ayant un nom de domaine avec des mots clés seulement si ces mots clés sont en concordance avec le contenu du site.

Credit-immbilier.xxx ne profitera pas de ses mots clés si son contenu n'est pas assez en relation avec le crédit immobilier. Par contre s'il l'est ça lui rapportera quelques points chez Google.

D'après ce que j'en comprends hein ;) ...

Lien vers le commentaire
Partager sur d’autres sites

Il n'y a pas de quoi être perdu : le classement tient compte d'un maltitude de parametres, les parametres d'antan ne sont pas périmés, mais ils prenent plus de poids s'il l'ensemble est cohérent , autrement dit , un site dont le NDD est pertinent, qui a du bon contenu bien structuré sera mieux placé qu'un site équivalent sans ces petits plus. la différence réside dans la pondération de tous ces paramètres qui nous éloigne des débuts de Google où le page rank etait determinant sans quil soit pindéré par d'autres critères de cohérence qualitative

Lien vers le commentaire
Partager sur d’autres sites

... ce qui est un plus indéniable pour un vrai bon référencement naturel. En clair le message de Google n'a jamais été aussi vrai : faites vos pages, ne vous occupez pas de votre référencement :).

Lien vers le commentaire
Partager sur d’autres sites

le changement d'algorithme ne s'est pas fait en une nuit, les changements sont devenus flagrants pour moi depuis la mi janvier, quand il a affecté des rank en baisse et reclassé les backlinks, par exemple, les liens obtenus sur le HUb sont beaucoup moins classés que auparavant,

et des liens provenant d'obscures petits forums, mais proches de ma thématique se sont vus propulsés tout en haut...

Lien vers le commentaire
Partager sur d’autres sites

D'accord, merci de cette explication. Donc dans certain cas, le NDD a toujours de l'importance.

Juste une suggestion, peut-être faudrait-il alors nuancer ta constation n° 1 pour éviter que certains lecteurs du Hub pensent, à tord, que dans tous les cas le nom de domaine n'a plus d'importance.

Bon WE.

++

Patrick

Lien vers le commentaire
Partager sur d’autres sites

Pour résumer on peut dire, que l'époque où on se positionnait avec des procédés et des artifices est révolue: ce n'est peut être pas un hasard si aux USA on trouve plus de Rewriters que de référenceurs à l'ancienne : moyennant finances, les rewriters réécrivent le contenu du site et developpent même des rubriques avant de s'interesser au code et aux annuaires...

Lien vers le commentaire
Partager sur d’autres sites

J'ai participer récemment à des conférences sur la stratégie internet, et l'un des intervenant expliquait également que l'optimisation d'un site commençait par la création d'une carte du contenu. Une arborescence détaillant les liens entre les pages, les pages tunnels, le regrouppement par thème du contenu, afin de faciliter principalement la navigation pour les utilisateurs, mais également pour permettre aux moteurs de mieux comprendre le thème des pages.

Ensuite, il disait de relire la pluaprt du contenu, de tenter de le simplifier (si c'est possible), et de réaliser des contenus "têtes de gondoles" en haut des pages afin d'expliciter clairement le thème du site. Ces têtes doivent être des textes simplifiés au maximum et assez riche en mots clés. Il semblerait que ces optimisation sur le contenu même pèsent assez lourd dans le classement.

J'observe d'ailleurs sur le site de ma boîte qu'on s'est retrouvé pas trop mal classé (c'est très relatif hein !) sur quelques requêtes précises alors qu'on a peu de backlink. Le fait que ces backlink proviennent tous de sites ou de forums informatiques joue probablement beaucoup. C'est pourquoi d'ailleurs j'ai renoncé à inscrire le site dans les annuaires.

Par ailleurs, j'ai commis l'erreur sur ce site de faire des pages qui se ressemblent, avec comme différence le contenu en bas à droite. Du coup, google me les références comme "pages similaires" (aie aie aie !) ; je vais donc mettre les articles qui diffèrent en haut à gauche afin que les pages ne soient plus similaires (les têtes de gondoles), et qu'il s'interesse d'avantage au contenu. (Actuellement, il ne s'occupe que des mots clés dans les URL :().

D'ailleurs si quelqu'un pouvait m'indiquer si c'est vraiment une catastrophe d'avoir des "pages similaires" dans le site ...

Lien vers le commentaire
Partager sur d’autres sites

Zantar,

Perso je n'ai pas vu de grands changements au classement concernant mes sites mais je ne dis pas qu'il y a pas eu de mouvements ni de changements d'algorithme. Mais j'ai quelques doutes quand meme quant à un grand boulversement de l'algorithme.

Ce n'est pas facile de tirer des conclusions par rapport à des changements de classement intervenus à un instant T car deja ce ne sont peut etre que des changements "provisoires".

De plus ce n'est pas facile de quantifier le poid de chaque critere et encore moins de connaitre le poid de ses mêmes criteres lorsqu'ils se cumulent (synergie) et se vérifient dans des proportions différentes. Un gros un critere A n'aura pas le meme poid suivant la valeur des autres criteres (B, C, D .....) appliquée à un site (ou une page). Il y a peut etre aussi des critères dont on ne soupçonne meme pas l'existance ;).

Sans compter qu'il peut avoir des pénalités (plus ou moins grande) pour suroptimisation sur un thème ou une requete bien précise.

Donc il faut interpreter tes constatations avec precautions.

Lien vers le commentaire
Partager sur d’autres sites

Je vais essayer de faire de mon mieux pour étayer ce que j'ai avancé

Je parlais de quantifier plutôt que d'étayer (mais c'est bien d'étayer ;) ) C'est-à-dire fixer une échelle et noter tes différents paramètres en fonction de cette échelle.

Tu peux t'inspirer de l'excellentissime SEOmoz

Lien vers le commentaire
Partager sur d’autres sites

Oui mes propos ne sont pas la bible et n'ont de mérite que d'installer un débat sur ce forumde qualité.

je vais developper un autre point, qui va me faire hair des référenceurs. Quand on parcourt les sites de commerce en ligne, on rencontre de plus en plus ce genre de lamentations je résume :

" j'ai un site de vente en ligne, jétais classé 8 eme on m'a conseillé de soigner mes URL "crades" en tuant les ID de session et en rewritant tout le bazar, j'ai tout bien fait mais depuis je suis au fin fond du classement"

je pense que Google deteste de plus en plus les webmasters techniques et les optimiseurs !!!

moi je dirai à un vendeur de télés, tu veux monter dans le classement et vendre plus de télés ? ( on en veut toujours plus, on adore l'esprit du far west) fais un article sur l'inventeur du tube cathodique, ça vaut tous les rewriting et les traficoteurs de balises en temps réél.. Google aime la stabilité et s'accomode fort bien des maldresses ' - sessions ID, non rewriting - des webmasters bouchés en PHP.

Ensuite, il disait de relire la pluaprt du contenu, de tenter de le simplifier (si c'est possible), et de réaliser des contenus "têtes de gondoles" en haut des pages afin d'expliciter clairement le thème du site. Ces têtes doivent être des textes simplifiés au maximum et assez riche en mots clés. Il semblerait que ces optimisation sur le contenu même pèsent assez lourd dans le classement.

citation de dams 41 je confirme !!! j'ai des amis en formation à l'école des Gobelins à paris ' une belle référence - on leur conseille exactement ce que tu décris ! Goggle ressemble de plus en plus à un correcteur de concours qui veut un sommaire, un résumé duthème et un developpement selon un plan précis, actuellement les stagiaires webmasters des gabelins passent 3 mois sur 4 a travailler le plan et l'architecture du contenu sans toucher a une seule balise HTML !!

Lien vers le commentaire
Partager sur d’autres sites

Zantar >> Attention je ne dis pas que ce que tu dis est faux, je dis juste que c'est pas facile d'en etre certain et encore moins facile de le prouver ;-)

Sinon je pense que les optimisations ne sont pas mal vu si on en abuse pas. Il n'est pas non plus nécessaire de tout optimiser pour etre bien positionné. Par exemple on trouve des sites bien placés sans url rewrité ( Le hub par exemple :P ) ou des sites en 1ere position avec un code qui ne respecte pas du tout les standards du Web...

Je pense tout de meme que plus on optimise (code, balises, titres, urls, backlinks, ... ) mieux c'est, à condition de ne pas franchir les limites, de ne pas faire QUE de l'optimisation et avoir un reel contenu.

Lien vers le commentaire
Partager sur d’autres sites

Merci Zantar, ça me conforte encore un peu plus dans cette idée.

Je vais mettre en pratique ces méhodes ASAP sur mon site, et j'indiquerai sur le hub un feedback, afin de pouvoir quantifié d'avantage les bienfaits et les méfaits obtenus. Il est vrai par ailleurs que ce site est tout de même optimisé pour lé référencement U-rewrite, contenu en constante évolution (merci les RSS :)), et balises meta, ce qui peut biaisé un peu l'expérience ...

Sinon, j'ai un autre site "un petit délire" que j'ai codé un peu à la vas-vite (ça m'a pris comme une envie de pisser :D), donc pas du tout optimisé pour le référencement ; comme je ne compte pas sur une requête "photo de prof" dans google, je ne cherche pas à le référencer dans les moteurs. Je compte uniquement sur le buzz, mais à la longue, il devrait y avoir des backlinks qui aparaissent, et je verrais bien où il se situe dans les moteurs à ce moment là. Il est vrai que ce site ne dispose pas non plus d'un contenu interessant (surtout pour les robots), donc normalement, ça devrait être une catastrophe dans les moteurs ...

Lien vers le commentaire
Partager sur d’autres sites

moi je dirai à un vendeur de télés, tu veux monter dans le classement et vendre plus de télés ? ( on en veut toujours plus, on adore l'esprit du far west) fais un article sur l'inventeur du tube cathodique, ça vaut tous les rewriting et les traficoteurs de balises en temps réél.. Google aime la stabilité et s'accomode fort bien des maldresses ' - sessions ID, non rewriting - des webmasters bouchés en PHP.

je suis de plus en plus enclin à croire exactement la même chose : en tout cas, j'ose espérer que c'est ainsi que la soupe est analysée chez google :!:

Lien vers le commentaire
Partager sur d’autres sites

J'ai du mal à comprendre et à croire qu'avec un contenu similaire, un site qui a des ID session est mieux placé qu'un site qui n'en a pas. Comment affirmer qu'il a perdu son classement à cause de la bidouille PHP qu'il a effectuée ? Et puis ça voudrait dire que l'URL rewriting est pénalisante aussi pour les sites, non ? Dans ce cas-là, c'est toute la conception de nos sites qui est à revoir ?

Je suis tout à fait d'accord pour rajouter des informations annexes à l'activité (ce qui est parfois difficile à comprendre pour les clients...), mais de là à dire que bidouiller son site pour le rendre plus beau dans les URL's, c'est quand même un grand pas.

Lien vers le commentaire
Partager sur d’autres sites

Ce qu'il faut voir, c'est que les balises title, meta description et l'url ont une relation avec le fait que les internautes vont cliquer ou non sur votre lien dans les résultats de google.

Avoir un bon positionnement avec des balises bourrées de mots clés ne donneront pas envie à l'internaute de cliquer, ou moins.

Pourquoi sur certaines requêtes, l'internaute est capable d'aller jusqu'à la 6 ou 7° page de résultats, parce qu'il n'a pas trouvé ce qu'il voulait, et je ne pense pas qu'il ait cliqué sur tous les liens au préalable.

Donc pensons plus aux visiteurs ;)

Lien vers le commentaire
Partager sur d’autres sites

[HS]

Sinon, j'ai un autre site "un petit délire" que j'ai codé un peu à la vas-vite (ça m'a pris comme une envie de pisser :D), donc pas du tout optimisé pour le référencement ; comme je ne compte pas sur une requête "photo de prof" dans google, je ne cherche pas à le référencer dans les moteurs. Je compte uniquement sur le buzz, mais à la longue, il devrait y avoir des backlinks qui aparaissent, et je verrais bien où il se situe dans les moteurs à ce moment là. Il est vrai que ce site ne dispose pas non plus d'un contenu interessant (surtout pour les robots), donc normalement, ça devrait être une catastrophe dans les moteurs ...

A propos de ce petit délire tu devrais faire gaffe aux risques de représailles, éventuellement judiciaires, auxquelles tu t'exposes en créant ce genres de chose :-/.

[/HS]

Ce qu'il faut voir, c'est que les balises title, meta description et l'url ont une relation avec le fait que les internautes vont cliquer ou non sur votre lien dans les résultats de google.

Avoir un bon positionnement avec des balises bourrées de mots clés ne donneront pas envie à l'internaute de cliquer, ou moins.

Pourquoi sur certaines requêtes, l'internaute est capable d'aller jusqu'à la 6 ou 7° page de résultats, parce qu'il n'a pas trouvé ce qu'il voulait, et je ne pense pas qu'il ait cliqué sur tous les liens au préalable.

Donc pensons plus aux visiteurs ;)

Plus de 50% des clicks sont fait sur le premier résultats et presque 90% sur les 4 ou 5 premiers il me semble, non :- ? Ca ne veut pas dire que les internautes ne reviennent pas après sur Google, mais ils reviennent si le contenu clické n'est pas suffisant/intéressant.

Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...