Aller au contenu

De l'aide pour un webmaster qui ne comprend rien


flodesiles

Sujets conseillés

Voila je suis un peu paumé avec ce référencement. Cela fait 8 ans que notre site internet existe, au début on se débrouillait pas mal, nous arrivions au pire toujours dans la première page et dans le top 10. Bref pas de souci.

Depuis j'ai changé mon hebergeur (bien meilleures que celui d'avant) et la patatraque ! on est completement à la rue. Le site c'est http://www.chris-tal.com Pas moyen de relever la barre. Les meta tags sont la ! le site map pour google aussi, les mots clef au complet.

Rien a faire ! on est toujours a la rue. D'autres hotels que je ne citerai pas et que je connais bien (tant a leur niveau informatique execrable) arrivent devant moi les doigts dans le nez alors qu'il n'affine ni leur meta tags, ni leur site map....

Bref comprends pas .... Par ou il faut commencer !

Lien vers le commentaire
Partager sur d’autres sites

  • Réponses 70
  • Créé
  • Dernière réponse

Contributeurs actifs dans ce sujet

Contributeurs actifs dans ce sujet

Rien a faire ! on est toujours a la rue. D'autres hotels que je ne citerai pas et que je connais bien (tant a leur niveau informatique execrable) arrivent devant moi les doigts dans le nez alors qu'il n'affine ni leur meta tags, ni leur site map....

<{POST_SNAPBACK}>

On est toujours meilleur ou moins bon que d'autres ;)

Pour le reste, je dois dire que ni les META ni la SiteMap ne vont aider en quoi que ce soit ton positionnement sur Google. Par contre je n'ai pas vérifié les occurences de tes mot clefs.

Je n'ai pas le temps de faire un audit complet et gratuit de ton site, mais j'ai regardé vite fait ton code source et on peut sans doute faire plus "épuré" (feuille de style externe, pages sans tableaux).

De plus, le contenu pertinent est très bas dans le code source, devancé par tout un tas de javascript et de balises.

Puis j'ai aussi regardé en vitesse tes backlinks qui ne sont pas des premiers choix pour obtenir une bonne pondération.

Bon courage

Lien vers le commentaire
Partager sur d’autres sites

mais j'ai regardé vite fait ton code source et on peut sans doute faire plus "épuré" (feuille de style externe, pages sans tableaux).

Je ne vois pas le rapport avec la position de son site sur Google, les tableaux ne sont pas un problème, de plus je suppose qu'avant son déménagement, il avait le meme code source ...

Lien vers le commentaire
Partager sur d’autres sites

Bonjour,

Il serait intéressant en effet de savoir si le code source à été modifié au moment du changement d'hébergeur.

Car la question est très intéressante, pourrait-on bénéficier d'un meilleur classement en étant hébergé ici ou là ?

Modifié par yankey
Lien vers le commentaire
Partager sur d’autres sites

D'accord avec Smile : je ne vois pas d'explication dans tout ça.

Je vois plutôt l'ami Jagger derrière cette mésaventure. Tu demandes par où il faut commencer ? Je crois que c'est la bonne question ! Recommence ton référencement : Google a changé ses règles et ce qui marchait hier ne fonctionne plus aujourd'hui.

Ajoute du contenu sur Chamonix et ses atouts touristiques, trouve toi de nouveaux partenaires. Ce n'est sans doute pas agréable à entendre, mais c'est sûrement la seule chose à faire.

Courage !

Modifié par zapman
Lien vers le commentaire
Partager sur d’autres sites

à priori, la migration d'un NDD d'un serveur à un autre est transparent pour le référencement au sens large ... sauf sur les aspects géolocalisation : le fait de passer d'un serveur installé physiquement en France vers l'étranger te priveras des résultats "pages France" par exemple ...

par ailleurs, il n'est pas impossible que tu ai été hébergé sur un serveur dont l'adresse IP aura été blacklistée (peu probable) ou pénalisée (as tu une idée des sites qui sont hébergés sur le même serveur que toi, ou avant toi si c'est un serveur dédié ?) par certains moteurs ...

Enfin, tu devrais essayer de lister tout ce qui as changé sur tes pages depuis le déménagement, à mon avis la solution devrait se trouver là ...

PS : tes pages ont elles été absentes longtemps pendant la migration de serveur ?

Modifié par cendrillon
Lien vers le commentaire
Partager sur d’autres sites

Justement ces "resultats complémentaires", pour quelles raisons ?

pourquoi ce genre de pénalité ?

<{POST_SNAPBACK}>

bonne question ... c'est d'ailleurs en cherchant une réponse à cette question que j'avais découvert le hub à l'époque (pour les curieux) ...

je serais incapable de te répondre précisément, Cariboo s'y était aventuré ici mais au jour d'aujourd'hui ne n'est toujours pas très clair ... en tous les cas, ce que je peux dire c'est que cela reste une forme de pénalisation (les pages sat finissent généralement en "résultats complémentaires", par exemple) ... :whistling:

Lien vers le commentaire
Partager sur d’autres sites

Tes questions il y'a un an sont toujours d'actualité et je dirais davantage, ce second index est de plus en plus important et beaucoup de sites en sont victimes ...

Je ne comprends pas les critères qui font que telles ou telles pages se retrouvent en complementaires et à vrai dire je pense que ca enlève pas mal de pertinence.

Franchement, c'est pas ce qu'à fait de mieux Google ou alors des explications sur les raisons de cet index secondaire serait le bienvenu ...

Lien vers le commentaire
Partager sur d’autres sites

Dans de nombreux cas, le passage d'une page en "résultats complémentaires" est dû à un "duplicate content" (contenu identique sur une autre page). Depuis quelques semaines, google semble avoir durci son filtre anti "duplicate content", ce qui fait qu'il a touché des pages aux contenus non pas similaires mais ressemblants.

Cette sévérisation explique que beaucoup de pages satellites aient été touchées. En effet les pages sat d'un site sont souvent construites sur un même modèle (template), et la partie spécifique de leurs contenus représente donc un faible pourcentage du code de la page.

Google a sans doute vu là une façon d'éliminer une partie du spam de ses pages de résultats. Mais il y a eu des effets de bord. Beaucoup d'annuaires ont été frappés par exemple, alors qu'ils n'avaient pas de raison de l'être.

J'ai un annuaire qui a été touché. C'était même allé plus loin que le passage en "résultats complémentaires" pour certaines pages qui se retrouvaient dans google en mode "listing" (plus de titre, plus de snippet, seule l'url de la page était listée dans google). Après analyse j'ai compris que j'avais commis l'erreur de donner des titres très voisin à toutes les pages de cet annuaire, et qu'elles avaient des meta descriptions identiques. J'ai personnalisé tout ça pour chaque page, mis en place de l'url rewriting (mais ce n'était peut-être pas nécessaire) et tout est rentré dans l'ordre en quelques semaines.

Cette théorie semble pouvoir s'appliquer à ton site. Toutes tes pages ont le même titre et les même meta keywords et description.

Voilà à mon avis une des causes possibles (probables) de ton problème. Rectifie ça au plus vite et ça devrait s'améliorer.

Lien vers le commentaire
Partager sur d’autres sites

Comme je disais, le code source est trop pollué avant le contenu pertinent. Google n'a pas sur trouver ce qu'il y avait de bon dans les pages et a tout viré en pensant que les pages se ressemblaient trop.

Lien vers le commentaire
Partager sur d’autres sites

Comme je disais, le code source est trop pollué avant le contenu pertinent. Google n'a pas sur trouver ce qu'il y avait de bon dans les pages et a tout viré en pensant que les pages se ressemblaient trop.

c'est n'importe quoi, qu'il y'ait des pénalités pour des ressemblances pour le contenu des metas et le contenu body c'est une chose mais de dire que le bot se perd dans le code html ca ce n'est pas vrai.

Les bots retirent la partie code pour extraire le contenu, c'est tout, que ca soit pour des balises div, table, font ...

Faut arreter de dire tout et n'importe quoi ...

Il y a aussi un problème au niveau de l'organisation de tes liens internes, quand on utilise la commande "site:" sur un data center jagger 3, ce n'est pas ta homepage qui arrive en premier.

 

Et puis faut arreter avec l'optilisation à tout va, si on doit se preoccuper aussi du data center jagger3 et changer l'organisation des liens, c'est plus possible ...

Je rappelle quand meme qu'un site web est destiné à un public et non à un moteur, se soucier de l'ergonomie, des attentes de tes membres, c'est quand même un peu plus noble que de se soucier du data center Jagger3 :)

Lien vers le commentaire
Partager sur d’autres sites

Et puis faut arreter avec l'optilisation à tout va, si on doit se preoccuper aussi du data center jagger3 et changer l'organisation des liens, c'est plus possible ...

En gros je suis d'accord avec toi, mais même ergonomiquement parlant il est préférable que la page principale d'un site soit la page la plus linkée ;)

Lien vers le commentaire
Partager sur d’autres sites

Je rappelle quand meme qu'un site web est destiné à un public et non à un moteur

<{POST_SNAPBACK}>

C'est juste, et dans un moteur "idéal", les sites les plus ergonomiques et les plus utilies à leurs utilisateurs seraient les mieux classés.

Mais google n'est pas un moteur idéal. Il y a donc un certain nombre de règles à suivre et d'erreurs à éviter pour qu'un site se positionne bien dans google. Ceci indépendemment de la satisfaction qu'il procure à ses visiteurs.

L'exemple le plus frappant des "bugs" de google qui peuvent conduire à la catastrophe pour le référencement d'un site sont les redirections 302, qui ont abouti dans plusieurs cas avérés à des déréférencements.

A partir de là il n'est pas illégitime de tenir compte du fonctionnement (et des dysfonctionnement) de google quand on fait un site.

Ou alors on prend le parti de ne faire ses sites que pour les visiteurs humains, mais il faut accepter qu'ils soient invisibles ou presque dans google. C'est un choix.

Lien vers le commentaire
Partager sur d’autres sites

et pour compléter ce qu'ont dit Jan et Thick ... sans aller trop loin dans l'analyse, on peut quand même voir qu'une part très importante de tes pages sont vraiment très légères (1 à 2 K pour la plupart) et je me demande dans quelle mesure, elles ne manquent pas un peu de contenu (surtout si on tient compte de ce qu'a dit Thick) ... ;)

Lien vers le commentaire
Partager sur d’autres sites

Et puis faut arreter avec l'optilisation à tout va, si on doit se preoccuper aussi du data center jagger3 et changer l'organisation des liens, c'est plus possible ...

Je rappelle quand meme qu'un site web est destiné à un public et non à un moteur, se soucier de l'ergonomie, des attentes de tes membres, c'est quand même un peu plus noble  que de se soucier du data center Jagger3  :)

<{POST_SNAPBACK}>

Un datacenter Jagger 3 c'est juste un indicateur pratique qui permet pour la commande site: de trier tes pages par importance pour google. Il faut savoir que la commande site: trie également les pages par ordre d'importance depuis déjà un certain temps sur yahoo et msn. Si j'ai pris l'exemple d'un datacenter J3, c'est parce que tu parlais google.

Ensuite entre optimiser à tout va, et rendre ta homepage un peu plus populaire que tes autres pages, je crois qu'il y a un monde :rolleyes:

Lien vers le commentaire
Partager sur d’autres sites

Pour revenir aux résultats complémentaires :

J'ai observé que certaines de mes pages orphelines sortaient ainsi : des pages qui ont existé mais que je n'avais pas supprimé physiquement.

Lien vers le commentaire
Partager sur d’autres sites

c'est n'importe quoi, qu'il y'ait des pénalités pour des ressemblances pour le contenu des metas et le contenu body c'est une chose mais de dire que le bot se perd dans le code html ca ce n'est pas vrai.

Les bots retirent la partie code pour extraire le contenu, c'est tout, que ca soit pour des balises div, table, font ...

Faut arreter de dire tout et n'importe quoi ...

Et puis faut arreter avec l'optilisation à tout va, si on doit se preoccuper aussi du data center jagger3 et changer l'organisation des liens, c'est plus possible ...

Je rappelle quand meme qu'un site web est destiné à un public et non à un moteur, se soucier de l'ergonomie, des attentes de tes membres, c'est quand même un peu plus noble  que de se soucier du data center Jagger3  :)

<{POST_SNAPBACK}>

Ok pas de problème. Ecoutez tous Smile :D

Un code pourri avec un contenu planqué tout en bas du HTML est vachement pertinent.

C'est clair qu'il vaut mieux coller des tas de javascript, balises de mise en page et menus (tout ça bien sûr bien suroptimisé sur les mots clés) avant d'arriver à quelques lignes de contenu original (s'il y en a).

Les moteurs n'accordent aucune importance aux premiers caractères du code source et Google est tellement intelligent qu'il a jeté le site aux oubliettes sans raison car les pages sont tellement bien construites qu'il est arrivé à retrouver ses petits.

Oui oui c'est le changement d'hébergeur qui est fautif !

Et pour finir un changement d'algo n'a rien à voir dans l'histoire tellement le site est pertienent. C'était tellement bien construit qu'il tient la route au travers de ces Jagger qui ne veulent rien dire.

:hypocrite:

Lien vers le commentaire
Partager sur d’autres sites

Un code pourri avec un contenu planqué tout en bas du HTML est vachement pertinent.

Si un code pourri pour toi ce sont des tableaux imbriqués, je maintiens que le code HTML n'entre pas en ligne de compte.

Crois tu qu'un Bot aussi perfectionné soit-il, prend du temps à analyser le code source ?

Son job c'est de rapatrier l'info le plus rapidement possible, je pense même qu'il se fout si le contenu est en bas, en haut ou au milieu.

Maintenant il est clair que si t'as pas ou peu de contenu, du javascript, du flash, ca va te pénaliser.

C'est pas contre toi thick mais de lire sans arret dans divers forums qu'il faut un code XHTML pour esperer etre bien referencer, c'est faux, on se sert du du referencement pour faire avancer la norme W3C mais cela n'a pas d'incidence sur le ref.

Pour finir certainement que le changement d'algo y est pour quelque chose, possible qu'il faille chercher dans les resultats complementaires mais en aucun cas pour son code HTML, et si on me demontre le contraire, je ne suis pas buté et je suis pret à l'accepter :)

Lien vers le commentaire
Partager sur d’autres sites

Si un code pourri pour toi ce sont des tableaux imbriqués, je maintiens que le code HTML n'entre pas en ligne de compte.

Crois tu qu'un Bot aussi perfectionné soit-il, prend du temps à analyser le code source ? 

Son job c'est de rapatrier l'info le plus rapidement possible, je pense même qu'il se fout si le contenu est en bas, en haut ou au milieu.

Maintenant il est clair que si t'as pas ou peu de contenu, du javascript, du flash, ca va te pénaliser. 

C'est pas contre toi thick mais de lire sans arret dans divers forums qu'il faut un code XHTML pour esperer etre bien referencer, c'est faux, on se sert du du referencement pour faire avancer la norme W3C mais cela n'a pas d'incidence sur le ref.

<{POST_SNAPBACK}>

Il faudra me montrer où je dis que le passage en XHTML est bénéfique pour le positionnement ? J'ai juste dit que son code pourrait être plus propre, mais je ne dis pas que ça va le placer en première position ou alors je me suis fait mal comprendre.

J'ai regardé en vitesse ce que je trouvais moyen sur le site et c'est tout. Ce n'est pas mon but de faire un audit gratuit ici même.

Mais après, si on veut continuer de faire du code complexe, au lieu d'épurer tout ça vers une construction qui me semble plus logique, chacun est libre de faire comme il veut. Mais pas besoin d'être un Bot pour apprécier la simplicité et la pureté des pages en XHTML par rapport aux hideuses balises des tableaux et de la mise en page.

Pour le contenu en bas, haut ou milieu par contre, je ne suis pas d'accord. En fonction de la zone où va se trouver ton contenu pertinent les réactions du moteur seront différentes. Tu peux même tourner des défauts en avantage. Par exemple, si tu as un site puissant, il est même parfois utile de placer le contenu un peu bas pour optimiser les chances que Google affiche la META Description dans les résultats de recherche au lieu de l'extrait de texte avec les mots clefs en gras. Les pages vont monter tout de même grâce à certains éléments comme title et le contenu on s'en fiche (toujours dans le cas d'un site bien populaire), ce qui permet de zapper complètement l'optimisation pour se concentrer sur un texte destiné aux visiteurs.

Lien vers le commentaire
Partager sur d’autres sites

Mais pas besoin d'être un Bot pour apprécier la simplicité et la pureté des pages en XHTML par rapport aux hideuses balises des tableaux et de la mise en page.

Je ne sais pas mais pour les trouver hideuses, il faut aller chercher le code source, et franchement les visiteurs eux, n'iront pas le voir, je préfère voir un beau site graphique qui aura l'estime de ses membres et non pénalisante pour les moteurs, qu'un site en XHTML pauvre qui sera estimé uniquement par une catégorie de webmasters et qui aura des defaults d'affichages selon le navigateur.

La seule question : A qui s'adresse notre travail ?

Lien vers le commentaire
Partager sur d’autres sites

Je ne sais pas mais pour les trouver hideuses, il faut aller chercher le code source, et franchement les visiteurs eux, n'iront pas le voir, je préfère voir un beau site graphique qui aura l'estime de ses membres et non pénalisante pour les moteurs, qu'un site en XHTML pauvre qui sera estimé uniquement par une catégorie de webmasters et qui aura des defaults d'affichages selon le navigateur.

La seule question : A qui s'adresse notre travail  ?

<{POST_SNAPBACK}>

Je ne dis pas que tu as tort sur ce point. C'est comme les voitures, tu peux fabriquer une Rolls, une Clio ou une Formule 1 et être fier de chacune. Mais si tu es technicien, il est possible que tu admires un peu plus le moteur de la F1 que celui de la Clio.

Sur le Web, tu as de superbes réalisations (Rolls Royce) mais qui ne valent pas tripette sur un circuit (Google). Par contre, il est vrai que ta Clio peut aussi faire des trucs sympa si tu la bidouilles un peu (site mal conçu qui se positionne bien), mais tu as quand même plus de chances si tu construis ta voiture dès le départ comme une F1 (XHTML). Après, c'est clair que ce n'est pas parce que tu prends une base de F1 que tu vas dépasser Schumacher, mais tu as quand même plus de chances que si tu pars avec ta Clio (même bidouillée).

Bon, là je ne sais pas trop où je pars avec mon histoire à 2 balles :fou:

En fait, je crois qu'on ne se comprend pas trop et pourtant on est plutôt d'accord sans arriver à s'expliquer correctement nos points de vue...

Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant

×
×
  • Créer...