Jump to content
Sign in to follow this  
real34

Que faire pour améliorer le référencement de ce site

Rate this topic

Recommended Posts

Bonjour à tous,

Ce message est en quelque sorte une suite à mon précédent message concernant un problème survenu avec le référencement du site http://www.normadoc.com ... et en plus c'est mon 42ème :s_hug_03::groupwave:

Le site a été réalisé depuis pas mal de temps désormais, avec son lot d'itérations supplémentaires concernant l'ajout de fonctionnalités.

Néanmoins nous avons eu beau faire appel à plusieurs fois à divers référenceurs ayant effectués chacun un audit afin de donner leurs conseils sur l'optimisation du site et leurs conseils n'ont (sans aucun préjugé) rien apporté de nouveau à ce que je savais déjà conçernant le référencement : urls, redirections, sitemap, nofollow (d'autant plus qu'il semble que cela soit désormais inutile) ...

Nous avons toujours de gros problèmes pour faire augmenter le nombre de page référencées dans google (et le client ne juge que par ça), et là j'avoue avoir atteint mes limites en terme d'optimisation. C'est pour cette raison que j'apprécierai fortement quelques conseils pour infirmer / confirmer mes suppositions, afin de pouvoir orienter la suite du projet.

Le site comporte actuellement plus de 29000 articles, mais seules environ 970 pages sont référencées.

Voici les points clés du référencement :

  • Plan du site avec des liens principaux
  • Sitemap.xml soumis à Google Webmaster Tools (contenant uniquement la liste des articles)
  • Robots.txt en place
  • Différenciation au maximum du contenu (meta description, title ...)
  • Travail de rewriting sur les liens, ainsi que de texte cliquable
  • Liens nofollow répartis à divers endroits "stratégiques"

Si vous le souhaitez je peux vous ouvrir un accès à GWT afin que vous puissiez m'aider à effectuer un diagnostic, néanmoins actuellement voici mon analyse sur ce problème :

  • Les articles référencés sont (je pense) ceux qui apparaissent dans la catégorie Nouveauté
  • Seul le moteur de recherche du site permet d'accéder aux produits, mis à part un lien depuis le plan de site et les urls du sitemap. A mon avis (ce que je conseille depuis le début mais que le client ne veut / peut pas effectuer) ce site manque cruellement d'une navigation par catégories de normes
  • Les actualités sont gérées par l'AFP avec un partenariat : les 70 dernières actualités sont présentes. Conséquence de ceci, certaines pages (trop anciennes) disparaissent et deviennent donc inaccessibles (404) ce qui apparait dans GWT comme problèmes de contenu ... est-ce très gênant ?
  • Les "slugs" des liens sont générés à la volée en fonction du titre du produit. Ainsi si le webmaster modifie un titre, le lien vers le produit changera (redirection gérée par un code HTTP de redirection). Par contre, une conséquence directe est que certains liens du sitemap pointent quelquefois vers une page de redirection (erreurs d'explorations sitemap dans GWT). Est-ce grave ?

Je reste à votre disposition pour plus d'informations, et apprécierai vraiment tout type de conseil concernant ce site car j'avoue être à court d'idées ... et pense ne pas pouvoir faire beaucoup plus dans l'état actuel des choses. De plus, mon manque d'expertise dans ce domaine me bloque dans mes propositions et conseils car je ne peux pas assurer que ceux-ci permettront à coup sûr d'améliorer le référencement !

Merci d'avance pour votre aide !

Pierre

Edited by real34

Share this post


Link to post
Share on other sites

Les articles sont-ils originaux ? En d'autres termes, sont-ils rédigés pour le site ou proviennent-ils d'autres sources (AFP apparemment) ?

Share this post


Link to post
Share on other sites

Quel travail a été effectué sur la structure du site (orientation du crawl) ? Sur les niveaux de profondeur ?

Share this post


Link to post
Share on other sites

Présenter le contenu d'un site à plat n'est franchement pas une bonne idée, et pas que du point de vue SEO.

Un lien vers une méthode SEO (siloing) qui justifie le découpage thématique d'un site. Tu peux te documenter un peu plus, je te donne ce lien à titre d'illustration. ;)

Parles-en à ton client !

Share this post


Link to post
Share on other sites

*Une petite recherche dans aol.fr me donne 159 résultats. Alors si comme on le pense Aol (qui puise dans l'index de google mais délivre des pages qui ne sont pas dans le supplémental index), la plupart des pages (dans ton cas la +90% !) sont dans le supplémental index.

La mêms manip dans Googel http://minurl.fr/kxf donne 969 pages. Donc dans l'index de Google, 969-159 = 810 pages seraient dans le supplémental index de Google.

*Contrairement à ce que tu dis, il y a beaucoup de titres qui se répètent, de même que les description et la meta keyword, a propos ça ne sert à rien de la bourrer de mots clé, un ou deux suffisent..

*Je m'aperçois que vous avez un second site (http://www.qualite-normadoc.com/) dont le menu est vraiment inutilement compliqué pour ce que cela fait :

regarde dans ce tag :

<div id="conteneurmenu"></div>

*Attention la grosse découverte c'estque à part Nouveauté, actualité et veille technique, TOUTES LES SECTIONS sont en NOFOLLOW, ne t'étonne pas si tu n'as pas de page référencée :)))

Je mettrai les nofollow pour le menu "contact" seulement dans le menu du haut et Mentions légales - Protection des données - Conditions générales de vente dans le menu du footer.

*De même pour les drapeaux, je te suggère de les enlever si le site n'est disponible qu'en français, ce qui est le cas pour le moment, car les images sont aussi en nofollow alors qu'elles renvoient vers la page d'accueil....Pire, ce qui se passe actuellement est que tu as un sérieux problème de duplicate content interne,

compare ces 3 urls, elles renvoient au même contenu...

http://www.normadoc.com/fr/homologation.html

http://www.normadoc.com/en/homologation.html

http://www.normadoc.com/de/homologation.html

tu peux utiliser la meta canonical.

*Après je suppose que tu as mis une rubrique actualité pour "rafraichir" la page d'accueil, à mon avis c'est inutile. En revanche il faut mettre les liens vers toutes tes catégories de norme.

*attention au menu de pagination sous la rubrique actualité (je répète qui n'a normalement pas lieu d'être en terme de référencement, à moins que ce ne soit l'actu des normes).

C'est tout pour le moment bien qu'il y ait encore à dire, mais si tu résouds ceci tu verras une amélioration.

Edited by psychodays

Share this post


Link to post
Share on other sites

Pourquoi mettre un nofollow sur les liens ? Il suffit de mettre un noindex sur les pages qui ne doivent pas être indexées.

J'ai finalement regardé un peu le contenu du site pour répondre tout seul à ma question. Du coup, je suggère que l'absence d'indexation, ainsi que de difficulté de positionnement concernent les nombreuses pages dont le contenu est déjà présent ailleurs sur la Toile. Pour quelle raison le moteur de recherche devrait-il ingurgiter du contenu qui est préalablement proposé sur d'autres pages ?

Share this post


Link to post
Share on other sites

Salut real34,

Je n'ai pas parcouru avec minutie ton site mais pour rebondir sur les réponses de certains, je dirai que des actualités qui n'ont pas de 'lien direct avec ta thématique ne t'apportera pas grand chose. De plus les actualités de l'AFP se retrouvent sur des dizaines de sites avec le même contenu.

Tu devrais te consacrer plutôt à écrire des actualités sur te thématiqueet essayer de les faire connaître auprès des internautes potentiellement intéressés.

Concernant le SILOing, cela permet de "thématiser" des rubriques mais si je ne m'abuse cela est utilisé avec du nofollow en interne et Matt Cutts a expliqué récemment que cela ne devrait plus être pris en compte à terme (si tant est bien sûr que cela ne soit pas qu'une annonce pour faire renoncer les référenceurs à cette technique). Karnabal nous dira peut être à juste titre que l'on peut faire autrement (et je serai intéressé pour échanger la dessus avec les autres aussi ;) ) mais cela devient assez compliqué (enfin il me semble).

Share this post


Link to post
Share on other sites

Par siloing il semble que l'on comprend plutôt "découpage thématique". Si on parle d'orienter les bots des moteurs de recherche, là l'expression consacrée est bot herding, et c'est justement le bot herding qui s'effectue, initialement, grâce au nofollow ; mais pas seulement. On peut guider/bloquer les robots à l'aide de Javascript notamment, donc rien de compliqué Laurent (JS permettant généralement de concaténer l'URL du lien). ;)

Share this post


Link to post
Share on other sites

Bonjour à tous et merci pour toutes ces informations constructives !

Cela confirme mes pensées (le partenariat avec l'AFP, les catégories de normes, l'aspect multilingue et tous ces nofollow qu'un référenceur nous a fait ajouter). Vous m'avez fait également découvrir le "siloing" et je vais me documenter un peu dessus.

Je prendrai du temps pour répondre à chacun des points évoqués ce soir, afin de continuer à avancer dans la bonne direction ... le reste cela sera une discussion avec le client, car maintenant mes pensées ont été confirmées ;)

Share this post


Link to post
Share on other sites

Effectivement, le "découpage thématique" est plus approprié pour définir le siloing par contre il me semblait que ce but était atteint principalement en utilisant le nofollow. Attention à l'utilisation du js dans les liens, Google les interprèteraient comme tel désormais.

Share this post


Link to post
Share on other sites

Que veux-tu dire par là ?

Share this post


Link to post
Share on other sites
(...) Attention à l'utilisation du js dans les liens, Google les interprèteraient comme tel désormais.
Que veux-tu dire par là ?

Je pense que "dldstyle" fait allusion à la récente prise en compte des liens JavaScript du type onclick par GG.

Share this post


Link to post
Share on other sites

Oui c'est ça, Regis a répondu à ma place :) . Il semblerait même que Google interprèterait des liens contenu dans des fonctions "basiques", que cela irait plus loin que le "simple" onclick.

Share this post


Link to post
Share on other sites

Bonsoir,

Je reviens donc sur vos réponses comme prévu afin de reformuler vos remarques pour voir si je les ai bien comprises ... et essayer de trouver une solution à chaque problème.

A priori je n'ai pas d'intérêt à ce que le site soit hyper bien indexé (car ma part du travail est effectuée, n'étant pas en charge du référencement), mais bien de pouvoir être sûr de mes arguments lorsque je dirai au client que ce sont les conseils qu'il a eu auprès de ses référenceurs (et que j'ai appliqués à la lettre) qui justifient le peu de pages indexées. Le but est aussi de faire ma culture personnelle ;)

1. Les actualités AFP :

Visiblement celà fait du duplicate content car elles sont également présentes sur d'autres sites.

D'après ce qui a été dit, je pense que ces pages sont indexées dans le supplémental index de google car sur une recherche "normale" elles apparaissent toutes.

Historiquement nous avions réalisé un module de gestion de news que le client a voulu remplacer par un partenariat avec l'AFP pour avoir du "contenu ciblé et facile" ... à mon sens ce contenu est inutile car : pas spécifique (des centaines de site ont le même contenu) et pas vraiment ciblé (cela ne parle pas des normes, mais de l'actu High-Tech).

Propositions :

  • Laisser les pages telles quelles sachant que cela ne fait rien gagner mais rien perdre non plus
  • Revenir à l'ancien module et demander au client de faire ses actualités spécifiques lui-même (beaucoup à y gagner ?)
  • Ajouter un noindex sur chaque page d'actualité ?

=> Sinon, psychodays qu'entends-tu par "attention au menu de pagination sous la rubrique actualité" ?

2. Les meta keywords :

En effet, le client ne souhaitait pas saisir de mots-clés lui-même pour chaque article (et j'ai pensé qu'il serait difficile d'automatiser ce processus là, mais peut-être est-ce une erreur ?) et nous avons suivi les conseil d'un référenceur pour ajouter une liste de mots-clés sur certaines pages.

Par contre, j'avoue que pour le coup je ne sais pas trop comment gérer dynamiquement les mots-clés sur des pages spécifiques comme la liste des actualités, les résultats de recherche, chacune des normes (calcul automatique des mots-clés ?) ...

Des conseils ?

3. Le multilingue:

Actuellement le client n'a pas fait trop d'efforts pour pousser cet aspect multilingue et je pense en effet qu'il y a pas mal de chemin à faire dans ce sens.

Les freins que je vois actuellement sont : les actualités disponibles qu'en Français, beaucoup d'articles ne sont disponibles qu'en une seule langue (avec parfois du contenu "anglais" dans les champs "français" ... bref un beau bordel), quelques détails de contenu non traduit (notamment tous les textes fournis par le référenceur qui ne sont que dans une seule langue).

Propositions :

  • Supprimer les drapeaux et garder le site en Français uniquement => quel serait d'après-vous la répercussion au niveau référencement ? Flagrante ?
  • Forcer le client à fournir une traduction de son site dans toutes les langues afin d'éviter le duplicate content
  • Laisser tel quel ... et tant pis ! (est-ce un problème majeur ?)

4. Les nofollow :

Initialement nous n'avions pas intégré de nofollow au site, et ceux-ci ont été intégrés de manière à ce que tout le "flux du PageRank" (désolé pour ce terme non technique) aille dans les pages principales : accueil, actualités, nouveautés, veille et plan du site. Vu que le site est "à plat" il n'y a pas énormément d'alternatives et je ne vois pas trop d'autres stratégies ...

Je pense en effet que le nofollow vers la section "Brochures" pourrait être supprimé et qu'il faudrait en mettre sur les actualités (cf proposition du noindex dans le 1.) mais les autres ne me semblent pas rediriger vers des contenus importants

Question : qu'en pensez-vous ?!

5. Les catégories (arborescence de normes) :

Dès la proposition initiale j'avais mentionné l'aspect "désorganisation" lié au manque de catégorie, et j'ai peut être fait une erreur professionnelle en n'insistant pas plus sur ce point (devoir de conseil) ... qu'en pensez-vous ?

Néanmoins, le client a supprimé le classement par catégories du Cahier des charges car il n'était pas en mesure de les classer (les données de chaque article ne contiennent pas cette information visiblement). De ce fait le site a toujours été conçu sans cet aspect là ... et intégrer la gestion par catégories impliquerait du développement supplémentaire (et assez conséquent) qui serait donc facturé.

C'est la principale raison pour laquelle je n'ai pas encore souhaité lui affirmer que c'était le principal problème de son site ... car si cela n'a aucun effet je passerai pour un incompétent (c'est pas vraiment le cas j'espère :D ).

Questions :

  • Pensez vous que c'est le manque de lien vers des articles (autres que dans le sitemap.xml) qui fait qu'il y a si peu d'articles référencés (car c'est sur eux que le problème se pose) ?
  • Pensez-vous qu'il soit possible d'améliorer le référencement de manière notable en gardant cette structure à plat ?
  • Quels seraient les résultats (nettement visibles, flagrants ...) de l'ajout d'une gestion thématique des normes ? Est-ce que cela justifierait l'investissement du client ?
  • Quelle est ma responsabilité pour ne pas lui avoir fait part de ce problème plus tôt et de manière insistante (devoir de conseil) ?

Voici la grande liste de questions que je me pose suite à ce projet ... qui je dois l'avouer traîne depuis bien trop longtemps à mon goût, pour des raisons dont je ne pense pas être responsable mais qui se retournent finalement contre moi.

J'espère ne pas vous avoir pris trop de temps ... et que l'un d'entre vous aura la gentillesse de me conseiller.

Merci d'avance,

Pierre

Share this post


Link to post
Share on other sites
Il semblerait même que Google interprèterait des liens contenu dans des fonctions "basiques", que cela irait plus loin que le "simple" onclick.

Pour le JS de type onclick cela est le cas depuis un moment même. :)

Lorsqu'on brouille bien son lien je t'assure qu'il est impossible pour un moteur de le reconstituer et de crawler par celui-ci la page qu'il y a au bout. Il faut garder à l'esprit que le but de l'outil de recherche reste de crawler rapidement du coup il ne va pas chercher à dépenser non plus trop de ressources pour deviner quelle URL répond bien. Après, c'est sûr que si on décompose ainsi - par exemple - 'http://','www','nomdusite','.tld', on peut sans doute s'attendre à voir le lien suivi.

En conséquence de quoi, il est toujours possible de faire du PR sculpting/Bot herding, si on s'y prend correctement.

Share this post


Link to post
Share on other sites

Hello 'karnabal',

Voici (si je ne me trompe pas) à quoi pense dldstyle :

C'est une info du 29/05/2009 =>

Google has also been crawling some JavaScript for a while. Primarily, theyve been extracting very simply coded links. As of today, theyre able execute JavaScript onClick events. They still recommend using progressive enhancement techniques, however, rather than to rely on Googlebots ability to extract from the JavaScript (not just for search engine purposes, but for accessibility reasons as well).

Googlebot is now able to construct much of the page and can access the onClick event contained in most tags. For now, if the onClick event calls a function that then constructs the URL, Googlebot can only interpret it if the function is part of the page (rather than in an external script).

Some examples of code that Googlebot can now execute include:

<div onclick="document.location.href='http://foo.com/'">
<tr onclick="myfunction('index.html')"><a href="#" onclick="myfunction()">new page</a>
<a href="java script:void(0)" onclick="window.open ('welcome.html')">open new window</a>

These links pass both anchor text and PageRank.

Share this post


Link to post
Share on other sites

'lo Régis :) Merci pour la source.

Les exemples cités par Vanessa Fox ne sont pas vraiment ce qu'on peut appeler des liens brouillés (je pars bien sûr du principe qu'un lien brouillé l'est sciemment et dans le but de bloquer les bots), il s'agit simplement de liens en JS. Je crois qu'on est tous d'accord depuis le début, non ? :P

Share this post


Link to post
Share on other sites

Je pense qu'il faut dan sun premier temps ne garder que le français et supprimer les autres "langues", ensuite, enlever tous les nofollow pour avoir une base saine sur laquelle travailler, meta keyword UNIQUE et description UNIQUES, et enlever les actus.

Faire trop de choses à la fois n'est jamais bon pour comprendre son problème.

Share this post


Link to post
Share on other sites

meta keywords je passerai. Elle demande trop de travail pour aucun effet puisque Google ne la reconnait pas et les autres moteurs qui la prennent en compte ne sont pas assez significatifs.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By kevinjoseph
      Bonjour, j’ai un gros problème sur mon site Wordpress . Du jour au lendemain, mon site wordpress fais une redirection vers un autre site wordpress que j’ai crée ,sans que je touche à quoi que ce soit. Quand j’essai d’aller sur l’admin pour désactiver les plugins et voir d’où peut venir le problème. Impossible d’accéder, sa me redirige vers l’admin de l’autre site. Au final il est impossible que j’accède au site via (google, la bare de recherche, les favoris, l’admin…) pour voir ce qu’il fonction pas, j’ai juste accès au FTP. J'ai essayé de voir d'où pouvez venir ce bug en supprimant les plugins, le théme, mes derniers modifications, regarder sur le .htaccess si il y avais quelque par le nom de domaine de l'autre site écrit. Ca n'a rien changer, le site continue de ce rediriger automatiquement vers l'autre site. Si vous avez une idée d’où sa peut venir ou comment faire pour arranger ça et surtout comment éviter que sa ce reproduise. Sa m’aiderai beaucoup, merci d’avance.
      voici le code du .htaccess:
       
      # BEGIN WordPress
      <IfModule mod_rewrite.c>
      RewriteEngine On
      RewriteBase /
      RewriteRule ^index\.php$ - [L]
      RewriteCond %{REQUEST_FILENAME} !-f
      RewriteCond %{REQUEST_FILENAME} !-d
      RewriteRule . /index.php [L]
      </IfModule>

      # END WordPress
      ~   Ludovic • 16:28    
    • By leobk
      Bonjour,
       
      J'ai un sous-domaine www.fr.monsite.com dédié pour la réservation des vols
      j'ai redirigé récemment ce sous-domaine vers le site principal www.monsite.com et le nombre des erreurs 404 a explosé
      un nombre énorme d'URLs de type :
      www.fr.monsite.com/fr/vols/index?f_type=01&f_departure=TLS&f_destination=DJE&f_date_from=08/09/2013&f_date_to=22/09/2013&f_flexibility=3&f_paxs_adults=2&f_paxs_childs=0&f_paxs_infants=0
      redirigent vers :
      www.monsite.com/fr/vols/index?f_type=01&f_departure=TLS&f_destination=DJE&f_date_from=08/09/2013&f_date_to=22/09/2013&f_flexibility=3&f_paxs_adults=2&f_paxs_childs=0&f_paxs_infants=0
       
      L'URL de destination est biensur introuvable 404, puisque les variables utilisés dans les deux sites ne sont pas identiques
      Voici la structure d'URL si on fait une recherche de vol sur le site principal :
      https://www.monsite.com/fr/resa?depart=SXF&arrivee=NBE&aller=2017-11-10&retour=2017-11-30&adultes=1&enfants=1&bebes=0&departureDateTime_D=&arrivalDateTime_D=&departureDateTime_R=&arrivalDateTime_R=&fareGroupName=&fareGroupName_R=&sens=2&currency=EUR&airline=&flightNumber=&flight=&flight_retour=&webview=0&felxibilite=2
       
       
      existe-il un moyen pour rediriger l'ensemble des URLs dynamiques du sous-domaines vers une URL statique du domaine principale (autre que l'accueil)?
       
       
    • By PieceMobile
      Bonjour,



      J'espère que vous allez tous bien.



      Auriez vous une solution pour rediriger ( via une règle htaccess par exemple ) :



      http://www.mon-site.com/blabla.html?ps_mobile_site=1



      vers : http://www.mon-site.com/blabla.html



      A mon avis, s'agissant d'un paramètre d'URL, de ce que j'ai cru comprendre -a mon petit niveau- c’était pas possible, mais ça me dépannerai pas mal si l'un d'entre vous avait une idée.



      Merci d'avance





    • By aurelien59
      Bonjour, Je me permet de poster ce problème sur ce forum en plus de l'avoir posté sur un autre. Le problème survient sur un site codé en dur. Depuis plusieurs mois après la mise en place de redirection, je rencontre un problème. La redirection a été mise en place pour rediriger simplement les pages ayant un underscore vers un tiret. Par exemple page_1.php vers page-1.php Dans Google webmasters tools, zone "Exploration", > Erreurs d'exploration > le nombre des URL non suivies à augmenter de manière considérable sur ordinateurs et smartphone.

      Voici un exemple de page contenant l'erreur : page-1.php/page-a.php (alors que la page correcte est page-1.php, la page page-a.php est présente sur le site en racine). Lorsque je clic sur l'url d'erreur, dans l'onglet "Référencée sur". Les url qui apparaissent sont : http://www.monsite.fr/page-2.php/page-b.php'>>http://www.monsite.fr/page-2.php/page-b.php et http://www.monsite.fr/page-2.php/page-c.php'>>http://www.monsite.fr/page-2.php/page-c.php (non indexés sur Google). Voici l'extrait du .htaccess ErrorDocument 404 http://www.monsite.fr/404.phpRewriteEngine onRewriteCond %{HTTP_HOST} ^monsite.fr$RewriteRule ^(.*) http://www.monsite.fr/$1 [QSA,L,R=301]RewriteRule ^([^_]*)_([^_]*)$ /$1-$2 [L,R=301]RewriteRule ^(.*)\.php/$ http://www.monsite.fr/$1.php[L,R=301]RewriteRule ^(.*)\.php/(.*)\.php$ http://www.monsite.fr/$1.php[R=301]RewriteCond %{REQUEST_FILENAME} -s [OR]RewriteCond %{REQUEST_FILENAME} -l [OR]RewriteCond %{REQUEST_FILENAME} -dRewriteRule ^.*$ - [NC,L]RewriteRule ^.*$ /404.php [NC,L] Merci beaucoup pour votre aide.
×
×
  • Create New...