Aller au contenu

Accessibilité et SEO


Sujets conseillés

Bonjour tout le monde,

J'ai récemment découvert un article de BigMouthMedia qui présentait l'accessibilité sous la lorgnette de l'optimisation d'un site Web pour les moteurs de recherche. Le principe est simple, mais la lecture est illuminante. Prendre les recommandations de la WCAG et les traiter d'un point de vue de SEO (Search Engine Optimization).

Je vous en recommande chaudement la lecture :!:

http://www.bigmouthmedia.com/search_engine..._accessibility/

Lien vers le commentaire
Partager sur d’autres sites

  • 2 semaines plus tard...

Oups... je l'ai lu, j'en avais même commencé un petit résumé, et puis prise par d'autres occupations... :blush:

Désolée, Denis, je vais m'y remettre.

L'article mérite vraiment d'être lu !

Lien vers le commentaire
Partager sur d’autres sites

En fait, je l'avais déjà lu il y a quelques temps, je crois d'ailleurs que c'était toi qui en avait parlé sur ton blog (si mes souvenirs sont bon). Personnellement, j'en ai conclus qu'il fallait utilliser l'XHTML valide ainsi qu'un peu d'accessibilité et respecter la sémantique pour être mieux référancé.

Lien vers le commentaire
Partager sur d’autres sites

Personnellement, j'en ai conclus qu'il fallait utilliser l'XHTML valide ainsi qu'un peu d'accessibilité et respecter la sémantique pour être mieux référancé.

Bingo ! Ça me semble tout à fait juste également.

Lien vers le commentaire
Partager sur d’autres sites

C'est beau dans la théorie

Mais dans la vie pratique (d'un référenceur) c'est souvent utopique.

J'explique :

Le client va voir une agence web, qui lui fait son site.

L'agence web (ou le client) va ensuite voir un référenceur pour le référencement (hé logique!)

-> Le site est déjà construit, parfois de façon à faire fuir tous les robots, on doit appliquer quelques rustines pour que ça passe... sans parler que parfois on ne peut pas toucher à grand chose sur les pages (des pages entièrement graphiques par exemple sur lesquelles on ne peut ajouter de texte)

Bref, j'en reviens toujours au même constat, il faut penser référencement dès la conception du site

:)

Lien vers le commentaire
Partager sur d’autres sites

Dans ce cas là, le référancement équivaut plus à une sponsorisation du site web, et une publicité massive. Je pense donc que le référencement dépend des pratiques des webagency : une sponsorisation dès le début ou alors elles font des cartes de visites qui sont distribués au client (ce qui semble être la situation la plus adéquate).

Lien vers le commentaire
Partager sur d’autres sites

Encore une chose : pour référencer correctement, il faut simplement attendre un petit mois le temps que les engines prenent connaissances du sites et des araignées sont lancées. Le référencement par logiciel ou utilisant une logistique payante, ne donne pas forcement plus de résultats après un mois ou deux. Il y a un décalage au départ mais qui est comblé par le temps.

Lien vers le commentaire
Partager sur d’autres sites

Pour ma part, je travaille avec quelques agences web avec qui on a pris le temps de poser des habitudes de travail ce qui permet, au final, d'avoir des sites beaucoup mieux construits.

Mais ça ne peut pas se faire tout le temps, on y viendra!

Lien vers le commentaire
Partager sur d’autres sites

Pour ma part, je travaille avec quelques agences web avec qui on a pris le temps de poser des habitudes de travail ce qui permet, au final, d'avoir des sites beaucoup mieux construits.

Sans trahir le secret professionnel ( ;) ), qu'entends-tu par "mieux construit", ou a contrario, ces "façons à faire fuir tous les robots" dont tu parlais plus haut ? Disons, le B.A.- Ba ? Liens sur la question ?

Pour donner le contexte de ma question : dans un monde utopique, futuriste et improbable où toute page produite exploiterait pleinement les possibilités que laisse entrevoir le Web sémantique, et où les moteurs de recherche feraient de même, le travail des référenceurs serait certainement très différent d'aujourd'hui. Mais aujourd'hui, et dans le monde réel, j'aimerais pouvoir comparer :

- ce que les référenceurs considèrent comme de bonnes pratiques de conception (domaine que je découvre ici),

- les exigences de conception du Web sémantique (terrain plus familier ;) ).

Lien vers le commentaire
Partager sur d’autres sites

Bref, j'en reviens toujours au même constat, il faut penser référencement dès la conception du site

Comme pour n'importe quoi en Web, le référencement devrait faire partie des stratégies initiales d'un projet et figurer au coeur des cahiers de charge et des guides fournisseur. C'est exactemnet ce que je fais avec mes clients maintenant comme gestionnaire de la qualité et déjà, je peux dire que tu as raison de parler d'utopie.

Les agences Web disposent toujours du beau rôle et agissent encore comme s'ils étaient seuls maîtres à bord en prenant toutes les décisions, mais ça change tranquillement. Les clients, trop trompés par le passé, sont de plus en plus exigeants et de moins en moins crédules. La confiance envers les agences Web n'est plus ce qu'elle était et par le fait même, leurs décisions sont de plus en plus contestées.

Dans l'industrie ou j'évolue, on entend de plus en plus parler de standards Web et d'accesibiblité et les comptes sur lesquels je travaille doivent passer systématiquement par un respect de ces éléments, du moins dans les demandes de soumission. Cela va assez loin, et sans parler de référencement, les points d'ordre que j'impose en terme d'optimisation favorisent beaucoup plus le référencement (en d'autres termes, je facilite le travail du référenceur par mes recommandations).

Évidemment, le résultat final n'est jamais parfait, mais il est quand même beaucoup mieux qu'il y a deux années. Au final, ce n'est jamais pleinement respecté, souvent par manque de compétences, mais au moins, le message fait son chemin. Tranquillement, les mentalités évoluent et les discours pro-standards trouvent de plus en plus preneurs chez les décideurs. Les agences Web sont donc de plus en plus obligées d'obtempérer. Time is on our side, comme diraient les anglos.

Dans mon cas, je me penche évidemment sur la conformité du code, sa sémantique et son optimisation. Les retombées sont très claires pour le site Web qui, naturellement, se positionne très bien sans le moindre effort. L'accessibilité, telle qu'elle est présentée dans le document proposé en début de thread, prend tout son sens dans une perspective de référencement. Mais ce n'est qu'une des nombreuses façons de faire, les mangeurs de cigognes vous le diront (puisque la plupart ne seront même pas passés par là). Après tout, qu'est le concours si ce n'est de trouver les faiblesses de Google ?

Cependant, à des hacks jouissant de la popularité du jour et qui perdront éventuellement de leur efficacité, je préfèrerai toujours les normes qui elles, seront là pour rester. Dans un perspective d'amélioration continue, les décideurs en entreprise aussi (bien qu'ils ne détestent pas user des techniques du jour si celles-ci ne risquent pas de les repousser dans le fonds des oubliettes). ^_^

Lien vers le commentaire
Partager sur d’autres sites

Sans trahir le secret professionnel ( ;) ), qu'entends-tu par "mieux construit", ou a contrario, ces "façons à faire fuir tous les robots" dont tu parlais plus haut ? Disons, le B.A.- Ba ? Liens sur la question ?

Je ne peux donner de liens sur la question mais on trouve :

- des sites sans aucun texte (ça existe! par souci d'esthétisme, on fait tout le texte en image)

- des splash pages avec intro en flash (facile à contourner avec lien texte)

- des menus javascript ou flash (quoique GG ne bloque plus sur javascript, je ne l'ai pas encore vérifié par moi-même)

- contenu du site stocké dans base de données sur un serveur différent et diffusé via une iframe

- utilisation de boutiques en lignes mais là encore où le contenu de la base n'est pas sur le même serveur

- sites dynamiques dont le contenu n'est accessible qu'en remplissant un formulaire (ce qu'un robot ne fait pas)

Bien entendu la plupart de ces problèmes sont contournables et c'est le travail d'un référenceur de les contourner par contre, en ce qui concerne les sites qui utilisent des boutiques en ligne dont le contenu n'est pas stocké sur leur propre serveur :nono: c'est vraiment bête, d'un côté le site a un potentiel énorme de contenu, de l'autre, il ne peut être indexé comme faisant partie du site... à fuir!

Je peux fournir des liens ... en MP ;)

Lien vers le commentaire
Partager sur d’autres sites

quoique GG ne bloque plus sur javascript, je ne l'ai pas encore vérifié par moi-même

Oh... tu as des sources là-dessus ? J'aimerais bien approfondir cette question.

Lien vers le commentaire
Partager sur d’autres sites

Des sources? Non, pas vraiment mais c'est ce qui se dit ... je vais mettre en place des pages pour le tester je pense ;)

Lien vers le commentaire
Partager sur d’autres sites

Tiens-nous au courant svp si tu pousses tout ça plus de l'avant. Bien que ce soit une mauvaise nouvelle potentielle pour l'accessibilité en général, ce serait une excellente nouvelle pour les propriétaires de sites ayant été mal conseillés technologiquement par leurs fournisseurs par le passé.

Lien vers le commentaire
Partager sur d’autres sites

Vérification faite, je pense tenir un exemple d'indexation de js par google: http://www.google.com/search?hl=en&lr=&ie=...rite%28%2764.68

Cette URL indexée dans google est une inclusion javascript (destinée à afficher l'adresse IP du visiteur dans la page qui l'appelle) qui n'est appelée que par ce code java script:

<script type="text/javascript" src="http://www.actulab.com/affiche-ip.php" language="JavaScript"></script>

Modifié par Jan
Lien vers le commentaire
Partager sur d’autres sites

Mais Google pourrait-il extraire quelque chose de plus complexe comme des URL passés à l'intérieur de fonctions par exemple ? Supposons qu'à l'intérieur de quelque chose comme

<a href="javascript: url();">

ou l'URL serait construit dynamiquement en JavaScript, Google serait-il capable de suivre la trace pour reconstruire la destination ? Admettons que les URL seraient contenues dans un array ? Dans un menu DHTML généré dynamiquement ?

Lien vers le commentaire
Partager sur d’autres sites

Là, je n'ai pas d'exemple. Mais ma compréhension du sujet est que google est capable d'extraire les urls d'un code javascript "simple".

J'aurais donc tendance à penser qu'il n'ira pas chercher une URL construite dynamiquement en js.

Lien vers le commentaire
Partager sur d’autres sites

Tant mieux. Mon argument contre JavaScript pour l'obstructivité dans la navigation au détriment de l'accesssibilité demeure ainsi entièrement pertinent. ^_^

Lien vers le commentaire
Partager sur d’autres sites

Considères-tu qu'on puisse complètement se passer de javascript? Il y a des choses que je ne sais pas faire sans javascript.

Quel est le problème à partir du moment où la page reste accessible sans javascript? Il y a du code qui se dégrade bien.

Lien vers le commentaire
Partager sur d’autres sites

J'ai commencé avec du JavaSript, et je m'aperçois de plus en plus qu'on peut s'en passer.... je crois bien que tout celà n'est affaire que d'habitude....

J'ai rencontré des fous du JavaScript et aussi des Snobs du JavaScript... Au bout du compte, je me dis que très heureusement, le javascript peut être remplacé par des solutions css ou php selon les cas.... Il suffit de vouloir y penser.....

Dino

Lien vers le commentaire
Partager sur d’autres sites

Deux lignes de javascript pour appeler un marqueur xiti en comparaison du développement d'ou outil d'analyse de trafic coté serveur. Il y a effectivement une alternative à js, mais pas franchement accessible à tout le monde.

La pré-vérification des données d'un formulaire en js pour éviter de surcharger le serveur: priceless ;)

Lien vers le commentaire
Partager sur d’autres sites

Mon argument contre JavaScript pour l'obstructivité dans la navigation au détriment de l'accesssibilité demeure ainsi entièrement pertinent.
Quel est le problème à partir du moment où la page reste accessible sans javascript? Il y a du code qui se dégrade bien.

Jan, ce que Denis voulait dire, c'est que javascript doit être utilisé avec discernement. Tu résumes d'ailleurs toi-même la règle de base : limiter javascript à des fonctions qui ne sont pas essentielles à l'accès au contenu du site (et proposer une alternative sans javascript si la fonction javascript est vitale).

Il y a effectivement une alternative à js, mais pas franchement accessible à tout le monde.

C'est sans doute la raison essentielle du succès original de javascript : compenser (plus ou moins bien) l'absence de traitement côté serveur pour ceux qui n'y ont pas accès (L'autre raison étant de pouvoir obtenir des effets dynamiques sans renvoi de la page au serveur).

La pré-vérification des données d'un formulaire en js pour éviter de surcharger le serveur

Mais ne dispense pas d'un traitement côté serveur des données qui seront envoyées sans pré-vérification, lorsque javascript n'est pas supporté ou activé chez le client ;)

Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...