Aller au contenu

Les standards et le référencement


lafleur

Sujets conseillés

Qu'en penses-tu ?

Pour moi contenu c'est la même chose que message. Le message est le contenu de ma donnée informatique. Si tu préfères tu peux remplacer "contenu" par "message" dans tous mes écris car je l'utilise dans ce sens là.

Pour reprendre tes exemples :

1/ Il ne s'agit pas de tout permettre de retranscrire, mais de faire correctement le minimum qui permet à tout le monde de comprendre. C'est à dire séparer les livres, dans chaque livre séparer les versets, marquer les paragraphes et les titres. Je ne vois ici nulle part quelque chose qui ne peut pas être mis sous forme fonctionnelle et sémantique. Ca ne veut pas dire que mon marquage va *tout* couvrir, mais il va couvrir un langage commun qui sera déjà une bonne base.

C'est la même chose pour ton trémolo sur le sermon, je met ma balise <em> car c'est bien une emphase. Certes ça ne traduit pas forcément toute la donnée (je ne sais pas quelle type d'emphase c'est), mais ça la traduit déjà mieux que si j'avais simplement fait une mise en italique avec une police tremblante. Rien ne m'empêche d'ailleurs de faire les deux (le <em> et la police tremblante).

Le 2/ est à mon avis hors contexte. Il ne s'agit pas de dire que le marquage va résoudre tous les problèmes et permettre d'informer sur tout. Il ne protègera pas contre les sorties de contexte, contre les doubles sens, contre toutes ces choses spécifiques liées au sens du contenu. Maintenant ça n'empêche en rien de structurer le message de façon à faire apparaitre les blocs fonctionnels et blocs de sens qui peuvent l'être de façons à ce que ce message soit plus facilement traité et compris par les machines.

Ca ne résoudra pas tes problèmes de sens et de contexte mais ça ne les empêche pas non plus. Par contre ça résoudra d'autres problèmes.

Quant au 3/ je ne réagis pas à une page qui contient des <h1> là, je réagis au message initial de ce sujet (je n'étais pas dans le précédent). Et ce message là est tout à fait explicite ;)

Maintenant, même s'il ne l'était pas. En quoi cela rend t'il impossible le fait de signaler ce qui est coté sens et fonctionnel ?

Dans tes cas certes le marquage ne résoud pas tous tes problèmes, il n'empêche pas d'être mal compris, il ne permet pas plein de choses sur le contexte. Mais en aucun cas il n'a dégradé quoi que ce soit. Par contre il peut éventuellement permettre à bien des machines d'avoir une meilleure connaissance du message pour pouvoir le présenter et le traiter de manière plus efficace (à défaut d'avoir une bonne connaissance et un traitement complet).

Bref, toujours pas de message qui perde quelque chose à être marqué correctement. Toujours pas de message qui soit impossible à retranscrire dans le cadre du standard et qu'il soit possible de retranscrire en dehors. C'est uniquement ça mon propos.

Maintenant pour ce qui est du fait de pouvoir donner mon avis et dire ce que je pense ... il me semble qu'à chaque fois j'argumente très largement, j'explique et je discutte. Il ne s'agit pas de choses posées comme ça qui ne servent à rien comme tu semble le penser. Si tu le prend mal ou que tu as l'impression que ça ne sert à rien j'en suis désolé, mais pour le coup je suis convaincu du contraire ;)

Modifié par Ganf
Lien vers le commentaire
Partager sur d’autres sites

  • Réponses 61
  • Créé
  • Dernière réponse

Contributeurs actifs dans ce sujet

Contributeurs actifs dans ce sujet

Pour ma part, je trouve parfaitement déplacé, dans ce genre de débat, d'accuser quelqu'un de mauvaise foi (ne parlons pas de l'expression de tes dérangements gastriques, Denis, perso, je vois vraiment pas ce que ça vient faire ici). Je pense que les personnes dont les idées sont à l'opposé des miennes ont d'excellentes raisons de penser ce qu'elles pensent et que nous pourrions être capables de contredire nos propos sans nous en prendre aux individus.

Tu as tout à fait raison, j'aurais du laissé aller cette remarque et je m'en excuse... probable que l'expression mauvaise foi est plus péjorative chez vous qu'elle ne l'est chez moi. Mais quand je vois autant d'inepties fondées sur une mauvaise compréhension des enjeux de la normalisation propulsées au rangs de super article, le sang me glace...

Que quelqu'un ne voit pas les intérets de fonctionner selon les normes, je peux comprendre. Que quelqu'un refuse de revoir sa manière de fonctionner pour adopter un modèle de conception basé sur les normes, je peux comprendre également. Tant pis pour eux et ça s'arrête là.

Mais il ne faut pas tout confondre... l'article d'Arno n'était ni plus ni moins qu'un torchon remplit de bêtises, écrit par un gars autrement très brillant mais poussé à bout par d'éternels gueulards insatisfaits qui n'en finissaient plus de critiquer contre SPIP sans pour autant apporter leur pierre à l'édifice. Arno a réagit comme il a pu et ça a donné ce texte là.

Après tout, pour citer mon ami Normand Lamoureux : "La résistance au changement nest pas le fruit dune réflexion, mais du confort de lhabitude. Et contre un tel état dâme, je crois bien quil ny a pas dargument."

Ganf, bien mieux que je n'aurais pu le faire, avait d'ailleurs déconstruit son article... après quoi, ce dernier ne valait même plus la bande assante consommée pour le lire... mais tout ça c'est un autre sujet, peut-être un peu trop sensible pour le moment.

Pour conclure, j'aimerais souligner que malgré les apparences, mon propos n'attaquait pas l'individu (Stéphane que j'apprécie tout à fait) mais bien les idées et en ce sens en valait bien d'autres, dans ce thread comme ailleurs sur le Hub.

Lien vers le commentaire
Partager sur d’autres sites

Pour conclure, j'aimerais souligner que malgré les apparences, mon propos n'attaquait pas l'individu (Stéphane que j'apprécie tout à fait) mais bien les idées et en ce sens en valait bien d'autres, dans ce thread comme ailleurs sur le Hub.

Pas de souci Denis, je ne l'avais pas mal mal pris :)

J'aurais par contre été désolé que tu ne poursuive pas sur ce débat. J'apprends beaucoup, notamment à la lecture de tes interventions.

Mais il ne faut pas tout confondre... l'article d'Arno n'était ni plus ni moins qu'un torchon remplit de bêtises, écrit par un gars autrement très brillant mais poussé à bout par d'éternels gueulards insatisfaits qui n'en finissaient plus de critiquer contre SPIP sans pour autant apporter leur pierre à l'édifice. Arno a réagit comme il a pu et ça a donné ce texte là.

L'un des mérites à mon avis de l'article d'Arno est de mettre en évidence le malaise et l'incompréhension mutuelle qui imprègne aujourd'hui tout débat sur les standards, celui-ci y compris. Loin d'un débat pacifié et productif, on voit des protagonistes s'accuser mutuellement d'être une "élite technicienne" d'une part ou "des ignares de non-informaticiens qu'il faudrait empêcher au plus vite de produire des pages web" d'autre part. Caricatural peut-être, mais le malaise est toujours bien sensible (on en a un bon exemple avec cette discussion), ce qui semble ralentir l'ouverture d'un débat dépassionné et rationnel.

Personnellement, je pense comme l'ont déjà dit Laurent et Kimberlyclarko qu'il ne faut pas enterrer le Html, et que les développeurs ont intérêt à rassurer "Mr tout le monde" sur ce point.

Pour revenir sur le sujet de la dépréciation des metadonnées, il est évident que les moteurs ont fait ce choix pour s'adapter à un standard d'usage. La réalité est que l'immense majorité des développeurs ne les utilisent pas (et que la plupart des autres ne savent pas les utiliser correctement), et c'est bien pour cette raison que les principaux moteurs n'en tiennent pas compte (ou presque pas). Les moteurs, et en premier lieu Google, sont aussi responsables de cette situation, puisqu'en ignorant l'utilité des balises Meta, et en le faisant largement savoir, ils encouragent davantage de développeurs à ne pas les utiliser...

Accuser les référenceurs de la dépréciation des balises Meta est donc effectivement une enormité.

A ce propos, j'avoue que je suis assez surpris que dans le cadre d'un débat sur "référencement et standards", personne n'ait encore évoqué le rôle actif du principal acteur de cette problématique : les moteurs de recherche eux-mêmes.

Au mieux, certains intervenants ont présenté les moteurs comme "victimes" de "détournements", ce qui revient à nier totalement leur responsabilité dans ce domaine.

Or, les moteurs majeurs influencent bien plus l'évolution du web que ne peut le faire actuellement le W3C. On aura l'occasion ces prochaines semaines je pense de le vérifier grandeur nature suite à l'initiative du rel="nofollow"

Vous êtes vous déjà demandé par exemple pourquoi les moteurs attachent de l'importance aux balises H1 ?

Début de reconnaissance du "Web Sémantique" ? Pas du tout... juste un moyen bien commode pour Altavista à l'époque de pouvoir analyser un tant soit peu le "vieux web" conçu à l'origine pour fonctionner sous Mosaïc ou Netscape 2.

Si ce critère a été maintenu jusqu'à aujourd'hui et copié par des moteurs plus récents, c'est en grande partie une conséquence du lobbying des référenceurs qui ont encouragé depuis des années leurs clients à l'utiliser (et par la même occasion à utiliser le CSS puisqu'on n'est pas masos non plus ;))

Les moteurs auraient tout aussi bien pu faire un choix différent... et ils le peuvent encore aujourd'hui.

Que se passerait-il si un acteur majeur du marché (au hasard Google) décidait du jour au lendemain de ne plus prendre en compte les H1 pour leur préférer les <font size="x"> sous le prétexte que ce serait une balise plus "moderne" ou plus massivement utilisée ?

Et bien, je pense que presque tout le monde suivrait (moi y compris :blush:), non pas par choix, mais par simple nécessité économique...

Lien vers le commentaire
Partager sur d’autres sites

L'un des mérites à mon avis de l'article d'Arno est de mettre en évidence le malaise et l'incompréhension mutuelle qui imprègne aujourd'hui tout débat sur les standards, celui-ci y compris.

Tout en renvoyant à mon tour au billet d'Eric ( http://blog.dreams4net.com/FudTrollEtUzine ) qui démontait parfaitement les erreurs à la base du discours d'Arno, je dois dire, contrairement à Denis, que ce "W3C Go Home" était aussi très pertinent, malgré son côté démagogique : il y a un Web de l'écran immédiat, indifférent à des problématiques plus complexes, qui a acquis une indéniable légitimité.

C'est ce Web du Wysiwyg, du SPIP historique, de monsieur tout le monde, mais aussi de nombreux "pros" jugés conservateurs, qui s'exprimait dans cet article. Je ne crois pas qu'on puisse réduire sa résistance à de la paresse, à de l'incompétence ou au confort de l'habitude. Elle exprime un besoin plus profond.

Ce besoin ne disparaîtrait d'ailleurs pas avec de nouveaux langages, quels qu'ils soient. Hixon demandait: "People obviously think they want a page layout language. How do we make them realise they have a page layout language (CSS), but that for the Good of the People they should work with semantics at the lowest level instead of working with formatting?" La réponse qu'on ne pourra pas, car ils n'ont pas vraiment besoin de différencier structuration et présentation. Ils n'ont surtout pas besoin d'un niveau d'abstraction élevé, mais uniquement d'un système concret de présentation à l'écran.

XHTML ou tout autre évolution n'y changera sans doute rien : il suffit de voir aujourd'hui le code des skyblogs : du XHTML1.1 (sic) - CSS purement présentatif sans aucun rapport avec les exigences qualitatives de ce format. Les skyblogs en XHTML, c'est une énorme aberation. Pas en raison de leur contenu, mais parce que les objectifs poursuivis ne sont pas ceux du XHTML.

Personnellement, je pense comme l'ont déjà dit Laurent et Kimberlyclarko qu'il ne faut pas enterrer le Html, et que les développeurs ont intérêt à rassurer "Mr tout le monde" sur ce point.

HTML restera non seulement nécessaire, mais surtout inévitable en tant que format graphique. Oui, ce n'est pas ce qu'il est supposé être. Mais c'est ce que son histoire en a fait, et c'est ce qu'entérine HTML4.01 transitional. Je préfère de loin qu'on invite à se servir intelligemment du HTML en ce sens, plutôt que de susciter le rejet de la notion même de standard.

Or, les moteurs majeurs influencent bien plus l'évolution du web que ne peut le faire actuellement le W3C. On aura l'occasion ces prochaines semaines je pense de le vérifier grandeur nature suite à l'initiative du rel="nofollow"

Heureux de te l'entendre dire ;) On s'est un peu trop focalisé, à mon sens, uniquement sur le rôle des navigateurs. Il me semble que les moteurs vont occuper à présent de plus en plus visiblement le devant de la scène, et le "nofollow" vendu sous son emballage "sémantique" n'est sans doute qu'un premier pas.

Que se passerait-il si un acteur majeur du marché (au hasard Google) décidait du jour au lendemain de ne plus prendre en compte les H1 pour leur préférer les <font size="x"> sous le prétexte que ce serait une balise plus "moderne" ou plus massivement utilisée ?

Un simple constat : il existe aujourd'hui des navigateurs "conformes". Il n'existe aucun moteur "conforme". Et je ne vois aucun mouvement en ce sens chez les moteurs dominants du marché. Tout comme un navigateur en mode quirks, ils traitent de l'existant, dans l'immédiat, et avec toute liberté de modifier leurs pratiques au jugé.

Modifié par LaurentDenis
Lien vers le commentaire
Partager sur d’autres sites

Hé hé, encore un post fleuve :P

Je pense qu'au fond, personne ici n'est contre les standards. Au contraire. Et la performance de Ganf lors du concours "mangeur de cigogne" a démontré que les standards n'étaient pas nuisible au référencement (au fait, tu vas participer à cigogne II :P ?). Le problème du référencement aujourd'hui, c'est que pour être visible sur les moteurs, il faut un grand nombre de backlinks, et un grand nombre de pages indexées. Que les pages respectent les standards ou non, voire même que certaines balises soient "détournées" n'est pas à mon sens un indicateur de spam. Si les millions de pages des comparateurs de prix ou des moteurs de seconde zone étaient valides, ca n'en resterait pas moins du Google feed à outrance.

Si j'ai bien tout lu Cariboo, la seule réelle application sémantique qu'utilise le moteur Google aujourd'hui, c'est celle qui lui permet de "comprendre" le sens d'une page pour afficher ses Adsenses. Donc la techno existe. Mais l'aspect économique du biniou fait qu'ils ne sortiront leur "killer app" permettant par exemple d'exclure les sites marchands des résultats que lorsqu'ils en seront réellement obligé.

En quelque sorte, en pourrissant l'index de Google, les méchants spammeurs-référenceurs accélèrent la venue de ce moment. Ils oeuvrent pour le bien de la collectivité :D Je me fait l'avocat du diable exprès car celà me permet d'exprimer un point de vue qui relève plus du politique que d'autre chose. Je suis totalement contre le spam sur les blogs et autres Wikis qui s'apparente à de la violation de propriété privée, pour le reste, nous avons la possibilité d'utiliser les même armes que les acteurs qui trustent habituellement le marché, je ne vois pas pourquoi on se priverait de s'approprier l'espace publique.

Si je pouvais me faire une petite place entre TF1 et M6 pour gagner ma vie, je le ferais. L'avantage d'Internet, c'est qu'il n'est pas nécessaire de disposer de gros moyens financiers pour être visible. C'est également ce qui en fait sa richesse. Les blogueurs l'ont bien compris eux aussi... Et le respect des standards n'est pas incompatible avec cet état d'esprit. Quitte à être entre Tf1 et M6, ou en première page de Google, autant être accessible ;)

Ne vous méprennez pas, je suis autant emmerdé que n'importe qui quand je fais une recherche sérieuse de tomber sur du téléchargement de sonnerie et de logos. Je suis donc obligé de m'adapter et d'affiner toujours plus mes recherches à grands coups de "-sonneries", "-logos", etc. Pourquoi croyez vous que Google vient de passer son champs de recherche de 10 à 32 mots ? :D Mais c'est le prix à payer pour que les jeunes puissent se faire de l'argent de poche qui n'ira pas à TF1 (ou à d'autres, je ne fait pas une fixation...).

Quand aux référenceurs pros, beaucoups ont déjà compris que le référencement fait partie intégrante d'une stratégie de e-marketing globale et qu'une bonne place en première page n'est pas une fin en soit. A quoi sert le trafic si tu ne sais pas tracker tes visiteurs, mesurer le taux de conversion et optimiser tes ventes ? Une campagne de référencement classique commence dès la difusion du communiqué de presse et va jusqu'à la gestion de la relation client sur les forums en passant par la mise en place d'une opération de marketing viral. Il ne s'agit pas seulement de spammer des commentaires ou de baliser n'importe comment :D

Lien vers le commentaire
Partager sur d’autres sites

En vrac...

La réponse qu'on ne pourra pas, car ils n'ont pas vraiment besoin de différencier structuration et présentation. Ils n'ont surtout pas besoin d'un niveau d'abstraction élevé, mais uniquement d'un système concret de présentation à l'écran.

C'est une évidence que le web de "monsieur tout le monde" qui semble dans vos propos être au web ce que la ménagère de moins de 50 ans est à la télé, n'est que très modérement concerné par les standards et la normalisation.

Mais enfin cela reviens à dire que les normes comptables ou financières ne sont d'aucune utilité et n'ont aucune chance d'être adopté au prétexte que monsieur tout le monde n'à que faire d'un bilan ou d'un compte d'exploitation.

Je suis bien d'accord de considérer que le HTML de monsieur tout le monde ne disparaitra pas mais je ne vois vraiment pas pourquoi cela rendrait caduque l'ntérêt des standards.

Il y aura par contre un effet évident à l'adoption massive des langages standards et particulièrement des dialectes XML, c'est d'une part une professionnalisation accrue des métiers du web et d'autres part l'emergence d'espace web plus différenciés.

Je préfère de loin qu'on invite à se servir intelligemment du HTML en ce sens, plutôt que de susciter le rejet de la notion même de standard.

Tout à fait d'accord mais du HTML Transitionnal est parfaitement normatif.

En attendant que des expériences comme celle de Nvu deviennent suffisemment convaincantes.

Or, les moteurs majeurs influencent bien plus l'évolution du web que ne peut le faire actuellement le W3C. On aura l'occasion ces prochaines semaines je pense de le vérifier grandeur nature suite à l'initiative du rel="nofollow"

Et c'est donc une excellente nouvelle que certains d'entres aux, google en tête, se montre si bienveillants vis à vis de la standardisation, si l'on en juge par l'intérêt que porte les sociétés de référencements à l'effet de ces normes sur le réferencement.

Que se passerait-il si un acteur majeur du marché (au hasard Google) décidait du jour au lendemain de ne plus prendre en compte les H1 pour leur préférer les <font size="x"> sous le prétexte que ce serait une balise plus "moderne" ou plus massivement utilisée ?

Et pourquoi ferait-ils ça ???

Quel serait leur intérêt, reconnaissons que ce serait quand même particulièrement hasardeux pour ne pas dire plus.

Les équipes de developpement des moteurs ont un interêt objectif à ce que les langages standards soient massivement adoptés, ça ne peut que les aider à produire de meilleurs résultats, alors pourquoi auraient-ils cette idée saugrenue, qui leur demanderaient en outre un énorme travail pour finalement obtenir le même résultat, c'est à dire une meilleure indexation.

Par contre on pourrait envisager avec la généralisation d'XML et d'XHTML modulaire que certains d'entres eux soit tentés de recourir aux namespaces pour capitaliser une "clientèle", c'est sans doute de cette idée que se rapproche le plus la grande affaire du nofollow...

Je veux bien, de temps à autre, sortir de ma naiveté béate pour me frotter au réel mais de là à adopter une attitude systématiquement paranoiaque à base de complots souterrains ourdis par des superpuissances du web, il y à un pas que je ne franchis pas, c'est une des forces du web que d'être difficilement controlable et un des intérêt principaux des standards de nous débarasser des tentatives hégémoniques...

Les standards du W3C sont appuyés sur l'idée que tout le monde y à intérêt, même monsieur tout le monde qui s'en contrefout.

Et parmis ces acteurs les moteurs de recherche sont en première ligne et je n'en connais pas un qui montre une quelconque réticence.

MSN Search par exemple même une expérience consistant à générer ses résultats au travers d'un flux XML, en loccurence RSS.

MSN c'est redmond et on ne peux pas les soupconner de la moidnre intention philantropique, c'est plutôt une amorce de capitalisation de ces "nouvelles" technologies et c'est quand même savoureux de constater que la plus hégémonique des sociétés mènent une expérience "de pointe" fondé sur un sandard W3C... :)

D'autres parts des protocoles comme SOAP, la technologie d'annuaire UDDI, WSDL et plus prêt de nos préoccupations, entre IBM et madame michu, des grammaires comme RDF et des formats comme RSS sont massivements répandus et massivement utilisés, un acteur comme un moteur de recherche qui déciderait de sortir de ces domaines pour bricoler ses propres méthodes dans son coin risquerait fort de se retrouver bien seul.

Et pour les éditeurs de sites web commerciaux ou professionnels la question n'est pas "a quoi bon les standards" mais plutôt "Quand faudra-t_il le faire" ou alors je n'ai rien compris à la notion d'évolution...

Bon évidemment parler à madame michu de SOAP voire de RSS pour son site sur son dernier voyage au mont st michel, évidemment, vu de ce coté de la lorgnette le W3C est équipé d'une chasse d'eau ou d'un broyeur et SOAP est aux légumes ou au pistou...

Lien vers le commentaire
Partager sur d’autres sites

puisqu'en ignorant l'utilité des balises Meta, et en le faisant largement savoir, ils encouragent davantage de développeurs à ne pas les utiliser...

Le problème est toujours là. L'utilisation d'informations sémantiques nécessite que ces informations soient remplies et bien remplies. L'utilisateur saura toujours mentir (il l'a montré par le passé sur les <meta>), c'est le point faible de la chaîne. Du coup pour les moteurs de recherche le plus simple c'est de ne se baser sur l'utilisateur que pour un minimum de choses. Plus on se base sur le marquage, plus on permet de se faire leurrer si l'utilisateur ment.

C'est pour ça que je crois qu'à court terme la sémantique dans les moteurs de recherche publiques généraux ne dépassera pas la gestion des liens, les titres et ce genre d'informations basiques.

Maintenant, à partir du moment où on est séparé de la problématique du moteur de recherche (qui de toutes façons ne nous fait pas confiance), quel risque a t'on de faire les choses correctement ? en fait c'est là toute la problématique : montrer que ça peut servir dans le futur et que de toutes façons ça ne sera pas négatif.

Tout ce qui fait le final c'est la question de la poule et de l'oeuf, le moteur ne se servira pas de ces marquages tant qu'ils n'existeront pas de façon correcte et sûre, et les auteurs ne les utiliseront pas tant que ça ne servira à rien dans les moteurs/navigateurs. Il faut bien amorcer la pompe et les auteurs me paraissent les mieux placés pour l'instant. Bientot ça sera le tour des navigateurs et des petits outils client qui peuvent donner des gadgets et petits plus. Seulement après, quand les choses seront suffisament amorcées et stabilisée de manière "non biaisée", on pourra risquer de faire intervenir les moteurs de recherche.

En apparté :

au fait, tu vas participer à cigogne II

Non, pas s'il n'y a pas des garde fous qui permettent d'éviter que le concours pourrisse le reste du Web (je parle en particulier du spam). Si j'avais une idée de règle ou de technique intelligente pour régler la question je l'aurai proposée à Stephane, malheureusement je n'en ai pas. Indépendamment, ça m'a pris du temps et je ne crois pas que je sois de nouveau près à y consacrer tout ça. J'ai peur que ça ne m'apporte pas assez. Tiens, d'ailleurs, si le nofollow était implémenté sur la majorité des wiki/forums/blogs, la question se poserait moins déjà ;)

Lien vers le commentaire
Partager sur d’autres sites

C'est pour ça que je crois qu'à court terme la sémantique dans les moteurs de recherche publiques généraux ne dépassera pas la gestion des liens, les titres et ce genre d'informations basiques.

Tout dépend de quelle "sémantique" on parle. Au delà de la "Web semantics", l'introduction d'une dose de vraie sémantique (cf. le lien donné par Kimberly) dans l'algo d'un moteur pourrait constituer une avancée si considérable de la qualité de recherche qu'un moteur disposant d'un minimum de moyens pourrait se tailler de jolies parts de marché dans le contexte actuel. Je ne doute pas que cela puisse tenter certains ;)

Maintenant, à partir du moment où on est séparé de la problématique du moteur de recherche (qui de toutes façons ne nous fait pas confiance), quel risque a t'on de faire les choses correctement ? en fait c'est là toute la problématique : montrer que ça peut servir dans le futur et que de toutes façons ça ne sera pas négatif.

Tu es peut-être séparé, toi, de la "problématique du moteur de recherche", mais dans ce cas tu es une exception :)

Aucun risque pour le moment en effet. Mais la question qui se pose est de savoir dans quel sens les moteurs vont évoluer.

Car ils vont évoluer très rapidement à partir de maintenant, c'est certain. L'introduction du nofollow est un aveu d'échec de ce modèle d'algorithme, auquel collent également Yahoo et MSN. Google explorera probablement des voies différentes dans les mois qui viennent, suivi de près par ses deux imitateurs les plus fidèles. Lesquelles ? On verra bien et on s'adaptera à ce moment là.

Mais malheureusement la tentation va sûrement être grande pour eux de coller aux "standards d'usage" (qui deviendraient immédiatement les nouveaux standards du référencement). C'est en tous cas moins coûteux pour eux que de développer des technologies réellement innovantes.

Lien vers le commentaire
Partager sur d’autres sites

La pertinence n'est pas une valeur quantitative, ramener le plus grand nombre de résultats, mais qualitative, le moins de résultat mais les plus pertinents.

Tu cites le terme de contexte, et c'est justement un des grands problèmes des moteurs que de pouvoir évaluer le contexte de ce qu'ils indexent.

Concrètement, que signifie pertinent, à l'heure actuelle, pour Google ? Ca signifie tout simplement "similaire à la requête + populaire", et on espère que ça va devenir "similaire à la requête + populaire parmi les intervenants du secteur". Pour répondre à ce que tu dis plus bas :

Quand on dit que les pages dont la structure et le balisage est normalisé réagissent mieux sur les crawls des moteurs, cela ne veut pas dire qu'elles seront mieux placées, mais que les algos des moteurs bénéficieront d'un matériel de meilleur qualité , d'un meilleur étalonnage et par exemple en s'appuyant sur une hiérarchie de titre pouvoir mieux pondérer l'indexation ce qui aura pour conséquence d'accroitre le potentiel discriminant des requêtes sur ces pages.

Je ne vois pas en quoi le fait que le marquage d'une page soit correct ou non la rend plus similaire ou plus populaire et donc constitue un "matériel de meilleure qualité" pour un moteur :P Au contraire d'un détournement de balise par exemple, qui peut avoir pour effet de placer des mots-clés (similaires à la requête) aux bons endroits.

C'est en ce sens que l'effort est important, pas pour se fondre dans une "pensée unique" dictée par je ne sais quelle mystérieuse entité, mais simplement pour élever la qualité purement technique du matériel à disposition des moteurs.

D'accord. Alors voici. Le W3C met des outils à notre disposition. J'ai lu cent fois qu'il se contentait de ça. Hélas, quand on a le malheur d'user de ces outils dans un but divergeant de celui du W3C, on se fait apostropher par les spécialistes de la chose. Encore une fois, il n'y a pas besoin de faire d'analyse très poussée pour se rendre compte que les buts du W3C reflètent une vision parfaitement américaine du monde et de la façon dont les gens doivent penser.

Nous en sommes donc là : nous pouvons user des outils à condition d'en respecter l'esprit dans lequel ils ont été conçus. Sinon, c'est "mal". Le W3C ne met pas seulement des outils à notre disposition, il met des outils et y ajoute ses intentions et ceux qui ne respectent pas ces intentions sont des méchants (escrocs, tricheurs, etc). Comment diable peux-tu ne voir que la "qualité technique" de ces outils (que je ne conteste pas) et occulter le reste ???

Pour un moteur de recherche, vouloir orienter ses résultats dans un sens ou dans un autre serait suicidaire.

Je veux dire que le jour ou sera démontré que google oriente ses résultats il y à fort à craindre que son utilisation décroisse rapidement.

Quel serait ta réaction si tu savais ça ? tu continuerais d'utiliser google ?

Je n'ai pas encore vu, dans l'histoire des médias, de support acquérir du pouvoir et de l'influence et ne pas s'en servir, tout simplement. D'abord ça peut leur rapporter, ensuite, sans qu'il soit question de "complot", un support à succès et/ou à position dominante devient très vite l'objet d'enjeux qui le dépassent. La neutralité dans ce contexte, je n'y crois pas une seconde, sans qu'il soit question de "complot ourdi par des superpuissances".

Encore une fois je prends le contre-pied de ta remarque, c'est à l'heure actuelle que l'information cachée et pourtant très pertinente est difficile à atteindre.

Une thèse isolée et archivée dans un serveur web d'université, n'à aucune chance à l'heure actuelle de sortir en bonne place sur une liste de résultat.

Elle sera systématiquement supplantée par des études ou des ouvrages, le plus souvent payant, parce que son éditeur aura sus trouvé l'expert capable de le positionner, quitte à utiliser les failles du système.

Maintenant, dans un cadre normatif, où tout le monde (je suis un grand rêveur) respectent ces normes qui sont plus du domaine du bien commun que de l'injonction réglementaire, cette thèse aura de bien meilleures chances de sortir sur une liste de résultat.

Très théorique, ton exemple. Celui qui a l'éducation nécessaire pour tirer parti de la lecture d'une thèse d'université sait aussi la trouver sans passer par un moteur de recherche. De plus, ce n'est pas le cas de la majorité des gens, normal qu'un moteur propose des résultats censés plaire à la majorité de ses utilisateurs. Je ne vois pas bien en quoi il est intéressant qu'une thèse le plus souvent imbitable prenne la place d'une information vulgarisée sur le domaine, même si cette dernière est payante.

Toute ces remarques ne concernant que ce thème des standards et du référencement, parceque utiliser à mauvais escient le balisage diminue l'accessibilité du contenu et ça c'est, encore un autre débat.

Cent pour cent d'accord (sur le fait que c'est un autre débat).

Ganf, si nous poursuivons notre discussion, nous plongeons hors sujet. Je t'ai donc fait un petit mp :)

Sur la suite : standards et moteurs. Il y a deux parties. Quand vous parlez des professionnels, de l'évolution de vos métiers, tout ça, je m'en mêle pas : je ne suis pas plus concerné que compétent et si vous dites que les standards représentent un progrès fabuleux pour vos activités, je vous crois volontiers sur parole.

Mais quand vous parlez de grand public, où voyez-vous de l'évolution au sujet des standards ? L'évolution, (la grande révolution, même !), elle a déjà eu lieu : n'importe qui peut, au prix d'un moindre effort, produire un document qui, même codé de travers, peut être lu et compris par n'importe qui d'autre sur un ordinateur. Ca, c'est un vrai changement. Et elle est pas géniale, cette idée ? Mieux même, ces pages faites n'importe comment sont indexées et classées au même titre que les pages bien chiadées et bien léchées par les balèzes. De mon côté, je trouve ça sensationnel et... vous avez l'air de dire qu'il faut que ça change ? Que les moteurs devraient privilégier VOS pages ? Et pourquoi pas les miennes, mmmh ? surtout que vu que c'est les miennes, elles sont bien plus intéressantes pour la planète que les vôtres, n'est-ce pas évident ? :P

Le discours visant à expliquer que les seules pages valables qui devraient être privilégiées par les moteurs sont celles qui sont faites dans les règles de l'art, mille pardons, mais je trouve que c'est un retour en arrière, un retour à l'époque ou il était quasi-impossible de communiquer sans faire appel à trente compétences de professionnels, quel que soit le support choisi.

Donc les pros, vous codez comme vous voulez en pinaillant sur les mérites comparés du <strong> et du <b>, vous pouvez même ricaner entre vous à la lecture de pages bancales montées par d'autres moins velus que vous en la matière, mais quand vous avez l'air de déplorer le fait que vos mérites ne sont pas suffisamment reconnus par les moteurs, là, je trouve que vous exagérez un peu :P

Un autre point sur les standards : ce type de débat a déjà eu lieu à l'apparition de la PAO, ces réflexions, je les connais par coeur. Les arts graphiques ne fonctionnent d'ailleurs qu'avec des formats propriétaires (au hasard : le Postscript). Ca a des inconvénients. Ca a aussi des avantages : graphiquement, nous avons progressé à mort, nous sommes baignés d'images d'une immense qualité par rapport à il y a vingt ans. Pensez-vous que de tels progrès auraient pu avoir lieu dans d'autres conditions ? Si oui, quels sont vos arguments ?

A vous lire :)

Lien vers le commentaire
Partager sur d’autres sites

Lafleur, en ce qui me concerne, et à la lecture de ton dernier message, le troll s'arrête là.

(Et je suis très tenté de fermer ce sujet si tu continues à l'alimenter de cette manière).

Pour être clair, inventaire des trolls :

Je ne vois pas en quoi le fait que le marquage d'une page soit correct ou non la rend plus similaire ou plus populaire

Encore une fois, il n'y a pas besoin de faire d'analyse très poussée pour se rendre compte que les buts du W3C reflètent une vision parfaitement américaine du monde et de la façon dont les gens doivent penser.

normal qu'un moteur propose des résultats censés plaire à la majorité de ses utilisateurs. Je ne vois pas bien en quoi il est intéressant qu'une thèse le plus souvent imbitable prenne la place d'une information vulgarisée sur le domaine, même si cette dernière est payante.

n'importe qui peut, au prix d'un moindre effort, produire un document qui, même codé de travers, peut être lu et compris par n'importe qui d'autre sur un ordinateur.

vous pouvez même ricaner entre vous à la lecture de pages bancales montées par d'autres moins velus que vous en la matière, mais quand vous avez l'air de déplorer le fait que vos mérites ne sont pas suffisamment reconnus par les moteurs, là, je trouve que vous exagérez un peu
Modifié par LaurentDenis
Lien vers le commentaire
Partager sur d’autres sites

L'étiquetage n'engage que l'étiqueteur. Il n'y a pas de troll dans mes propos qui découlent de mon raisonnement, soit donnent mon opinion sur des positions qui ont été présentées par d'autres intervenants.

<edit=Dan: Je ferme ce post vu la tournure qu'il prend !>

Lien vers le commentaire
Partager sur d’autres sites

Cette discussion était intéressante, mais comme chacun campe sur ses positions elle ne mène à rien. Je ferme donc ce post.

Je rejoins LaurentDenis sur l'étiquetage de "troll".

Merci d'ouvrir des posts distincts et ne pas tout mélanger...

Dan

Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant

×
×
  • Créer...