Aller au contenu

doctype : indispensable ou pas ?


Xavfun

Sujets conseillés

Je suis désolé d'avoir envoyer mon post avant d'avoir lu celui de Stéphane.

Parce que je ne suis pas du tout d'accord en ce qui concerce le respect des standards et le référencement.

Si je décide de réaliser un site en respectant les standards, je vais séparer la présentation du contenu. Cela va me permerttre de créer des styles afin d'avoir des jolis titres en h1, h2, etc.

Si je n'utilise pas les standards, pour avoir des beaux titres, je vais créer des images et mes titres (avec les mots clés) seront invisibles ou auront moins d'impact au niveau du référencement.

Si je respecte les standards, toujours en séparant la présentation du contenu, je vais pouvoir faire un menu sympa, avec des magnifiques effets de roll over, pour la navigation dans mon site, en stylant une liste (ul).

Si je n'utilise pas les standards, je crée des images pour faire mes roll-over, les moteurs ne peuvent pas voir les mots clés dans les liens.

Bref, je pourrai continuer longtemps comme ça.

En fait, Stéphane, tu oublies complétement de tenir compte d'un débat qui semble avoir disparu et qui disait "entre avoir un beau site et un site bien référencé, il faut choisir".

Avec les standards, on peut créer des beaux sites, bien référencé. C'est pas génial ça ?

Donc quand tu dis qu'il y a "égalité", au niveau des moteurs, entre le vieux HTML non valide et le XHTML tout propre, tu as peut-être raison, dans l'absolue, mais l'aspect visuel d'une page web a également son importance. Il faut quand même que le visiteur éprouve un peu de plaisir du fait de la présentation.

Je rappelle egalement que si les "référenceurs" on connu un tel succés, c'est évidemment à grâce à Google, mais surtouti parce que beaucoup de sites réalisés par des graphistes étaient tout en images.

Si les graphistes se mettent à séparer la présentation du contenu, les sites qu'ils produiront n'auront plus besoin de passer entre les mains de référenceurs pour que les moteurs puissent avoir un peu de contenu textuel.

Enfin dois-je parler des référenceurs qui utilisent le CSS d'une manière un peu suspects pour optimiser des mots clés sur une page ?

Les avantages de l'utilisation des standards ne sont plus a faire et ce à n'importe quel niveau, même pour le référencement.

Mais le gros défaut des standards ce qu'ils nécessitent un effort de la part des personnes qui réalisent des pages web tel que, un exemple au hasard, mettre le bon

DOCTYPE, sur un document.

Lien vers le commentaire
Partager sur d’autres sites

  • Réponses 75
  • Créé
  • Dernière réponse

Contributeurs actifs dans ce sujet

Contributeurs actifs dans ce sujet

thierryf,

Je suis surpris et un peu déçu de ta réponse.

Mon seul et unique propos était de dire que la volonté d'atteindre un bon référencement ne doit en aucun cas devenir une motivation pour passer aux standards. Ce serait une promesse mensongère.

Ce qui ne veut pas dire évidemment qu'il n'existe pas d'autres motivations, beaucoup plus valables de passer aux standards.

Les évangélistes des standards tels que toi feraient mieux de mettre en avant ces motivations là, plutôt que de tenter de répandre de fausses nouvelles qui risqueraient de décrédibiliser leur cause à terme.

Si je décide de réaliser un site en respectant les standards, je vais séparer la présentation du contenu. Cela va me permerttre de créer des styles afin d'avoir des jolis titres en h1, h2, etc.

Si je n'utilise pas les standards, pour avoir des beaux titres, je vais créer des images et mes titres (avec les mots clés) seront invisibles ou auront moins d'impact au niveau du référencement.

Un peu caricatural, non ?

Ce n'est pas parce que l'on utilise des feuilles de style que l'on est forcément conforme aux standards.

De même, il est tout à fait possible de faire des pages 100% valides qui soient une aberration du point de vue référencement, parce que sémantiquement absurdes.

D'autre part, la balise <IMG> que tu ne sembles pas apprécier reste tout à fait conforme aux standards à ma connaissance.

Avec les standards, on peut créer des beaux sites, bien référencé. C'est pas génial ça ?

Avec les standards, tu peux aussi créer des sites très laids et mal référencés, ou très laids et bien référencés, ou très beaux et mal référencés... En fait, comme sans les standards, non ?

Je rappelle egalement que si les "référenceurs" on connu un tel succés, c'est évidemment à grâce à Google, mais surtouti parce que beaucoup de sites réalisés par des graphistes étaient tout en images.

Pour ce qui est de Google, personnellement je n'ai pas attendu la naissance de ce moteur pour devenir référenceur, ni même pour connaître le succès. Concernant les graphistes, il me semble pas juste de leur jeter ainsi la pierre. Chaque profession spécialisée du web (infographistes, développeurs, référenceurs) a apporté sa contribution à ce qu'est le web aujourd'hui. Et les graphistes/webdesigners ont à mon avis apporté une contribution essentielle à la démocratisation du web, parce que le web époque Lynx/Mosaïc c'était quand même pas très sexy faut l'avouer...

D'autre part, j'aimerais bien savoir ce que signifient les guillemets entourant le mot "référenceurs" dans ta phrase.

Les avantages de l'utilisation des standards ne sont plus a faire et ce à n'importe quel niveau, même pour le référencement.

Prouve le, et je me rangerai alors à ton avis ;)

Je ne parle que de l'avantage au niveau du référencement bien sûr.

Pour expliciter mon post précédent, ce qu'il faut bien comprendre c'est que les moteurs n'obéiront à un quelconque standard qu'à partir du moment ou il deviendre un standard d'usage, c'est à dire lorsque la quasi-totalité des pages existantes sur le web sera conforme à ces standards.

Et encore, ce n'est pas garanti... On voit bien quelle est la lenteur des moteurs à reconnaître des technos aussi répandues que le Flash par exemple. Mais surtout, la mission des moteurs étant de jouer le rôle d'encyclopédie du web, je doute qu'ils prendraient sciemment le risque un jour d'envoyer aux oubliettes tout le web "pré-standards" qui comporte encore aujourd'hui une bonne partie des sites de référence parmi les plus consultés.

Lien vers le commentaire
Partager sur d’autres sites

Quiconque a un thème windows avec de jolies scrollbars sait de quoi je parle, les sites qui définissent les scrollbar-color transforment vos magnifiques barres de défilement si finement détaillées, agréable à la vue, avec des contours arrondis et adoucis et des couleurs pastels reposantes (comme celles que l'on trouve là par exemple) en des machins carrés et qui plus est souvent de couleur assez peu agréable [huh]

Franchement, le choix est vite fait [hypocrite]

C'est bizarre ces thèmes pour modifier Windows me rappellent furieusement quelque chose :huh:

Mais quoi ? :hypocrite:

Bon, je vois qu'OpenWeb n'a pas été cité, alors je répare l'oubli

Hum, il me semblait pourtant avoir cité l'article sur la balkanisation ;)

Ben oui, emporté par le feu de l'action, Dudu a donné le lien pour la version PostScript  [P]

Le bon lien est donc http://www.w3.org/TR/2004/WD-xhtml2-20040722/

Ah ben désolé çà passait très bien chez moi :unsure:

Je comprends ton impression, mais elle est fausse.

Le calcul de densité de mot-clé réalisé par un moteur ne se fait de toute façon que sur le texte, le poids des balises n'entre pas en compte.

Donc pour un moteur, XHTML, HTML+CSS ou HTML sans CSS c'est du pareil au même.

De manière générale, les moteurs ne font attention qu'à un nombre très limité de balises (certaines étant d'ailleurs "deprecated" puisque la tâche des moteurs est d'indexer tout le web, pas simplement une minorité de pages valides aux standards actuels).

Toutes les autres balises non utiles à leur tâche sont purement et simplement ignorées, donc il n'y a pas d'utilité à débattre des bienfaits ou désanvatages de balises telles que Doctype, Table... du point de vue du référencement en tous cas.

Impression fausse, comme expliqué plus haut.

Un site en Html 3.2 des balkans peut se référencer aussi bien voire mieux qu'un site Xhtml.

Si le souci du référencement est la seule justification de l'effort nécessaire au passage à un code valide, alors mieux vaut se trouver de meilleures justifications ;-)

D'accord et pas d'accord:

D'accord

- Un bot se fiche effectivement du DOCTYPE, se fiche de savoir quel est le langage utilisé, et indexera un site de la même manière qu'il soit codé en HTML 3.2 ou en XHTML 1.0 (exprès j'exclus XHTML 1.1 son cas est à part, cf plus bas)

Pas d'accord:

- Un bot aura toujours plus de mal à trier des <table> et des <font> pour ne sélectionner que le contenu. De plus il y a toujours cette histoire de quota de Ko de code dont on ne sait pas finalement s'il est toujours d'actualité (Darkseo devait tester çà).

Vu comme çà un site en HTML 2.0 (qui ne contient par définition aucun code à vertu présentative) sera toujours beaucoup mieux indexé qu'un site blindé de tableaux imbriqués et de code inutile en XHTML 1.0 Transi :rolleyes:

Nota bene à propos d'XHTML 1.1 => les moteurs de recherche ne savent pas lire l'XHTML (le ridicule ne tue pas, leur métier c'est pas le web ? Ah je croyais..).

Du coup Google dans son infinie bonté propose une version HTML d'un site XHTML servi en type MIME application/xhtml+xml. Comme les PDF. Si c'est pas mignon tout plein, çà..

Comme le dit thierryf, si tous les styles présentatifs sont réunis dans une feuille de style externe, un bot va juste avoir 1 ligne à éviter (link rel=stylesheet href=style.css media=etc..) plutôt que de slalomer entre le contenu inutile et le contenu.

Avec les standards, on peut créer des beaux sites, bien référencé. C'est pas génial ça  ?

Effectivement, je ne prétends pas faire des beaux sites mais au moins des sites (à peu près) conformes aux standards. Sans aucun boulot de référencement autre qu'une structure de document emplie de bon sens (<h1><h2><p>) et des titres à peine réfléchis, je finis toujours premier ou deuxième sur les requêtes que je souhaite. Certes j'aurais du mal à faire de même avec des requêtes extrêmement concurrentielles, mais les requêtes visées ne sont pas bidons pour autant.

Fort de cette expérience, j'en tire quelques conclusions :)

Donc quand tu dis qu'il y a "égalité", au niveau des moteurs, entre le vieux HTML non valide et le XHTML tout propre, tu as peut-être raison, dans l'absolue, mais l'aspect visuel d'une page web a également son importance. Il faut quand même que le visiteur éprouve un peu de plaisir du fait de la présentation.

C'est également un problème: à quoi cela sert d'être 1er sur une requête x ou y si le visiteur doit quitter la page écœuré au bout de 10 secondes ? :huh:

Ma réponse qui ne regarde que moi => à rien.

Xav' => Karl Dubost, un éminent membre français du W3 a fait beaucoup de traductions (avec entre autres JJ Solari qui a beaucoup œuvré également pour les webmasters français en mal de ressources).

Elles sont dispos ici: http://www.la-grange.net/w3c/

Et puisque je te sens soucieux d'avoir plein de liens français: en voici un bien sympa http://cybercodeur.net/weblog/commentaires...?idmessage=1161

Denis Boudreau (Denis sur les forums du Hub, merci à lui) y entame une réflexion sur la question et a demandé à Karl Dubost, maintenant exilé dans la Belle-Province, de répondre à quelques interrogations. Le lien audio fait 1 heure mais j'ai rarement trouvé aussi intéressant :up:

PS Stéphane: la balise <img> sera absente d'xhtml 2.0 pour cause de miscasting ;)

Lien vers le commentaire
Partager sur d’autres sites

Tiens, j'avais oublié de répondre à ça. ;)

En fait, Stéphane, tu oublies complétement de tenir compte d'un débat qui semble avoir disparu et qui disait "entre avoir un beau site et un site bien référencé, il faut choisir".

<{POST_SNAPBACK}>

qui semble également rejoindre la remarque de Dudu..

C'est également un problème: à quoi cela sert d'être 1er sur une requête x ou y si le visiteur doit quitter la page écuré au bout de 10 secondes ? :huh:

Désolé les gars, mais j'ai jamais entendu le moindre écho de ce supposé "débat."

Je ne vois vraiment pas pourquoi il faudrait choisir "entre avoir un beau site et un site bien référencé"

Si c'est un référenceur qui vous a affirmé cela, faut qu'il change de métier le pauvre...

Pas d'accord:

- Un bot aura toujours plus de mal à trier des <table> et des <font> pour ne sélectionner que le contenu.

Ben, pas d'accord non plus... Pourquoi il les trierait puisqu'il les ignore ?

Mais je veux bien attendre le résultat du test Darkseo afin d'être convaincu. :unsure:

PS Stéphane: la balise <img> sera absente d'xhtml 2.0 pour cause de miscasting ;)

Vous êtes pas sympa avec les moteurs quand même ;)

Google et les autres ont déjà bien du mal avec le Xhtml 1.1 comme tu l'a montré... Si en plus on leur change le standard l'année prochaine ils vont vraiment râler :lol:

Lien vers le commentaire
Partager sur d’autres sites

c'est quoi le "miscasting " ?

La "standardisation" n'a rien à voir avec le fait qu'un site soit beau ou non, c'est juste pour qu'il s'affiche partout pareil.

Bon le problème qu'il y a pour l'instant d'après ce que je commence à lire, c'est qu'Internet Explorer ne respecte pas ce standard !

Comment vouloir faire un standard, sachant que ce standard n'est pas compatible avec le navigateur le plus utilisé au monde ?

Linux c'est sans doutes bien, mais pour l'instant Microsoft à quand même un sacré monopole non ?

C'est pas si loin que ça, mais je me souviens que lorsque j'ai eu ma première connexion Internet c'était Netscape le navigateur le plus utilisé, et à cette époque, pour faire un site qui s'affiche aussi bien sur Internet Explorer que sur Netscape, c'était l'enfer (sauf si on voulait juste mettre du texte sans rien de plus)

Et Microsoft est passé et à repris de plus en plus de part de marché et à inclut MIE dans Windows, et les autres ont eu beau "pleurer" pour situation de monopole, MIE est toujours présent, donc à moins d'une entente avec Microsoft, sans vouloir être médisant je vois pas comment un "standard" pourrait s'imposer si le "dieu" de l'informatique ne dit pas OK

ps: oh fait, désolé j'avais pas fait attention qu'il y avait un "épinglé" de Monique à propos du Doctype

Modifié par Xavfun
Lien vers le commentaire
Partager sur d’autres sites

...les gars...

[...]

...Vous etes pas sympa avec ...

[HS]

Ce que je dis n'engage que moi. De plus je ne travaille pas pour le W3 et pour être honnête le W3 me gonfle souvent. Non qu'ils disent des choses idiotes mais qu'il ne savent pas les énoncer clairement. Moi qui suis insomniaque (çà s'était vu ? :D) il suffit que je lise une page de spécif du W3 et on me retrouve au bout de 5 minutes en train de ronfler comme un bébé ^_^

En bref, je ne préfère pas qu'on m'associe à qui que ce soit. J'accepte volontiers de porter des étiquettes farfelues comme "troll mac", "ayatollah des standards"© ou "intégriste du w3c" parce que j'y suis habitué et qu'à vrai dire je m'en fous. Mais pas être associé au discours des autres.

:)

[/HS]

Je ne vois vraiment pas pourquoi il faudrait choisir "entre avoir un beau site et un site bien référencé"

Si c'est un référenceur qui vous a affirmé cela, faut qu'il change de métier le pauvre...

Tu m'as mal lu. Ce que je dis c'est qu'un site respectueux des standards (pas en terme de validation, le validateur n'est qu'un robot somme toute TRÈS faillible; plutot en terme de réelle séparation contenu/présentation) se fait indexer plus rapidement puisque Google qui ignore les styles ne va finalement lire que quelques petites ligne de contenu complètement épuré.

En gros on lui mâche le boulot.

La beauté n'a rien à voir là-dedans. Je n'arrive pas à retrouver le lien qu'il me faut. C'était un design pour csszengarden (donc un xhtml parfait avec une CSS parfaite) et çà battait tous les records de laideur avec fond animé, police douteuse -comic sans- et tout le bazar. C'était fait exprès d'ailleurs, et finalement c'était très drôle :D

Ben, pas d'accord non plus... Pourquoi il les trierait puisqu'il les ignore ?

Pour moi, trier = ignorer

Enfin je parlais de triage en vue d'ignorer.

Pas très clair tout çà, non ? :blush:

Bon je la refais (3 .. 4)

Si Google et consorts n'ont qu'une ligne ou deux à ignorer, c'est tout de même plus simple pour eux que s'ils en ont 500 ?

Non ?

Ben ayant fait l'expérience, moi je dis si ^_^ Je ne suis pas référenceur pour un sou et si j'avais eu à me positionner sur sorcier glouton, requête aussi concurrentielle qu'éphémère, je pense que je ne serais jamais arrivé sur les 1ères pages.

En attendant, il m'a fallu récemment concevoir un site qui n'aura une durée de vie que 2 semaines par an (festival), sa 1ère année d'existence est 2005 donc j'ai du bosser sur ce site 2 semaines avant la 1ère édition de ce festival. Beaucoup de sites parlaient du sujet bien avant que le site ne soit créé, bien avant même que le NDD soit déposé. Et pourtant en 1 semaine j'ai doublé tout ce beau monde avec

- un PR 0 devenu PR2 après la bagarre

- quelques BL pas bien nombreux

- des balises <title> optimisées sans non plus devenir une "ferme de mots-clé"

- un code HTML radicalement simple et structuré (tout dans la CSS)

C'est celui de mes sites qui est le plus probant/significatif de ma petite théorie mais j'ai pas mal d'autres exemples du même acabit.

Quant à Darkseo, je crois que le test de quota n'a finalement jamais été effectué :blush:

Vous êtes pas sympa avec les moteurs quand même ;-)

Google et les autres ont déjà bien du mal avec le Xhtml 1.1 comme tu l'a montré... Si en plus on leur change le standard l'année prochaine ils vont vraiment râler [lol]

Ne faisant pas partie du W3 et les estimant assez grands pour se défendre tout seuls, j'aurai presque envie d'en rester là. Je me hasarde quand même à donner un point de vue tout à fait personnel sur la question.

La dernière norme en date est sortie en 2002. On ne peut pas dire que le W3 prend les gens de vitesse ou alors le web est constitué d'escargots hypoglycémiques :fou:

De plus quand on regarde à quelle fréquence les normes sont mises à jour, soit tous les 2-3 ans à peu près => rien d'anormal.

Si Microsoft et Google, avec respectivement Explorer pour l'un et son moteur pour l'autre, ne sont pas foutus du haut de leur toute-puissance d'avancer plus vite que çà, qu'ils ne comptent pas sur moi pour les défendre.

Ils ont la puissance adéquate pour évoluer, le portefeuille adéquat, le nombre de développeurs adéquat, le nombre de partisans adéquat et pourtant..

Pourtant l'équipe d'IE 7 dit que la prochaine mouture d'IE ne passera pas le test Acid 2 parce que la norme demandée est supérieure à HTML 4.01 et donc que la barre est trop haute (nb: HTML 4.01 date de 1999. 6 ans).

Pourtant aussi Google continue à avoir un code source dramatique, ne sait pas faire une insertion propre de son petit message lors de la consultation d'une page en cache, continue à ignorer XHTML 1.1 en lui attribuant le doux sobriquet de "format inconnu" alors même qu'il sait lire des langages propriétaires comme MS Word. De plus ils ont prouvé être capables de mieux que çà puisqu'il savent convertir n'importe quelle page (quel qu'en soit le doctype) en xhtml 1.0 Basic, ceci afin d'améliorer l'accessibilité aux téléphones celullaires GPRS / 3G & cie.. => http://www.google.fr/xhtml

c'est quoi le "miscasting " ?

Un terme anglais signifiant "erreur de casting".

"Casting" est aussi un mot anglais qui signif... hum bref :D

En gros c'est la balise <object> qui va tout remplacer. Les images, les vidéos (c'est déjà le cas), les insertions Flash (idem) et tout le bouzin..

La "standardisation" n'a rien à voir avec le fait qu'un site soit beau ou non, c'est juste pour qu'il s'affiche partout pareil.

Tout bon :)

Bon le problème qu'il y a pour l'instant d'après ce que je commence à lire, c'est qu'Internet Explorer ne respecte pas ce standard !

Comment vouloir faire un standard, sachant que ce standard n'est pas compatible avec le navigateur le plus utilisé au monde ?

Linux c'est sans doutes bien, mais pour l'instant Microsoft à quand même un sacré monopole non ?

Quel standard et quel rapport avec Linux ? IMSTP6.gif

Explorer sait lire l'XHTML uniquement si celui-ci lui est présenté avec un type MIME html.

Comme si un logiciel ne savait lire les JPG qu'à condition de lui présenter comme du GIF, ni plus ni moins (pas belle ma comparaison ? hypocrite.gif)

Le seul souci se situe auprès d'XHTML 1.1 qui doit impérativement être présenté avec un type MIME xhtml: IE va nécessiter le téléchargement de toutes les pages avant de pouvoir les lire. Pratique non ? ^^

l'XHTML 1.0 ou les standards plus vieux (HTML 2.0 | HTML 3.2 | HTML 4.01) ne pose aucune problème avec Explorer.

Cela dit, lorsqu'on travaille en XHTML 1.0 (Transi ou Strict) on peut envoyer un type MIME html comme on peut envoyer un type MIME xhtml. On a le droit d'envoyer son code comme on le souhaite, c'est l'avantage.

Du coup, certaines solutions web comme Dotclear par exemple incluent un code PHP un peu particulier qui détecte si le navigateur sait reconnaître l'xhtml ou non.

Si oui => type MIME xhtml + doctype xhtml

Si non => type MIME html + doctype xhtml

Seul le type MIME change.

On va me répondre "oui mais bon s'il faut en plus coder plein de trucs en PHP"

Je réponds non, çà fait moins de 10 lignes et en plus la license est libre, servez-vous c'est Olivier Meunier qui régale

# En-têtes et prologue
# Envoie des en-tête HTTP
$accept_xml =
       !empty($_SERVER['HTTP_ACCEPT']) &&
       strpos($_SERVER['HTTP_ACCEPT'],'application/xhtml+xml') !== false;

if (dc_send_real_xml && $accept_xml) {
       header('Content-Type: application/xhtml+xml');
} else {
       header('Content-Type: text/html; charset='.dc_encoding);
}

if ($accept_xml) {
       echo '<?xml version="1.0" encoding="'.dc_encoding.'"?>'."\n";
}

Code très simple mais rudement efficace (sauf qu'il ne prend pas Safari pour un navigateur moderne mais on s'en fiche). Un coup de génie d'Olivier smile.gif

C'est pas si loin que ça, mais je me souviens que lorsque j'ai eu ma première connexion Internet c'était Netscape le navigateur le plus utilisé, et à cette époque, pour faire un site qui s'affiche aussi bien sur Internet Explorer que sur Netscape, c'était l'enfer (sauf si on voulait juste mettre du texte sans rien de plus)

Et Microsoft est passé et à repris de plus en plus de part de marché et à inclut MIE dans Windows, et les autres ont eu beau "pleurer" pour situation de monopole, MIE est toujours présent, donc à moins d'une entente avec Microsoft, sans vouloir être médisant je vois pas comment un "standard" pourrait s'imposer si le "dieu" de l'informatique ne dit pas OK

Concernant le 1er paragraphe, c'est exactement le sujet du lien balkanisation du web

Concernant le 2ème, Explorer ne me pose pas spécialement problème.

Quand je n'ai pas envie de m'embêter je mets mes pages en XHTML 1.0 Transi avec type MIME html et basta: çà passe chez tout le monde.

Prise de tête: 0% smile.gif

Lien vers le commentaire
Partager sur d’autres sites

Comme tout bon insomniaque (kudos à Dudu), je suis d'accord avec les miens... J'ai bien lu ce sujet et la conclusion suivant :

Quand je n'ai pas envie de m'embêter je mets mes pages en XHTML 1.0 Transi avec type MIME html et basta: çà passe chez tout le monde.

Prise de tête: 0% smile.gif

<{POST_SNAPBACK}>

me semble la plus appropriée...c'est un très bon compromis...

Je vais pas me casser la tête à argument le "pourquoi", les 2 pages précédentes le font très bien... sur ce je vais aller prendre mes somnifères

Posologie : GET / HTTP/1.1 Host: www.w3.org , 5 minutes de lectures. Si ce n'est pas suffisant pour trouver le sommeil répéter la prise toutes les 10 minutes. La prise doit s'effectuer sous moins d'une heure, à défaut les effets indésirables suivant peuvent survenir : troubles du comportement, crises d'épilépsie, ...

Bonne nuit !

Modifié par TheRec
Lien vers le commentaire
Partager sur d’autres sites

La "standardisation" n'a rien à voir avec le fait qu'un site soit beau ou non, c'est juste pour qu'il s'affiche partout pareil.

Bon le problème qu'il y a pour l'instant d'après ce que je commence à lire, c'est qu'Internet Explorer ne respecte pas ce standard !

Comment vouloir faire un standard, sachant que ce standard n'est pas compatible avec le navigateur le plus utilisé au monde ?

Là tu vois les choses à l'envers : c'est le navigateur qui n'est pas compatible avec le standard, et pas l'inverse ;)

Linux c'est sans doutes bien, mais pour l'instant Microsoft à quand même un sacré monopole non ?
Oui, et surtout si de nombreux sites sont codés justement pour ne fonctionner qu'avec MSIE... c'est bien le but d'un monopole non ? Forcer les gens à forcer les autres à ne pas faire autrement :wacko:
Lien vers le commentaire
Partager sur d’autres sites

En parlant de standardisation et de techniques de positionnement sur GG par exemple, il y a quelque chose que je vais sans doute tester d'ici peu, à moins que cela n'ait déjà été determiner (si vous avez une URL qui en parle, je suis prenneur) :

Le poids d'un font size dans le référencement...

Le font size n'est donc pas valide Xhtml strict mais seulement transitionnel mais je crois bien qu'il peut apporter quelques faveurs supplémentaires de la part de GG.

"disclamer : attention, rien n'est encore vérifier, je tiens à faire des tests afin d'en savoir plus"

S'il y a des balises telles que les h1 pour lesquelles il est prouvé une importance bien particulière, et que cela s'averait en être de même pour le font size, cela mettrait par contre un petit frein à l'évolution vers une standardisation de type xhtml strict...

Dis donc Xavfun, je n'imaginais effectivement pas que ton poste puisse autant attirer "d'émotions" ;)

Lien vers le commentaire
Partager sur d’autres sites

Le poids d'un font size dans le référencement...

Le font size n'est donc pas valide Xhtml strict mais seulement transitionnel mais je crois bien qu'il peut apporter quelques faveurs supplémentaires de la part de GG.

"disclamer : attention, rien n'est encore vérifier, je tiens à faire des tests afin d'en savoir plus"

<{POST_SNAPBACK}>

J'ai de forts doutes sur cette possibilité...mais je serai intéressé par les résultats de tes recherches évidemment... j'attend ton message sur ce sujet avec impatience ;)

Lien vers le commentaire
Partager sur d’autres sites

QUOTE(Xavfun @ vendredi 12 août 2005, 23h20)

La "standardisation" n'a rien à voir avec le fait qu'un site soit beau ou non, c'est juste pour qu'il s'affiche partout pareil.

Tout bon

et pourtant ça donne aussi cette réponse ::

Là tu vois les choses à l'envers : c'est le navigateur qui n'est pas compatible avec le standard, et pas l'inverse

:wacko:

Je n'arrive pas à retrouver qui à écrit dans ce topic (oui c'est pas simple à suivre, faudrait standardiser tout ça :whistling: ) qu'il ne voulait pas être pris en "otage" de Microsoft et de sa position monopolistique (enfin je résume), je suis tout à fait d'accord, mais comme c'est parti, il me semble plus qu'utopique de croire que ça puisse changer si facilement.

Pour revenir au W3C, avant tout je pense que le plus important est de connaitre le "parc machine" des visiteurs du site. En effet si vous faites un site parlant du W3C, effectivement il faudra être valide. Si vous faites un site sur la reproductions ders crevettes, ça ne changera rien...

Selon le "publique" visé par le site, on aura soit des petites résolutions avec navigateur d'origine, etc. Donc on peut se dire que le W3C ne changera rien du tout pour le visiteurs (MIE), mais dès que l'on touche des visiteurs qui auront tendance à avoir plutôt Mozila et autres crocodiles, c'est peut-être mieux d'être valide, mais la vrai question est

"est-ce vraiment indispensable ?"

Dis donc Xavfun, je n'imaginais effectivement pas que ton poste puisse autant attirer "d'émotions"

moi non plus :blush: mais heureusement que j'ai ouvert un autre topic ;)

au moins ce topic permet d'avoir de très bons liens sur le sujet

Modifié par Xavfun
Lien vers le commentaire
Partager sur d’autres sites

Pour revenir au W3C, avant tout je pense que le plus important est de connaitre le "parc machine" des visiteurs du site. En effet si vous faites un site parlant du W3C, effectivement il faudra être valide. Si vous faites un site sur la reproductions ders crevettes, ça ne changera rien...

Selon le "publique" visé par le site, on aura soit des petites résolutions avec navigateur d'origine, etc. Donc on peut se dire que le W3C ne changera rien du tout pour le visiteurs (MIE), mais dès que l'on touche des visiteurs qui auront tendance à avoir plutôt Mozila et autres crocodiles, c'est peut-être mieux d'être valide, mais la vrai question est

<{POST_SNAPBACK}>

Il me semble que là tu confonds ergonomie et "standardisation", lorsque tu adapte ton site à la "majorité" de tes visiteurs tu travailles l'ergonomie du site. Le but du W3C est de ne pas nuire à l'erognomie tout en augmentant l'accessibilité, la perennité du code et la séparation du contenu et de la mise en forme à mon avis... La partie conformité au standards ne touche pas du tout l'utilisateur lambda, lui il cherche à voir un site sur ça machine sans se soucier de ce qui se passe derrière...

Ce qui ne doit en aucun cas empêcher le développeur de se responsabiliser estimer que la seule voie vers une évolution du Web est de suivre des recommendations qui sont la base de tout les navigateurs modernes...

On peut également estimer (ce n'est pas mon cas...) que le Web est bien tel qu'il est et se dire que les suivants feront mieux s'il le peuvent.... ou pas... Le fait est que peu de monde démontre la limite des standards, mais beaucoup s'efforce de montrer ce que un développement non-standardisé est beaucoup moins contraignant... Mais en niant ainsi l'évidence il est certain que l'evolution du Web sera beaucoup plus lente et ne sera motivée que par les investisseurs qui seraient intéressés dans une technologie ou une autre...

Lien vers le commentaire
Partager sur d’autres sites

Il me semble que là tu confonds ergonomie et "standardisation",

:blink: non non, mais par standardisation j'entends "affichage identique sur tout les navigateurs", enfin je croyais que c'était ça le but du W3C

Parmis les adepte du W3C, j'ai l'impressions qu'il y a plusieurs types de personnes :

- ceux qui veulent vraiment un standard

- ceux qui veulent autre chose que ce qui est imposé par le monopole de Microsoft

- ceux qui ont lu quelque part que c'était mieux, alors sans chercher plus loin, ils s'y mettent

Mais comme tout ce qui est nouveau, il y a :

- les inconditionnels

- ceux qui pensent que tant que ça marche comme ça, pas besoin de changer

- ceux qui hésitent

- ceux qui par principe ne veulent rien changer

De mon coté, l'idée du W3C me parait une excellente idée, mais pour la mise en place, je ne suis pas convaincu du tout :nono: (mais maintenant j'ai plein de liens pour en savoir plus ce petit logo que je vois partout)

Lien vers le commentaire
Partager sur d’autres sites

Je suis d'accord avec tout ce que tu avances, sauf peut-être :

- ceux qui pensent que tant que ça marche comme ça, pas besoin de changer

<{POST_SNAPBACK}>

Ceux qui pensent ça se trompent à mon avis, c'est loin de "marcher comme ça" (déjà ça "fonctionne"), dans le cadre d'une "standardisation" la durée des tests serait beaucoup plus limité (lorsqu'on cible un parc hétérogène de machines). Tout le temps qu'on ne passerait pas à tester la compatibilité entre les navigateur/OS/interfaces on pourrait le consacrer à d'autres tâches plus importantes...

Lien vers le commentaire
Partager sur d’autres sites

et pourtant ça donne aussi cette réponse :

"Là tu vois les choses à l'envers : c'est le navigateur qui n'est pas compatible avec le standard, et pas l'inverse

:wacko:

Je pense que Xavier (prénom + pseudo) répondait à propos de ta phrase sur IE qui ne respecte pas le standard etc etc..

Pour ma part, je ne trouve pas nos deux réponses incompatibles, mais attendons son retour sur ce sujet pour qu'il nous dise ce qu'il en est :)

Je n'arrive pas à retrouver qui à écrit dans ce topic (oui c'est pas simple à suivre, faudrait standardiser tout ça :whistling: ) qu'il ne voulait pas être pris en "otage" de Microsoft et de sa position monopolistique (enfin je résume), je suis tout à fait d'accord, mais comme c'est parti, il me semble plus qu'utopique de croire que ça puisse changer si facilement.

Je pense le contraire.

Je sas on va me dire que je suis subjectif et que c'est plus un souhait qu'une réalité, mais sérieusement je vois Explorer chuter tranquillement.

Pas de beaucoup: ce n'est pas la dégringolade mais c'est suffisant.

*Une preuve: Google sort une toolbar pour Firefox (alors même que mozdev.org en avait déjà sorti une). Google suit toujours la majorité (ils se prennent pas la tête).

*Une autre: alors qu'Apple et MS sont officiellement redevenus les plus grands potes du monde, Explorer est définitivement arrêté sur plate-forme Mac et n'est même plus livré par défaut sur aucune machine, pour être remplacé par Safari. Et pourtant MS Office, lui, est fourni avec les gammes PowerBook et PowerMac.

*Une autre: lire les commentaires sur le blog de l'équipe Explorer 7. Les développeurs Microsoft se font limite insulter sur leur propre site à chaque billet :huh:

Pour revenir au W3C, avant tout je pense que le plus important est de connaitre le "parc machine" des visiteurs du site. En effet si vous faites un site parlant du W3C, effectivement il faudra être valide. Si vous faites un site sur la reproductions ders crevettes, ça ne changera rien...

Selon le "publique" visé par le site, on aura soit des petites résolutions avec navigateur d'origine, etc. Donc on peut se dire que le W3C ne changera rien du tout pour le visiteurs (MIE), mais dès que l'on touche des visiteurs qui auront tendance à avoir plutôt Mozila et autres crocodiles, c'est peut-être mieux d'être valide, mais la vrai question est

"est-ce vraiment indispensable ?"

Tu fausses tes stats. Je m'explique:

Tu ouvres ton site => Le bazar sans doctype de ton code passe très bien sous IE 6 => Tu as dans les stats des configurations hétéroclites qui vont voir ton site n'importe comment => Ceux-là ne reviendront jamais en se disant "c'est quoi ce site ce n'est pas sérieux" => 98% de tes stats deviennent des IE6/Win => et voilà le travail.

Dans mes stats, il m'arrive d'avoir quelques drôlatres qui se baladent sous BeOS ou Solaris (c'est vrai c'est quand même rare). Pas de souci: je sais que le site va s'afficher bien pour eux.

Attention, je n'ai pas dit que le site allait etre exactement le même: BeOS par exemple est assez vieux (il est mort, en fait) donc les navigateurs qui tournent dessus ne sont pas dernier cri et n'ont peut-être pas un support idéal des CSS et autres. Ce qui est sûr c'est que le site va être lisible, et qu'aucune mise en page n'aura été maltraitée durant le tournage :fou:

est-ce vraiment indispensable

Ma réponse ne va surprendre personne: oui.

Il est tellement facile de faire une mise en page qui va contenter tout le monde, et tellement difficile de ne contenter qu'un seul navigateur (fût-il leader dans son secteur) ;)

En résumé: Il vaut mieux passer 1 heure de plus lors de la conception de son site, que de se retrouver à faire 5 minutes de rustine par-ci par-là (5+5+5+5+5+5=... = ...) parce que des utilisateurs se plaignent.

au moins ce topic permet d'avoir de très bons liens sur le sujet

Le débat est intéressant je trouve. Les arguments d'un référenceur comme Stéphane ou d'un touche-à-tout habitué au code "à l'ancienne" comme toi sont loins d'être bêtes :)

PS: 'adepte' du w3c est un bien grand mot, mais si je dois me positionner dans ton classement (zut je parle comme un réf :P) je me mettrais du côté de ceux qui veulent un standard parce que sous ses airs de truc complexe c'est ce qu'il y a de moins prise de tête pour la compatibilité et l'accessibilité.

En revanche, je suis profondément horripilé par les Jean-Kevin Boulay qui brandissent leur site mal fait (mais qui passe au travers du validateur) en beuglant "vive nunux, mors à bilou, firefox au pouvoir lolololllll!!!" :rolleyes: (ou comment décribiliser des idées sympas en 2min chrono)

Tiens çà me fait penser j'allais oublier le meilleur lien sur les standards

lé pages accessibles cé comme les fam nues, y en na pas assé :P

Lien vers le commentaire
Partager sur d’autres sites

c'est vrai Firefox prends une place de plus en plus grande, mais si tu interroges des entreprises qui n'ont rien à voir avec l'informatique tu trouveras juste le navigateur MIE qui est livré avec l'ordinateur

*Une preuve: Google sort une toolbar pour Firefox (alors même que mozdev.org en avait déjà sorti une). Google suit toujours la majorité (ils se prennent pas la tête).

c'est pas une preuve ça, mais Google n'est pas non plus dingue, il s'est que ceux qui utlisent Google sont de plus en plus nombreux à avoir Firefox, ils s'adaptent tout simplement au marché ;)

Moi je donne mon avis qui est celui d'un "non informaticien" (juste un passionné depuis le début des ordi perso...).

Toi c'est sans doutes ton boulot, tu ne vois pas le même côté, moi je rencontre plein de monde dans des entreprises et ce qu'il veulent c'est un truc qui marche et et surtout se dirigent vers les "produits" pour lesquels ils auront des mises à jour (pour l'instant je ne pense pas que Microsoft puisse faire faillite, alors que Firefox parlez en à un non informaticien, il n'aura jamais entendu parler de ce renard).

ps : Dudu, pour le lien qui manquait et que tu ajoutais, je ne retiendrais que la photo :whistling:

Lien vers le commentaire
Partager sur d’autres sites

*Une preuve: Google sort une toolbar pour Firefox (alors même que mozdev.org en avait déjà sorti une). Google suit toujours la majorité (ils se prennent pas la tête).

Alors que les autres moteurs, du genre MSN et Yahoo!, eux, ne la suivent pas :

La preuve: après le succès de la GG Toolbar, ils ont décidé de sortir les leurs ;)

Lien vers le commentaire
Partager sur d’autres sites

Oui, c'est mon métier et je peux aussi t'avouer que je pense avoir une vision à long terme. Nombre de mes collègues ou même concurents ne sont pas de cet avis mais, on dira ce qu'on voudra, si chaque génération de développeur s'appuye sur les "éventuels" changements que feront "peut-être" la suivant génération on se retourve avec une évolution lente...

L'adaptation au marché (pour les développeurs) est une AUBAINE et je comprends les milliers (que dis-je...millions sûrement) de détracteurs des standards. Ce serait comme scier la banche sur laquelle ils sont assis que de vouloir rendre plus accessible la création, la maintenance, ... en gros de démisitifier le développement Web.

Mais à mon avis l'enjeu est tout autre pour la majorités des pro-W3C, la pérennité du code, le modularité, l'accessibilité ... tout ces conceptes qui peuvent sembler bien lointains aux clients et encore plus lointains aux visiteurs "majoritaires" (MSIE) en sont la base. Le but, à mon avis, n'est pas d'apprendre à ceux-ci pourquoi on devrait choisir une voie de "standardisation" mais plutôt de ne plus leur laisser le choix. Lorsque tu fais installer un lavabos chez toi, à moins d'avoir le connaissances et de le faire toi-même, tu engages un plombier et tu ne viens pas lui dire que le tuyau, toi, tu l'aurais plutôt fait passer ici (je parle d'un service professionnel...). C'est très facile à dire et beaucoup moins à faire...

Personnellement je ne suis pas du genre à partir le poing en avant et à me battre contre des moulins à vents donc j'ai choisis cette solution, je ne propose pas au client de suivre les recommandations du W3C, je le fais et sans le prendre en compte dans mon devis... Cela parait banal, mais j'ai vu 2-3 devis de concurrent qui sur-chargaient le prix du développement pour une "comptabilité XHTML" (laissez-moi rire...). C'est déontologiquement (oui c'est peut-être un grand mot tout de même) assez abjecte, c'est comme si un médecin vous proposait de la payer un peu plus cher pour qu'il ne bacle pas son boulot...

Trève de mauvaise métaphores, pour information, je le répète, la majorité des développements que je fait se retrouvent en XHTML 1.0 Transitional pour des simples raisons de maintenance vis à vis de ce que le clients vient à ajouter lui même comme contenu...

Lien vers le commentaire
Partager sur d’autres sites

Alors que les autres moteurs, du genre MSN et Yahoo!, eux, ne la suivent pas :

La preuve: après le succès de la GG Toolbar, ils ont décidé de sortir les leurs ;)

<{POST_SNAPBACK}>

Par contre je vois mal MSN faire un MSNBar pour FireFox dans un avenir très proche...qui sait dans quelques années... ils feraient preuve d'abnégation pour une fois... ;D

Lien vers le commentaire
Partager sur d’autres sites

L'adaptation au marché (pour les développeurs) est une AUBAINE et je comprends les milliers (que dis-je...millions sûrement) de détracteurs des standards. Ce serait comme scier la banche sur laquelle ils sont assis que de vouloir rendre plus accessible la création, la maintenance, ... en gros de démisitifier le développement Web.

Je pense que tu t'emballes un peu, là.

Ce n'est pas en mettant un doctype correct, et en séparant contenu et présentation qu'on va démystifier quoi que ce soit.

Quelqu'un d'ignorant en HTML tabloïde sera aussi ignorant en (X)HTML parfait-de-chez-parfait.

Bigornot: si tu pouvais recommencer en plus clair, j'ai bien peur de n'avoir rien compris :unsure:

Lien vers le commentaire
Partager sur d’autres sites

Je parlais plutôt de la voie de standardisation (ou ça passe par le DOCTYPE, ... mais ce n'est pas une fin en soi)... l'accès à un language est beaucoup plus facile lorsque son fonctionnement technique est défini et limité... imaginons que tu apprennes un language et qu'on te dise que malheureusement les créateurs de ce language n'ont pas pris le temps d'établir de manuel... J'imagine assez la réaction, c'est celle qu'on les gens qui débarque actuellement dans le développement et qui n'ont pas conscience des efforts du W3C...

Mais effectivement le terme était mal choisis ;)

Lien vers le commentaire
Partager sur d’autres sites

je me suis à moitié convertit : je viens d'installer Firefox, j'ai jetté un oeil sur mes sites qui sont totallement Invalide et ça passe pareil (sauf bien sur la barre de défilement de couleur)

conclusion : pas besoin d'une pseudo validation par un robot pour que ça s'affiche partout :whistling:

Lien vers le commentaire
Partager sur d’autres sites

je me suis à moitié convertit : je viens d'installer Firefox, j'ai jetté un oeil sur mes sites qui sont totallement Invalide et ça passe pareil (sauf bien sur la barre de défilement de couleur)

conclusion : pas besoin d'une pseudo validation par un robot pour que ça s'affiche partout  :whistling:

<{POST_SNAPBACK}>

Hum... ce serait un peu réducteur de traiter IE et Firefox de "partout" :P

Tu as testé Konqueror, Opera, Safari, Lynx ? Et même si tu l'as fait tu es loin d'avoir tout testé !

Si tu ne respectes pas les standards, et que tu laisse des erreurs dans ton code, tu as l'assurance que quelque part ça ne passera pas d'une manière ou d'une autre (remarque que même en respectant scrupuleusement toutes les recommandations du W3C tu n'es pas à l'abri... le risque est simplement incroyablement plus bas ! :( )

Quelqu'un d'ignorant en HTML tabloïde sera aussi ignorant en (X)HTML parfait-de-chez-parfait.

<{POST_SNAPBACK}>

Mais une personne qui se dit "tiens, si j'essayais" et qui se retrouve devant une magnifique page XHTML 1.0 Strict bien indenté ne pourra que se dire "ça a pas l'air compliqué" (du moins en comparaison avec une de ces bonnes vieilles pages au code (volontairement ?) illisible :hypocrite: ).
Lien vers le commentaire
Partager sur d’autres sites

Je parlais plutôt de la voie de standardisation (ou ça passe par le DOCTYPE, ... mais ce n'est pas une fin en soi)... l'accès à un language est beaucoup plus facile lorsque son fonctionnement technique est défini et limité... imaginons que tu apprennes un language et qu'on te dise que malheureusement les créateurs de ce language n'ont pas pris le temps d'établir de manuel... J'imagine assez la réaction, c'est celle qu'on les gens qui débarque actuellement dans le développement et qui n'ont pas conscience des efforts du W3C...

Mais effectivement le terme était mal choisis ;)

Oui et non. Un code HTML peut très bien être valide et être mal conçu à la fois.

Un magnifique design en tableaux peut passer une validation sans problèmes: le validateur regarde que tout soit bien imbriqué niveaux balises mais ne regarde pas la conception du document.

Or de nombreux sites proposent des "tutoriels html" complètement datés et/ou pourris. Idem pour le PHP ou autres langages d'ailleurs.

Le meilleur/pire exemple reste la section MSDN du site de Microsoft qui propose de faire de l'opacité avec des filtres alpha propriétaires IE (en attendant, ils pourraient intégrer la norme CSS3 qui permet de le faire partout pareil, et à propos de filtre alpha corriger le problème des PNG).

L'HTML sans doctype avec tableaux et balises dépréciées est superbement bien documenté ;) (et c'est bien le problème)

je me suis à moitié convertit : je viens d'installer Firefox, j'ai jetté un oeil sur mes sites qui sont totallement Invalide et ça passe pareil (sauf bien sur la barre de défilement de couleur)

conclusion : pas besoin d'une pseudo validation par un robot pour que ça s'affiche partout  :whistling:

Xavier (l'autre Xavier) risque de me tomber dessus :P mais Firefox gère très bien certains codes désastreux (les tiens n'en sont quand même pas à ce point-là). Un peu trop bien à mon goût.

Tout cela sur un simple problème de marketing: les internautes confrontés à un site qui s'affiche mal ont toujours ce réflexe d'accuser le navigateur. Combien de sujets ont été postés sur le Hub avec pour titre "Problème avec [mettez ici le navigateur que vous voulez]"?

Or la démarche "Take back the web" de la MoFo (devenue la MozCorp) visait essentiellement un public windowsien, et plus spécifiquement Internet Explorer pour Windows.

Les linuxiens connaissaient les navigateurs Gecko depuis déjà longtemps; quant aux mac-users ils ont Safari qui intègre plus de normes (CSS 3 entre autres) et avaient Camino depuis déjà longtemps.

Donc disais-je.. le but avoué était, et est toujours, de détrôner WinIE. Il fallait pour cela assurer un minimum de compatibilité pour les sites résolument optimisés WinIE et s'affichant mal sur d'autres navigateurs (sinon tout le monde serait revenu sur IE).

Pour l'instant, la démarche porte ses fruits, à défaut d'être réellement très honnête ("Firefox, un navigateur qui respecte les standards"). Donc il n'y a rien de gênant actuellement.

Là où çà deviendra gênant c'est si l'angle de tir n'est pas recadré dans les années à venir. Sinon la balkanisation pourra recommencer de plus belle, et les internautes d'en souffrir.

(parenthèse: çà fait un bout de temps qu'on sait qu'un navigateur indulgent est mauvais pour le web. cf cet article d'alistapart, traduit par pompage. Fin de la parenthèse.)

Tout çà pour dire :P que Firefox accepte généralement bien des sites invalides.

Opera et Safari, en revanche, sont de bons outils de tests: globalement, si une page présente des erreurs de code, ils s'embêtent pas => ils ruinent la page (ils la rendent telle qu'elle est)

Lynx est un peu à part puisqu'il s'agit d'un navigateur texte, et non d'un navigateur graphique. Il se révèle du coup très bon sur un autre domaine: l'accessibilité.

Mais une personne qui se dit "tiens, si j'essayais" et qui se retrouve devant une magnifique page XHTML 1.0 Strict bien indenté ne pourra que se dire "ça a pas l'air compliqué" (du moins en comparaison avec une de ces bonnes vieilles pages au code (volontairement ?) illisible :hypocrite: ).

Exactement. Pour ces raisons, je ne vois aucun inconvénient à "passer aux standards". Il n'y a quasi que des avantages. Le seul truc c'est qu'il faut revoir certaines de ses habitudes, donc oui au début c'est un peu déroutant, mais on s'y fait très vite.

Au fait Xav' (Xavfun cette fois) le site de ta frangine est presque valide, il y a même un doctype :D (d'ailleurs c'est marrant elle fait les mêmes fautes d'orthographe que toi :whistling:)

Lien vers le commentaire
Partager sur d’autres sites

Xavier (l'autre Xavier) risque de me tomber dessus :P mais Firefox gère très bien certains codes désastreux (les tiens n'en sont quand même pas à ce point-là). Un peu trop bien à mon goût.
Comme tous les navigateurs d'ailleurs (à part Amaya bien sûr :lol: ) Je ne crois pas qu'on puisse dire que tel ou tel navigateur soit moins strict (à part IE bien entendu), chacun a ses "quirks", évidemment différent des autres.

Tu parles d'Opera, or celui-ci supporte parfaitement les document.all. Je l'ai également pris en flagrant délit de réussir à suivre les liens java script:window.navigate (du propriétaire MS à 100%, absolument équivalent à location.href :blink: dont je n'avais jamais entendu parler, et dont je ne trouve toujours pas l'utilité par rapport à location.href :huh: ).

Je ne connais pas Safari (n'ayant pas de Mac) mais Konqueror est connu pour supporter parfaitement les scrollbar-color-* et document.all, je ne vois pas pourquoi il en serait autrement pour Safari qui est basé dessus (du moins pour les document.all)

Firefox est encore celui qui laisse le moins passer les document.all puisqu'ils les oublie en cas de test. Sur d'autres points il est certainement plus souple. Sur d'autres moins. Faire des comparaisons de ce type me semble plutôt vain et inutile :rolleyes:

Je suis sur qu'on pourrait continuer des heures à chercher tout ce qui ne va pas dans tel ou tel navigateur moderne, et je suis tout aussi certain qu'on n'arriverait pas à déterminer lequel est le plus strict. Comme tu le dis, si on veut que son navigateur soit adopté, il faut qu'il réussisse à afficher les pages correctement. C'est pour ça qu'il existe des modes "quirks" ("bizarres", "étranges") dans lequel le navigateur adopte des comportements totalement inattendus et imprévisibles dans un seul but de rétrocompatibilité. Il le détermine en particulier grâce au doctype utilisé (ou à son absence).

Développer en mode quirk (sans doctype) c'est aussi ne pas être en mesure de prévoir les réactions du navigateur... un peu suicidaire non ? :P

(parenthèse: çà fait un bout de temps qu'on sait qu'un navigateur indulgent est mauvais pour le web. cf cet article d'alistapart, traduit par pompage. Fin de la parenthèse.)
D'ailleurs, si quelqu'un me trouve un navigateur qui supporte tous les standards et rien que les standards, je l'adopte (non Dudu, Safari aussi a ses quirks :P )

Pour conclure je crois qu'en attenant le navigateur parfait, ce qui est le plus important, c'est encore de connaitre tous ces petits écarts qu'autorise son navigateur, et de ne pas se laisser prendre au piège ;)

C'est aussi de connaître ses cibles, et être capable d'anticiper les bugs d'IE (en particulier les CSS interprétés tout de travers, les height/width non respectés, etc.) ;)

Lien vers le commentaire
Partager sur d’autres sites

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant

×
×
  • Créer...