Aller au contenu

zapman

Hubmaster
  • Compteur de contenus

    221
  • Inscrit(e) le

  • Dernière visite

Réputation sur la communauté

0 Neutre

À propos de zapman

  • Date de naissance 21/04/1963

Pour me contacter

  • Mon Site
    http://www.rankspirit.com

Information du profil

  • Localisation
    Nouméa - Nouvelle-Calédonie
  • Société
    Zapman
  1. Il y a débat d'idées et débat d'idées : - Le genre où on échange des idées pré-conçues avec lesquelles tout le monde est d'accord permet une discussion tranquille dans lequel on argumente en respectant ses interlocuteurs. - Le genre où un participant se permet d'être anti-conformiste et où il semble désormais de bon ton de le dénigrer aussi violemment que possible plutôt que d'examiner ses idées et d'en débattre. J'ai connu une autre époque où les idées anti-conformistes étaient acceptées et débattues sur ce forum et où les modérateurs se chargeaient d'éviter les dérapages que la passion et la force des convictions nous amènent parfois à faire. Quand les choses se passent de cette façon, j'adore le Hub car la qualité des interventions y est généralement d'un excellent niveau. Que Dudu, en utilisant le dénigrement, et Didou, en utilisant l'insulte aient pu déraper, je peux éventuellement le comprendre. Même si c'est un peu inquiétant de la part d'un admin et d'un modérateur, Errare humanum est. Mais que ces dérapages ne fassent l'objet d'aucun rétablissement... ça me laisse pantois. Il m'est arrivé de lâcher une phrase qui n'avait pas sa place sur ce forum et Patrick m'a immédiatement permis de recadrer le débat. Je lui en suis reconnaissant. J'ai pour ma part mis Dudu en garde à deux reprises contre la mauvaise pente que ces propos commençaient à prendre. J'aurais bien aimé que Patrick intervienne à ce moment là, je pense que ça aurait permis de conclure cette discussion sur une note beaucoup plus constructive. Pour ce qui me concerne, je fais mon mea culpa : La phrase "s'il y a un ayatollah qui rôde dans le coin" peut-être considérée comme une insulte pour celui qui la prend à son compte. Je n'ai pas pensé que Dudu allait la prendre à son compte. Je le redis car il semble qu'il ne veuille pas m'entendre sur ce point. Pardon de ne pas répondre aux arguments qui ont été émis depuis ce clash. Mais compte tenu de l'agressivité qui persiste dans les dernières interventions, je ne crois pas qu'il me soit encore possible de répondre dans la sérénité. Je vous laisse poursuivre ce lynchage tranquillement.
  2. Je crois qu'on peut avoir des avis qui divergent sans se sentir obligé de traiter son interlocuteur de "petit frustré" et ses propos de "tissu d'âneries". Je crois qu'un modo qui insulte un membre du forum est définitivement en dehors des clous Je crois qu'on est plus vraiment dans le cadre d'un échange d'idées, mais plutôt dans celui d'un lynchage en règle. Continuer la discussion dans ce contexte n'a aucun sens. Sauf que là, apparemment, on y arrive pas.... Dommage !
  3. Encore une fois, Dudu, je te trouve un peu chaud et même un tantinet agressif. Lors de mon dernier test, ce site fonctionnait au poil sur tous les navigateurs et semble avoir satisfait la personne non-voyante qui a accepté de le tester pour moi. Je crois avoir expliqué clairement dans mes messages précédents à quel point et pourquoi le reste m'indiffère. Me reprocherais-tu d'être cohérent dans mes propos et dans mes actes ? Et si tu n'as pas encore eu cette curiosité, je t'invite à lire les pages du chapitres "Réflexions"
  4. Tout à fait splendide ! Mais je te sens un peu chaud, Dudu. Le petit mot d'humour sur les Ayatollah ne t'était en aucune façon destiné. Je disais que s'il y en avait un qui rodait dans le coin, ça chaufferait pour moi. Maintenant, et après ce message, en toute franchise, je me dis qu'il ne rodait peut-être pas si loin, finalement, l'ayatollah. J'ai un peu de mal à répondre à tes arguments parce que ça part dans tous les sens, mais bon, j'essaye : Google + Microsoft + Mozilla (+ quelques autres sociétés) == le w3c :!: A ma connaissance, il y a un énorme quantité d'autres sociétés qui participent aux groupes de réflexion du W3C. Je ne dis pas que ces trois là ne bénéficient pas d'un prestige qui augmente leur influence, mais je trouve ton équation quand même sacrément simplificatrice. Qui plus est, ils n'ont pas voix au chapitre pour ce qui est des décisions. Ils ne font que participer à la réflexion (c'est du moins ce que j'ai compris en lisant le fonctionnement du W3C) Pas du tout, puisque l'XHTML n'est rien d'autre que de l'HTML. La seule et unique différence, c'est qu'un fichier xhtml est parsé différemment. C'est LA SEULE différence. Sauf que quand tu modifies ton code et que tu testes le résultat, tu constates que les navigateurs n'interprètent plus le html et les CSS exactement de la même façon. Alors, c'est sûr, c'est pas le bout du monde, mais encore une fois, pourquoi aller chercher des ennuis ? Tu fais juste la confusion habituelle:HTML = tableaux / XHTML = CSS C'est pas cool de mélanger deux de mes phrases pour me faire dire quelque chose que je ne pense pas. Je n'ai pas besoin d'aller bien loin pour me documenter : j'ai un site assez complet qui ne parle que des CSS : www*css-faciles*com En parlant des 80% de webmasters qui bricolent et bidouillent des tableaux, je te répondrais que 78,253% des statistiques sont erronnées. Les 80%, c'est une façon de parler. L'une des faiblesses importante de nos intelligences humaines, c'est qu'on a toujours tendance à croire que tout le monde est comme nous, que tout le monde pense comme nous. Par sympathie, on fréquente des gens qui nous ressemblent et on fini par croire que le monde entier est à l'image du petit cercle de nos connaissances. Par le biais de mon activité de formateur, je me trouve en contact avec des gens de toutes sortes que je n'ai pas spécialement choisi de fréquenter. Mes cours ne s'adressent pas à des webmasters pro ou qui souhaitent le devenir. Mes cours s'adressent à des gens qui veulent créer des sites et qui n'y parviennent pas tout seuls. Ca m'a un peu ouvert les yeux. J'ai pu constater que la plupart des gens qui "bricolent" des sites web ne fréquentent que très peu les forums et se fichent éperdument de ce qu'il "faut" faire. Il ne s'intéressent qu'à ce qui leur permet d'obtenir rapidement le résultat qu'ils recherchent et ne connaissent tout simplement pas les CSS, le W3C et tout ce que nous considérons comme indispensable à un site "civilisé". En ce qui me concerne, j'ai cessé depuis longtemps d'essayer de les culpabiliser avec le sempiternel "les tableaux, c'est mal". J'ai même complètement arrêté de vouloir les gaver de CSS. C'est beaucoup trop lourd à digérer pour quelqu'un que l'aspect technique n'intéresse pas et qui cherche un résultat hyper rapide. Ce que j'ai fini par accepté, c'est que ce qui me semblait simple et quasi-intuitif, à moi qui ai de l'expérience, ne l'était pas forcément pour eux. J'essaye de respecter ce qu'ils sont et ce qu'ils veulent. Depuis toutes ces années, plusieurs de mes élèves ont évolué vers les normes récentes et m'ont pondu des sites irréprochables du point de vue des standards. Mais ils sont loin de représenter la majorité. C'est une petite minorité, passionnée et qui s'est donné le temps d'aller au bout des choses, comme toi et moi, Dudu. Les autres ont fait des sites par-ci, par là et continuent à m'appeler quand il coincent sur un point particulier. Je t'assure que ces autres représentent une très grosse majorité de mes élèves. Le point de vue que je défend, c'est que ça serait formidable si être webmaster était une chose facile pour tout le monde. Maintenant, je veux bien qu'on fasse une distinction entre webmaster et "réalisateur de site", si tu veux.
  5. Dans la mesure où ils réalisent des sites et les gèrent, pourquoi leur refuser ce titre ?
  6. Si Apple n'a pas proposé une interface pour le DOS et a éprouvé le besoin de reconçevoir un système complet, si Microsoft (qui avait pourtant commencé par développer Windows comme une interface DOS) a fini, avec XP, par reconcevoir sa base de travail, c'est parce que le langage détermine étroitement les possibilités et la puissance de l'interface. Je n'en connais pas un seul qui pourrait convenir à tous mes amis qui me disent qu'ils voudraient se lancer (sans la moindre connaissance de base) et qui me demandent quel logiciel ils peuvent utiliser. Dreamweaver ? Ils partent en courant devant l'usine à gaz Nvu/Compozer ? C'est encore le mieux que je connaisse, mais ça bug à tour de bras et le concepteur d'origine à laissé tomber le produit. J'en ai testé près d'une dizaine. Je n'en ai pas trouvé qui s'adapte à un utilisateur novice. Ca peut faire gagner pas mal de temps à quelqu'un qui sait ce qu'est une balise HTML, mais pas à un utilisateur qui voudrait l'équivalent de "Word" pour le Web (et c'est bien là que se situe la demande). Quand à Word lui-même (puisqu'il propose un export en HTML), il est bien incapable de générer une page Web qui ait un tout petit peu de "gueule", quel que soit le talent de son utilisateur. C'est pourtant ce qu'a parfois tenté le W3C en déclarant certaines balises "obsolètes". Ca me semble en effet irréaliste. Ce qui est fait est fait et puisqu'on ne pourra pas empêcher certains utilisateurs de continuer à se servir de ces balises, les navigateurs préfèrent continuer à assurer leur compatibilité avec elles. Et puisque les navigateurs restent compatibles, de nouveaux utilisateurs se mettent à utiliser ces balises. Alors à quoi riment les recommandations du W3C (dont un immense nombre de webmasters ignorent jusqu'à l'existence) dans ce contexte ? Pour ma part, je parlais plutôt d'une norme additive qui permettrait de faire de la mise en page simplement (de façon moins extravagante que FLOAT et CLEAR) et qui ouvre la porte à une vraie gestion WYSIWYG, à un logiciel qui n'oblige pas à regarder toutes les 5 minutes le code produit pour voir s'il tient la route. Et oui, une fois qu'on a compris, tout devient simple Certains blog font un travail remarquable, mais ils sont eux aussi handicapés par la conception même du langage qui rend certaines options extrêmement complexes à interfacer. A l'époque du DOS aussi, on passait beaucoup par des développeurs pour obtenir ce qu'on voulait. C'est cher, pas toujours fiable, et ça représente un énorme frein à l'évolution. Plus on démocratisera la création de sites et plus le Web évoluera vite.
  7. Simplifier ne veut pas forcément dire niveler par le bas. Quand Apple a commencer à développer le Lisa, puis le Mac, la majorité des utilisateurs de PC-DOS (c'était des gens qui nous ressemblaient beaucoup) se tapaient dans le dos en rigolant et en critiquant ce "gadget" qui n'avait selon eux aucun avenir et (surtout !) qui ne permettait pas de bidouiller des lignes de code pour faire des manips de la mort qui tue. La plupart des gens n'utilisaient pas d'ordinateur parce que c'était beaucoup trop prise de tête pour eux. Le Mac a pourtant fait son chemin au point d'obliger Microsoft à réagir et à mettre au point Windows qui n'était dans sa première version qu'une pâle imitation du Mac. Le nombre d'utilisateur s'est mis à exploser, générant une demande de plus en plus importante sur le marché des logiciels. Cette demande à déclenché une offre de plus en plus abondante et de plus en plus sophistiquée. La micro-informatique a fait un bond en avant absolument fantastique GRACE à la simplification de l'interface utilisateur. Non seulement les normes actuelles du Web sont souvent non-intuitives, mais elles sont aussi conçues exactement à l'envers de ce qu'il faudrait pour pouvoir être intégrées dans un logiciel WYSIWYG. Je peux en parler, j'ai commencé à développer un logiciel de ce type et j'ai du renoncer après m'être arraché la moitié de mes cheveux (regardez ma photo, à gauche... c'est pas beau à voir, hein ?. Les blogs sont aujourd'hui la meilleure réponse à ce problème. Mais cette réponse bloque les possibilités d'évolution des utilisateurs et les mène à l'impasse.
  8. OK, les gens ne veulent pas faire d'effort. Peut-être aussi, qu'ils n'ont pas le temps de faire des efforts, peut-être que ça n'a aucun intérêt pour eux de faire des efforts, compte tenu des objectifs qu'ils poursuivent en créant leur site. Qu'est-ce que ça change ? Les gens ne veulent pas faire d'effort, ils veulent des logiciels faciles à utiliser, ils veulent des principes intuitifs, ils veulent un truc qui FONCTIONNE en quelques clics de souris. Ils ne veulent pas s'immerger la tête dans un code qui ressemble à du latin, ils ne veulent pas passer des heures à chercher où se cache ce fichu bug qui fait que le site fonctionne sur Explorer et pas sur Firefox ou vice-versa. Ils ne veulent pas avoir besoin de 2 ans d'expérience pour réussir, enfin, à sortir leur site qui n'est destiné qu'à leurs amis ou à leur famille. Ce sont CES GENS LA qui font le Web d'aujourd'hui, pas nous. C'est pour eux qu'il faudrait bosser un peu, parce que pour le moment, ils sont salement laissés en plan. Ils se rabattent sur des blogs, parce que ça, au moins, c'est simple. Et puis, bien souvent, ils voudraient évoluer vers quelque chose d'un peu plus personnalisé. Et CRAC, ça coince. Alors ou ils renoncent, ou ils mettent les mains dans le camboui et décident de divorcer d'avec leur conjoint pour avoir un peu plus de temps libre à consacrer à leur objectif Bref, le monde est cruel pour eux. Et le Web traîne la patte parce ce qu'on ne s'attaque pas au vrai besoin.
  9. C'est un très long débat qui pourrait s'engager là, Dudu (et concernant le scalp de la peau de la tête, c'était une tentative d'humour.... bon... tant pis ) Si on cherche des équivalences dans la vie de tous les jours, le W3C joue un peu le rôle du legislatif (notons quand même que le W3C s'est auto-proclamé legislateur du Web, bon... il en fallait un et ça arrange bien tout le monde, mais quand même, ça fait un peu bizarre). Le problème, c'est que le Web n'est pas équipé de la moindre instance exécutive (à part Google en raison de sa position quasi-monopolistique, et Microsoft, en raison de sa position historique et du taux de pénétration d'Explorer, et depuis peu Mozilla). Le W3C semble parfois s'imaginer qu'il dispose de tout un exécutif qui s'occupe de faire appliquer ses "lois" et nous pond de temps en temps des choses qui n'intéressent pas les utilisateurs et/ou les développeurs et qui, du coup, restent lettre morte puisque rien n'oblige tout ce beau monde à l'utiliser. Ce ne sont pas des lois, ce sont juste des suggestions ! Le XHTML est l'exemple type de ce dont je parle : c'était voué à l'échec dès le départ parce que ça ne part pas de l'intérêt des utilisateurs mais d'une vision complètement théorique et irréaliste du Web et de l'influence que le W3C peut avoir dessus. Le XHTML n'apporte strictement aucun avantages à ses utilisateurs et les oblige à changer d'habitude. Comment ça aurait pu marcher ? C'est un délire total de théoricien qui a fichu une énorme pagaille pour un résultat nul. Quel gachis ! Que d'énergie perdue ! Tim Berners-Lee, président du W3C, est l'inventeur du HTML (avec Robert Cailliau), OK, bon... ça intéresse qui ? Ca lui donne sans aucun doute une certaine légitimité, mais ça ne fait pas de lui le maître tout puissant du Web. C'est peut-être bien, peut-être pas. En attendant, plus de 80% des webmasters sont des bricoleurs qui continuent à bidouiller des tableaux et qui se moquent éperdument de Tim Berners-Lee. C'est ça la réalité, et c'est ça qu'il faut savoir accepter et gérer pour parvenir à faire évoluer le Web. Par exemple : POURQUOI la plupart des utilisateurs bloquent sur les CSS (je ne parle pas de ceux qu'on croisent dans nos forums, je parle du plus grand nombre, ceux qui feront un ou deux sites Web dans leur vie mais qui représentent, tous ensembles, l'immense majorité des utilisateurs) ? C'est ça qu'il faut comprendre ! Et la raison est simple : pour eux, les tableaux et les balise HTML sont plus simples à utiliser. Alors plutôt que de nous faire perdre 10 ans avec le XHTML, j'aurais bien aimé que le W3C travaille sur une norme dédiée à la mise en page, une norme SIMPLE, facile à utiliser et qui permette le développement de logiciels WYSIWYG, parce ce que c'est ça que demande l'immense majorité des utilisateurs. Apparemment, le W3C commence à prendre doucement conscience de ses limites et ré-oriente sa stratégie en tenant un peu mieux compte des réalités. Ca ma plaît bien. En attendant, je ne me sens pas obligé d'appliquer les normes "par principe". J'applique les normes qui sont indispensables au fonctionnement et à l'accessibilité (au sens très complet) de mes sites en m'intéressant de très prés à la façon dont Google gère ces règles. Parce qu'au fond, s'il y a un Boss, aujourd'hui, c'est Google, pas le W3C. Ca ne me plaît pas plus que ça, mais c'est ça, la réalité. Voilà ma position en résumé. Google pénalise tout les sites qui lui semblent suspects et ne fait pas toujours dans la demi-mesure. Ca n'est pas plus mal comme ça. La lutte contre le spam est une guérilla très difficile mais absolument nécessaire. Quel est exactement le point sensible que j'ai chatouillé, est-il vraiment en rapport avec le nombre de pages, c'est ce que j'essaye de comprendre.
  10. Google n'a pas toujours été très cohérent dans ses déclarations sur le sujet : http://googleguy-fr.blogspot.com/2004/08/q...-100-liens.html Cela dit, c'est une piste à suivre, surtout après l'exemple de Didou qui comportait finalement plus de 100 pages lors de sa mise en ligne (après recalcul) et qui n'a pas été pénalisé... mais qui comportait un bon nombre de pages qui n'étaient liées que par une seule page (j'espère que je me fais comprendre). J'ai mis un lien en footer sur 4 sites qui totalisent environ 600 pages et 2600 visiteurs/jour à eux 4. D'après ce que j'ai pu voir, ça n'est pas tant le nombre de liens que la fréqentation qu'ils apportent qui semblent influencer Google. Ces liens apportent à Wikibis environ 10 visiteurs par jour (c'est une petite pub toute bête qui n'est pas très racoleuse). Ca ne fait évidemment pas de mal de passer de façon impeccable le test du W3C. Je voulais simplement dire que je considère les standards du Web comme un point technique important, mais pas comme une religion. Il peut m'arriver de négliger certains avertissements du validateur quand j'ai la conviction qu'il est un peu plus royaliste que le Roi (je pense par exemple à la distinction <b> versus <strong> qui n'est qu'un coupage de cheveux en quatre ou encore de la façon de rédiger les liens. Le validateur du W3C suit à lettre les spécifications du W3C, y compris dans leurs aspects parfois un peu délirant, du genre "c'est nous qui décidons comment le Web fonctionne". Mais.... houlà !!!!!... là je prend un gros risque de réveiller une autre polémique !!! S'il y a un ayatollah des standards qui rode dans le coin, il va me scalper la peau de la tête là où y'a des cheveux !
  11. Je parlais de la conception de mes sites. Leurs pages d'accueil sont des pages exactement comme les autres au niveau de la conception. Elles ne bénéficient pas de d'avantage de liens que les autres, puisque par l'intermédiaire du menu, toutes les pages pointent vers toutes les pages. A terme, elles bénéficieront peut-être d'un peu plus de liens entrant, mais rien de bien spectaculaire : les liens naturels qui se créent vers un site pointent la plupart du temps vers des pages autres que la page d'index. Là, c'est peut-être pas de la sandbox. Mais c'est vrai que pour WikiBis, j'ai quand même fait l'effort de mettre des liens en provenance de 4 de mes sites, histoire de lancer la machine. Ca apporte des visiteurs et c'est déjà une forme de promotion, j'avoue. Ca m'intéresse bien, surtout pour les deux derniers qui sont récents et qui semblent rentrer pile poil dans le cadre de mes expériences. Damned !! C'est compter sans mon âme vaillante et indomptable. Je ne m'avouerais jamais vaincu et je combattrais la sombre obscurité de l'ignorance jusqu'à mon dernier souffle, dussais-je en mourir à cause que ça serait mon dernier souffle !
  12. Et elles ne prétendent pas en être. C'est pourquoi j'apprécie de pouvoir discuter de mes expérimentations sur ce forum afin de savoir si d'autres webmasters ont des éléments permettant de les affiner. Merci pour cette participation, Djames-Allen, mais sans aucun élément précis pour étayer cet avis, ça ne m'aide hélas pas beaucoup à avancer. Le référencement est un art très délicat. Personnellement, j'élabore mes idées en lisant les hypothèses et les compte-rendus d'expériences d'autres webmasters, j'expérimente ensuite ces idées en les mettant en pratique de différentes façons (car tout est toujours sujet à caution) et j'en tire des conclusions que je remet périodiquement en question (car rien n'est jamais définitif compte tenu de l'évolution de ce domaine). Tout le monde sait qu'un très grand nombre d'idées fausses sont répétées comme des leitmotivs dans le monde du référencement. Elles deviennent des vérités non parce qu'on a les a vérifiées et re-vérifiées, mais simplement parce qu'on les répète à n'en plus finir. Fonctionner sur ces idées sans chercher à les remettre en question conduit à des impasses dont on ne peut plus sortir. C'est pourquoi je ne sais que faire d'une affirmation ou d'un avis qui ne s'appuie pas sur un minimum de tests qui doivent être exposés afin de pouvoir être vérifiés. Comme tout protocole, mes propres protocoles de test sont évidemment discutables mais ils ont le mérite d'exister et je tente toujours, avec le maximum de transparence, d'expliquer comment j'ai procédé et sur quelle base j'ai fondé mes affirmations ou mes convictions. Dans ce post, je partage une expérience qui vaut ce qu'elle vaut et j'expose les bases qui ont nourri mes conclusions. Le problème vient sans doute du fait que mes convictions sur le Duplicate Content sont issues de plusieurs années de recherche et d'expérimentation sur ce sujet et que le fait d'exposer succinctement mes bases ne peut pas suffire pour que chacun reconstitue mon cheminement de pensée et adhère à mes raisonnements. Qui plus est, mes conclusions sur le Duplicate Content vont à l'encontre de pas mal d'idées reçues et ont pas conséquent une furieuse tendance à déclencher la polémique. Mais encore une fois, le Duplicate Content n'est absolument pas le sujet de ce post et j'aurais préféré qu'il n'en prenne pas toute la place. Mon expérience est un succès. Ca n'est pas un échec dont j'aurais souhaité qu'on explique la cause. Quelle que soit l'influence que le Duplicate Content ait pu avoir sur cette expérience, il n'en a pas compromis la réussite. Personnellement, mon principal intérêt ne consiste donc pas à approfondir ce sujet (même si je comprend tout à fait qu'il vous passionne aussi). Le centre de mon intérêt concerne le nombre de pages publiées lors de la mise en ligne, qui a eu pour moi (dans le cadre que je défini dans mon premier message) un impact évident sur la vitesse de progression de mes sites dans les classements de Google et c'est de ce sujet dont j'aurais bien aimé qu'on discute. A part l'expérience de Dadou qui m'a fourni des éléments assez précis pour alimenter ma réflexion, je n'ai pas réussi à retirer grand chose de consistant de ce partage malgré les deux pages qui alimentent à présent ce post et qui noient un peu le poisson. Il est possible que le fait de mettre brutalement en ligne plus de 50 pages riches en contenu soit une expérience suffisamment rare pour que presque personne ne puisse apporter de témoignage précis sur la question. Si c'est le cas, (et c'est ce que je commence à penser) mon expérience n'a finalement que peu d'intérêt pour vous tous. Mais si d'autres webmasters ont aussi eu ce type d'expérience et qu'ils en ont gardé des éléments précis pour pouvoir argumenter, de grâce, faites-vous connaître ! - Le facteur déterminant est-il vraiment le nombre de pages ou est-il le nombre total de mots inclus dans les pages (la plupart de mes pages ont un gros contenu) ? Ou est-il le nombre total de "liens sortants" contenus dans les pages, ou est-il le nombre total de "liens internes" du site (menus). Quelqu'un a-t-il déjà mis en ligne un annuaire comportant un grand nombre de pages dès sa publication ? Sa progression dans les résultats en a-t-elle été influencée ? - Je commence à me dire que le filtre particulier qui freine la croissance de mes sites de plus de 50 pages est en rapport avec la lutte contre les pages satellites (ce qui militerait pour l'hypothèse que le nombre de liens internes est le facteur déterminant). Quelqu'un a-t-il une expérience sur ce sujet ? 1, 2, 3 : Par l'intermédiaire des menus (en pur CSS, sans flash ni javascript), chaque page comporte des liens en dur vers l'ensemble des autres pages du site. On peut donc considérer que chaque page comporte un plan de site intégré. La page d'accueil est une page comme les autres. 4 : il n'y en a pas. Je n'ai pas réussi à en trouver l'utilité pour des sites qui comportent des menus tels que décrits ci-dessus 5 : pur HTML. Le javascript n'est utilisé que pour des agréments mineurs de présentation. Le site fonctionne parfaitement avec le javascript désactivé. Il n'y a pas une ligne de Flash. 6, 7, 8 : il n'y a qu'un seul niveau par site 9 : excellente. Compte tenu de sa fréquentation globale, WikiBis est en hébergement professionnel avec d'excellentes performances. Dans sa fréquentation actuelle, cet hébergement est encore largement surdimensionné. D'autres sites du réseau sont hébergés dans des formules économiques. Pour le moment, ça n'a pas eu d'influence identifiable sur leurs performances. 10 : le poids des pages me semble "raisonnable" : 50 à 100ko par page environ (hors images). Ca serait mieux si les pages étaient plus petites, mais la simple présence du menu consomme déjà 30 à 60 ko, compte tenu du nombre important de pages pour la plupart des sites. La taille de mes pages est donc en rapport direct avec le nombre total de pages du site et ce point méritait donc tout à fait d'être examiné. Mais dans la mesure où je dépasse rarement 100 ko, je pense pouvoir négliger ce facteur. 11 : voir points 1, 2, 3, 4, 5 12 : il n'y a quasiment aucun script côté serveur. 13 : le validateur du W3C me fatigue un peu en raison de sa rigidité et de son inadaptation aux réalités des navigateurs actuels, mais ça ne m'empêche pas de surveiller la syntaxe de mes pages de très prés. Toutes les pages sont conçues d'une façon strictement identique. Par rapport à ma question, je pense donc pouvoir négliger ce facteur. Je rediscuterais avec plaisir et passion du Duplicate Content dans un autre post si vous le souhaitez
  13. Si on m'avait dit plus tôt que quelqu'un sur ce forum détenait la vérité, je n'aurais pas perdu toutes ces années à faire des expériences et à élaborer des projets stupides.
  14. Je suis tout à fait d'accord. Tu fais référence aux "plaintes affligées" dont je parles au début de mon post. J'ai simplement constaté un phénomène et je souhaite savoir si d'autres ont fait la même expérience. Tout à fait d'accord encore une fois. Comme je le dis plus haut, je pense que WikiBis représente un réel intérêt pour certains internautes. L'avenir me dira si j'ai raison.
  15. Je crois quant à moi que si Google a conservé son succès au cours des dernières années, c'est surtout parce qu'il parvient de façon relativement efficace à lutter contre le spam et, par exemple, à écarter des résultats tous les sites créés de façon automatique dans le seul but de "faire du volume", quitte à polluer le Web. Le filtre "Duplicate Content" n'est pas, loin sans faut, la seule protection mise en place dans ce but. Il n'y aurait rien d'étonnant à ce qu'il ait mis en place une limitation telle que celle que je suppose dans ce post. Combien de webmasters mettent directement en ligne des sites de plus de 50 pages hyper riches en contenu ? Vu le peu de témoignages recueillis jusque là, il ne semble qu'il y en ait tant que ça. De là à ce que Google trouve cela suspect... Le projet couvre une dizaine de noms de domaines différents. Mes premières expériences portaient sur des sites indépendants. J'ai ensuite hébergé mes sites dans des sous-domaines de WikiBis. Pour le moment, je ne constate aucune différence entre la progression des NDD indépendants et celle des sites en sous-domaine. Les sites comportant moins de 50 pages démarrent vite dans les deux cas. Ceux comportant plus de 50 pages semblent pénalisés dans les deux cas. Alors là, je tousse un peu. Le fait de partager son expérience serait donc une démarche nuisible ? Qui sait comment le projet Facebook a été élaboré et à quoi il ressemblait au moment de sa mise en ligne et de quelle façon il a progressé ? Et même si j'aimerais en savoir plus sur ces questions, elles sont hors sujet. Comme je l'indique dans le premier post, mon analyse ne porte que sur des sites qui ne bénéficient d'aucune promotion et que l'on laisse "murir" de façon naturelle. Je n'affirme pas que, même dans ces conditions, il faut limiter la création de pages à 10 par mois. Je dis que ma précaution personnelle consiste à ajouter un maximum de 20 pages par mois et que ça semble marcher. Je suppose qu'au bout d'un an (ou peut-être avant), une fois que le site a réussi à obtenir des backlinks naturels et bénéficie d'une bonne côte de confiance de la part de Google, il n'y a plus la moindre limitation quand à sa vitesse de croissance. Mais je n'en suis pas encore là. Voilà qui m'intéresse. Mais tu ne précises pas combien les sites comportaient de pages lors de la mise en ligne et combien de temps ils ont mis à décoller. Pourrais-tu préciser ?
×
×
  • Créer...