Aller au contenu

zapman

Hubmaster
  • Compteur de contenus

    221
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par zapman

  1. Il y a débat d'idées et débat d'idées : - Le genre où on échange des idées pré-conçues avec lesquelles tout le monde est d'accord permet une discussion tranquille dans lequel on argumente en respectant ses interlocuteurs. - Le genre où un participant se permet d'être anti-conformiste et où il semble désormais de bon ton de le dénigrer aussi violemment que possible plutôt que d'examiner ses idées et d'en débattre. J'ai connu une autre époque où les idées anti-conformistes étaient acceptées et débattues sur ce forum et où les modérateurs se chargeaient d'éviter les dérapages que la passion et la force des convictions nous amènent parfois à faire. Quand les choses se passent de cette façon, j'adore le Hub car la qualité des interventions y est généralement d'un excellent niveau. Que Dudu, en utilisant le dénigrement, et Didou, en utilisant l'insulte aient pu déraper, je peux éventuellement le comprendre. Même si c'est un peu inquiétant de la part d'un admin et d'un modérateur, Errare humanum est. Mais que ces dérapages ne fassent l'objet d'aucun rétablissement... ça me laisse pantois. Il m'est arrivé de lâcher une phrase qui n'avait pas sa place sur ce forum et Patrick m'a immédiatement permis de recadrer le débat. Je lui en suis reconnaissant. J'ai pour ma part mis Dudu en garde à deux reprises contre la mauvaise pente que ces propos commençaient à prendre. J'aurais bien aimé que Patrick intervienne à ce moment là, je pense que ça aurait permis de conclure cette discussion sur une note beaucoup plus constructive. Pour ce qui me concerne, je fais mon mea culpa : La phrase "s'il y a un ayatollah qui rôde dans le coin" peut-être considérée comme une insulte pour celui qui la prend à son compte. Je n'ai pas pensé que Dudu allait la prendre à son compte. Je le redis car il semble qu'il ne veuille pas m'entendre sur ce point. Pardon de ne pas répondre aux arguments qui ont été émis depuis ce clash. Mais compte tenu de l'agressivité qui persiste dans les dernières interventions, je ne crois pas qu'il me soit encore possible de répondre dans la sérénité. Je vous laisse poursuivre ce lynchage tranquillement.
  2. Je crois qu'on peut avoir des avis qui divergent sans se sentir obligé de traiter son interlocuteur de "petit frustré" et ses propos de "tissu d'âneries". Je crois qu'un modo qui insulte un membre du forum est définitivement en dehors des clous Je crois qu'on est plus vraiment dans le cadre d'un échange d'idées, mais plutôt dans celui d'un lynchage en règle. Continuer la discussion dans ce contexte n'a aucun sens. Sauf que là, apparemment, on y arrive pas.... Dommage !
  3. Encore une fois, Dudu, je te trouve un peu chaud et même un tantinet agressif. Lors de mon dernier test, ce site fonctionnait au poil sur tous les navigateurs et semble avoir satisfait la personne non-voyante qui a accepté de le tester pour moi. Je crois avoir expliqué clairement dans mes messages précédents à quel point et pourquoi le reste m'indiffère. Me reprocherais-tu d'être cohérent dans mes propos et dans mes actes ? Et si tu n'as pas encore eu cette curiosité, je t'invite à lire les pages du chapitres "Réflexions"
  4. Tout à fait splendide ! Mais je te sens un peu chaud, Dudu. Le petit mot d'humour sur les Ayatollah ne t'était en aucune façon destiné. Je disais que s'il y en avait un qui rodait dans le coin, ça chaufferait pour moi. Maintenant, et après ce message, en toute franchise, je me dis qu'il ne rodait peut-être pas si loin, finalement, l'ayatollah. J'ai un peu de mal à répondre à tes arguments parce que ça part dans tous les sens, mais bon, j'essaye : Google + Microsoft + Mozilla (+ quelques autres sociétés) == le w3c :!: A ma connaissance, il y a un énorme quantité d'autres sociétés qui participent aux groupes de réflexion du W3C. Je ne dis pas que ces trois là ne bénéficient pas d'un prestige qui augmente leur influence, mais je trouve ton équation quand même sacrément simplificatrice. Qui plus est, ils n'ont pas voix au chapitre pour ce qui est des décisions. Ils ne font que participer à la réflexion (c'est du moins ce que j'ai compris en lisant le fonctionnement du W3C) Pas du tout, puisque l'XHTML n'est rien d'autre que de l'HTML. La seule et unique différence, c'est qu'un fichier xhtml est parsé différemment. C'est LA SEULE différence. Sauf que quand tu modifies ton code et que tu testes le résultat, tu constates que les navigateurs n'interprètent plus le html et les CSS exactement de la même façon. Alors, c'est sûr, c'est pas le bout du monde, mais encore une fois, pourquoi aller chercher des ennuis ? Tu fais juste la confusion habituelle:HTML = tableaux / XHTML = CSS C'est pas cool de mélanger deux de mes phrases pour me faire dire quelque chose que je ne pense pas. Je n'ai pas besoin d'aller bien loin pour me documenter : j'ai un site assez complet qui ne parle que des CSS : www*css-faciles*com En parlant des 80% de webmasters qui bricolent et bidouillent des tableaux, je te répondrais que 78,253% des statistiques sont erronnées. Les 80%, c'est une façon de parler. L'une des faiblesses importante de nos intelligences humaines, c'est qu'on a toujours tendance à croire que tout le monde est comme nous, que tout le monde pense comme nous. Par sympathie, on fréquente des gens qui nous ressemblent et on fini par croire que le monde entier est à l'image du petit cercle de nos connaissances. Par le biais de mon activité de formateur, je me trouve en contact avec des gens de toutes sortes que je n'ai pas spécialement choisi de fréquenter. Mes cours ne s'adressent pas à des webmasters pro ou qui souhaitent le devenir. Mes cours s'adressent à des gens qui veulent créer des sites et qui n'y parviennent pas tout seuls. Ca m'a un peu ouvert les yeux. J'ai pu constater que la plupart des gens qui "bricolent" des sites web ne fréquentent que très peu les forums et se fichent éperdument de ce qu'il "faut" faire. Il ne s'intéressent qu'à ce qui leur permet d'obtenir rapidement le résultat qu'ils recherchent et ne connaissent tout simplement pas les CSS, le W3C et tout ce que nous considérons comme indispensable à un site "civilisé". En ce qui me concerne, j'ai cessé depuis longtemps d'essayer de les culpabiliser avec le sempiternel "les tableaux, c'est mal". J'ai même complètement arrêté de vouloir les gaver de CSS. C'est beaucoup trop lourd à digérer pour quelqu'un que l'aspect technique n'intéresse pas et qui cherche un résultat hyper rapide. Ce que j'ai fini par accepté, c'est que ce qui me semblait simple et quasi-intuitif, à moi qui ai de l'expérience, ne l'était pas forcément pour eux. J'essaye de respecter ce qu'ils sont et ce qu'ils veulent. Depuis toutes ces années, plusieurs de mes élèves ont évolué vers les normes récentes et m'ont pondu des sites irréprochables du point de vue des standards. Mais ils sont loin de représenter la majorité. C'est une petite minorité, passionnée et qui s'est donné le temps d'aller au bout des choses, comme toi et moi, Dudu. Les autres ont fait des sites par-ci, par là et continuent à m'appeler quand il coincent sur un point particulier. Je t'assure que ces autres représentent une très grosse majorité de mes élèves. Le point de vue que je défend, c'est que ça serait formidable si être webmaster était une chose facile pour tout le monde. Maintenant, je veux bien qu'on fasse une distinction entre webmaster et "réalisateur de site", si tu veux.
  5. Dans la mesure où ils réalisent des sites et les gèrent, pourquoi leur refuser ce titre ?
  6. Si Apple n'a pas proposé une interface pour le DOS et a éprouvé le besoin de reconçevoir un système complet, si Microsoft (qui avait pourtant commencé par développer Windows comme une interface DOS) a fini, avec XP, par reconcevoir sa base de travail, c'est parce que le langage détermine étroitement les possibilités et la puissance de l'interface. Je n'en connais pas un seul qui pourrait convenir à tous mes amis qui me disent qu'ils voudraient se lancer (sans la moindre connaissance de base) et qui me demandent quel logiciel ils peuvent utiliser. Dreamweaver ? Ils partent en courant devant l'usine à gaz Nvu/Compozer ? C'est encore le mieux que je connaisse, mais ça bug à tour de bras et le concepteur d'origine à laissé tomber le produit. J'en ai testé près d'une dizaine. Je n'en ai pas trouvé qui s'adapte à un utilisateur novice. Ca peut faire gagner pas mal de temps à quelqu'un qui sait ce qu'est une balise HTML, mais pas à un utilisateur qui voudrait l'équivalent de "Word" pour le Web (et c'est bien là que se situe la demande). Quand à Word lui-même (puisqu'il propose un export en HTML), il est bien incapable de générer une page Web qui ait un tout petit peu de "gueule", quel que soit le talent de son utilisateur. C'est pourtant ce qu'a parfois tenté le W3C en déclarant certaines balises "obsolètes". Ca me semble en effet irréaliste. Ce qui est fait est fait et puisqu'on ne pourra pas empêcher certains utilisateurs de continuer à se servir de ces balises, les navigateurs préfèrent continuer à assurer leur compatibilité avec elles. Et puisque les navigateurs restent compatibles, de nouveaux utilisateurs se mettent à utiliser ces balises. Alors à quoi riment les recommandations du W3C (dont un immense nombre de webmasters ignorent jusqu'à l'existence) dans ce contexte ? Pour ma part, je parlais plutôt d'une norme additive qui permettrait de faire de la mise en page simplement (de façon moins extravagante que FLOAT et CLEAR) et qui ouvre la porte à une vraie gestion WYSIWYG, à un logiciel qui n'oblige pas à regarder toutes les 5 minutes le code produit pour voir s'il tient la route. Et oui, une fois qu'on a compris, tout devient simple Certains blog font un travail remarquable, mais ils sont eux aussi handicapés par la conception même du langage qui rend certaines options extrêmement complexes à interfacer. A l'époque du DOS aussi, on passait beaucoup par des développeurs pour obtenir ce qu'on voulait. C'est cher, pas toujours fiable, et ça représente un énorme frein à l'évolution. Plus on démocratisera la création de sites et plus le Web évoluera vite.
  7. Simplifier ne veut pas forcément dire niveler par le bas. Quand Apple a commencer à développer le Lisa, puis le Mac, la majorité des utilisateurs de PC-DOS (c'était des gens qui nous ressemblaient beaucoup) se tapaient dans le dos en rigolant et en critiquant ce "gadget" qui n'avait selon eux aucun avenir et (surtout !) qui ne permettait pas de bidouiller des lignes de code pour faire des manips de la mort qui tue. La plupart des gens n'utilisaient pas d'ordinateur parce que c'était beaucoup trop prise de tête pour eux. Le Mac a pourtant fait son chemin au point d'obliger Microsoft à réagir et à mettre au point Windows qui n'était dans sa première version qu'une pâle imitation du Mac. Le nombre d'utilisateur s'est mis à exploser, générant une demande de plus en plus importante sur le marché des logiciels. Cette demande à déclenché une offre de plus en plus abondante et de plus en plus sophistiquée. La micro-informatique a fait un bond en avant absolument fantastique GRACE à la simplification de l'interface utilisateur. Non seulement les normes actuelles du Web sont souvent non-intuitives, mais elles sont aussi conçues exactement à l'envers de ce qu'il faudrait pour pouvoir être intégrées dans un logiciel WYSIWYG. Je peux en parler, j'ai commencé à développer un logiciel de ce type et j'ai du renoncer après m'être arraché la moitié de mes cheveux (regardez ma photo, à gauche... c'est pas beau à voir, hein ?. Les blogs sont aujourd'hui la meilleure réponse à ce problème. Mais cette réponse bloque les possibilités d'évolution des utilisateurs et les mène à l'impasse.
  8. OK, les gens ne veulent pas faire d'effort. Peut-être aussi, qu'ils n'ont pas le temps de faire des efforts, peut-être que ça n'a aucun intérêt pour eux de faire des efforts, compte tenu des objectifs qu'ils poursuivent en créant leur site. Qu'est-ce que ça change ? Les gens ne veulent pas faire d'effort, ils veulent des logiciels faciles à utiliser, ils veulent des principes intuitifs, ils veulent un truc qui FONCTIONNE en quelques clics de souris. Ils ne veulent pas s'immerger la tête dans un code qui ressemble à du latin, ils ne veulent pas passer des heures à chercher où se cache ce fichu bug qui fait que le site fonctionne sur Explorer et pas sur Firefox ou vice-versa. Ils ne veulent pas avoir besoin de 2 ans d'expérience pour réussir, enfin, à sortir leur site qui n'est destiné qu'à leurs amis ou à leur famille. Ce sont CES GENS LA qui font le Web d'aujourd'hui, pas nous. C'est pour eux qu'il faudrait bosser un peu, parce que pour le moment, ils sont salement laissés en plan. Ils se rabattent sur des blogs, parce que ça, au moins, c'est simple. Et puis, bien souvent, ils voudraient évoluer vers quelque chose d'un peu plus personnalisé. Et CRAC, ça coince. Alors ou ils renoncent, ou ils mettent les mains dans le camboui et décident de divorcer d'avec leur conjoint pour avoir un peu plus de temps libre à consacrer à leur objectif Bref, le monde est cruel pour eux. Et le Web traîne la patte parce ce qu'on ne s'attaque pas au vrai besoin.
  9. C'est un très long débat qui pourrait s'engager là, Dudu (et concernant le scalp de la peau de la tête, c'était une tentative d'humour.... bon... tant pis ) Si on cherche des équivalences dans la vie de tous les jours, le W3C joue un peu le rôle du legislatif (notons quand même que le W3C s'est auto-proclamé legislateur du Web, bon... il en fallait un et ça arrange bien tout le monde, mais quand même, ça fait un peu bizarre). Le problème, c'est que le Web n'est pas équipé de la moindre instance exécutive (à part Google en raison de sa position quasi-monopolistique, et Microsoft, en raison de sa position historique et du taux de pénétration d'Explorer, et depuis peu Mozilla). Le W3C semble parfois s'imaginer qu'il dispose de tout un exécutif qui s'occupe de faire appliquer ses "lois" et nous pond de temps en temps des choses qui n'intéressent pas les utilisateurs et/ou les développeurs et qui, du coup, restent lettre morte puisque rien n'oblige tout ce beau monde à l'utiliser. Ce ne sont pas des lois, ce sont juste des suggestions ! Le XHTML est l'exemple type de ce dont je parle : c'était voué à l'échec dès le départ parce que ça ne part pas de l'intérêt des utilisateurs mais d'une vision complètement théorique et irréaliste du Web et de l'influence que le W3C peut avoir dessus. Le XHTML n'apporte strictement aucun avantages à ses utilisateurs et les oblige à changer d'habitude. Comment ça aurait pu marcher ? C'est un délire total de théoricien qui a fichu une énorme pagaille pour un résultat nul. Quel gachis ! Que d'énergie perdue ! Tim Berners-Lee, président du W3C, est l'inventeur du HTML (avec Robert Cailliau), OK, bon... ça intéresse qui ? Ca lui donne sans aucun doute une certaine légitimité, mais ça ne fait pas de lui le maître tout puissant du Web. C'est peut-être bien, peut-être pas. En attendant, plus de 80% des webmasters sont des bricoleurs qui continuent à bidouiller des tableaux et qui se moquent éperdument de Tim Berners-Lee. C'est ça la réalité, et c'est ça qu'il faut savoir accepter et gérer pour parvenir à faire évoluer le Web. Par exemple : POURQUOI la plupart des utilisateurs bloquent sur les CSS (je ne parle pas de ceux qu'on croisent dans nos forums, je parle du plus grand nombre, ceux qui feront un ou deux sites Web dans leur vie mais qui représentent, tous ensembles, l'immense majorité des utilisateurs) ? C'est ça qu'il faut comprendre ! Et la raison est simple : pour eux, les tableaux et les balise HTML sont plus simples à utiliser. Alors plutôt que de nous faire perdre 10 ans avec le XHTML, j'aurais bien aimé que le W3C travaille sur une norme dédiée à la mise en page, une norme SIMPLE, facile à utiliser et qui permette le développement de logiciels WYSIWYG, parce ce que c'est ça que demande l'immense majorité des utilisateurs. Apparemment, le W3C commence à prendre doucement conscience de ses limites et ré-oriente sa stratégie en tenant un peu mieux compte des réalités. Ca ma plaît bien. En attendant, je ne me sens pas obligé d'appliquer les normes "par principe". J'applique les normes qui sont indispensables au fonctionnement et à l'accessibilité (au sens très complet) de mes sites en m'intéressant de très prés à la façon dont Google gère ces règles. Parce qu'au fond, s'il y a un Boss, aujourd'hui, c'est Google, pas le W3C. Ca ne me plaît pas plus que ça, mais c'est ça, la réalité. Voilà ma position en résumé. Google pénalise tout les sites qui lui semblent suspects et ne fait pas toujours dans la demi-mesure. Ca n'est pas plus mal comme ça. La lutte contre le spam est une guérilla très difficile mais absolument nécessaire. Quel est exactement le point sensible que j'ai chatouillé, est-il vraiment en rapport avec le nombre de pages, c'est ce que j'essaye de comprendre.
  10. Google n'a pas toujours été très cohérent dans ses déclarations sur le sujet : http://googleguy-fr.blogspot.com/2004/08/q...-100-liens.html Cela dit, c'est une piste à suivre, surtout après l'exemple de Didou qui comportait finalement plus de 100 pages lors de sa mise en ligne (après recalcul) et qui n'a pas été pénalisé... mais qui comportait un bon nombre de pages qui n'étaient liées que par une seule page (j'espère que je me fais comprendre). J'ai mis un lien en footer sur 4 sites qui totalisent environ 600 pages et 2600 visiteurs/jour à eux 4. D'après ce que j'ai pu voir, ça n'est pas tant le nombre de liens que la fréqentation qu'ils apportent qui semblent influencer Google. Ces liens apportent à Wikibis environ 10 visiteurs par jour (c'est une petite pub toute bête qui n'est pas très racoleuse). Ca ne fait évidemment pas de mal de passer de façon impeccable le test du W3C. Je voulais simplement dire que je considère les standards du Web comme un point technique important, mais pas comme une religion. Il peut m'arriver de négliger certains avertissements du validateur quand j'ai la conviction qu'il est un peu plus royaliste que le Roi (je pense par exemple à la distinction <b> versus <strong> qui n'est qu'un coupage de cheveux en quatre ou encore de la façon de rédiger les liens. Le validateur du W3C suit à lettre les spécifications du W3C, y compris dans leurs aspects parfois un peu délirant, du genre "c'est nous qui décidons comment le Web fonctionne". Mais.... houlà !!!!!... là je prend un gros risque de réveiller une autre polémique !!! S'il y a un ayatollah des standards qui rode dans le coin, il va me scalper la peau de la tête là où y'a des cheveux !
  11. Je parlais de la conception de mes sites. Leurs pages d'accueil sont des pages exactement comme les autres au niveau de la conception. Elles ne bénéficient pas de d'avantage de liens que les autres, puisque par l'intermédiaire du menu, toutes les pages pointent vers toutes les pages. A terme, elles bénéficieront peut-être d'un peu plus de liens entrant, mais rien de bien spectaculaire : les liens naturels qui se créent vers un site pointent la plupart du temps vers des pages autres que la page d'index. Là, c'est peut-être pas de la sandbox. Mais c'est vrai que pour WikiBis, j'ai quand même fait l'effort de mettre des liens en provenance de 4 de mes sites, histoire de lancer la machine. Ca apporte des visiteurs et c'est déjà une forme de promotion, j'avoue. Ca m'intéresse bien, surtout pour les deux derniers qui sont récents et qui semblent rentrer pile poil dans le cadre de mes expériences. Damned !! C'est compter sans mon âme vaillante et indomptable. Je ne m'avouerais jamais vaincu et je combattrais la sombre obscurité de l'ignorance jusqu'à mon dernier souffle, dussais-je en mourir à cause que ça serait mon dernier souffle !
  12. Et elles ne prétendent pas en être. C'est pourquoi j'apprécie de pouvoir discuter de mes expérimentations sur ce forum afin de savoir si d'autres webmasters ont des éléments permettant de les affiner. Merci pour cette participation, Djames-Allen, mais sans aucun élément précis pour étayer cet avis, ça ne m'aide hélas pas beaucoup à avancer. Le référencement est un art très délicat. Personnellement, j'élabore mes idées en lisant les hypothèses et les compte-rendus d'expériences d'autres webmasters, j'expérimente ensuite ces idées en les mettant en pratique de différentes façons (car tout est toujours sujet à caution) et j'en tire des conclusions que je remet périodiquement en question (car rien n'est jamais définitif compte tenu de l'évolution de ce domaine). Tout le monde sait qu'un très grand nombre d'idées fausses sont répétées comme des leitmotivs dans le monde du référencement. Elles deviennent des vérités non parce qu'on a les a vérifiées et re-vérifiées, mais simplement parce qu'on les répète à n'en plus finir. Fonctionner sur ces idées sans chercher à les remettre en question conduit à des impasses dont on ne peut plus sortir. C'est pourquoi je ne sais que faire d'une affirmation ou d'un avis qui ne s'appuie pas sur un minimum de tests qui doivent être exposés afin de pouvoir être vérifiés. Comme tout protocole, mes propres protocoles de test sont évidemment discutables mais ils ont le mérite d'exister et je tente toujours, avec le maximum de transparence, d'expliquer comment j'ai procédé et sur quelle base j'ai fondé mes affirmations ou mes convictions. Dans ce post, je partage une expérience qui vaut ce qu'elle vaut et j'expose les bases qui ont nourri mes conclusions. Le problème vient sans doute du fait que mes convictions sur le Duplicate Content sont issues de plusieurs années de recherche et d'expérimentation sur ce sujet et que le fait d'exposer succinctement mes bases ne peut pas suffire pour que chacun reconstitue mon cheminement de pensée et adhère à mes raisonnements. Qui plus est, mes conclusions sur le Duplicate Content vont à l'encontre de pas mal d'idées reçues et ont pas conséquent une furieuse tendance à déclencher la polémique. Mais encore une fois, le Duplicate Content n'est absolument pas le sujet de ce post et j'aurais préféré qu'il n'en prenne pas toute la place. Mon expérience est un succès. Ca n'est pas un échec dont j'aurais souhaité qu'on explique la cause. Quelle que soit l'influence que le Duplicate Content ait pu avoir sur cette expérience, il n'en a pas compromis la réussite. Personnellement, mon principal intérêt ne consiste donc pas à approfondir ce sujet (même si je comprend tout à fait qu'il vous passionne aussi). Le centre de mon intérêt concerne le nombre de pages publiées lors de la mise en ligne, qui a eu pour moi (dans le cadre que je défini dans mon premier message) un impact évident sur la vitesse de progression de mes sites dans les classements de Google et c'est de ce sujet dont j'aurais bien aimé qu'on discute. A part l'expérience de Dadou qui m'a fourni des éléments assez précis pour alimenter ma réflexion, je n'ai pas réussi à retirer grand chose de consistant de ce partage malgré les deux pages qui alimentent à présent ce post et qui noient un peu le poisson. Il est possible que le fait de mettre brutalement en ligne plus de 50 pages riches en contenu soit une expérience suffisamment rare pour que presque personne ne puisse apporter de témoignage précis sur la question. Si c'est le cas, (et c'est ce que je commence à penser) mon expérience n'a finalement que peu d'intérêt pour vous tous. Mais si d'autres webmasters ont aussi eu ce type d'expérience et qu'ils en ont gardé des éléments précis pour pouvoir argumenter, de grâce, faites-vous connaître ! - Le facteur déterminant est-il vraiment le nombre de pages ou est-il le nombre total de mots inclus dans les pages (la plupart de mes pages ont un gros contenu) ? Ou est-il le nombre total de "liens sortants" contenus dans les pages, ou est-il le nombre total de "liens internes" du site (menus). Quelqu'un a-t-il déjà mis en ligne un annuaire comportant un grand nombre de pages dès sa publication ? Sa progression dans les résultats en a-t-elle été influencée ? - Je commence à me dire que le filtre particulier qui freine la croissance de mes sites de plus de 50 pages est en rapport avec la lutte contre les pages satellites (ce qui militerait pour l'hypothèse que le nombre de liens internes est le facteur déterminant). Quelqu'un a-t-il une expérience sur ce sujet ? 1, 2, 3 : Par l'intermédiaire des menus (en pur CSS, sans flash ni javascript), chaque page comporte des liens en dur vers l'ensemble des autres pages du site. On peut donc considérer que chaque page comporte un plan de site intégré. La page d'accueil est une page comme les autres. 4 : il n'y en a pas. Je n'ai pas réussi à en trouver l'utilité pour des sites qui comportent des menus tels que décrits ci-dessus 5 : pur HTML. Le javascript n'est utilisé que pour des agréments mineurs de présentation. Le site fonctionne parfaitement avec le javascript désactivé. Il n'y a pas une ligne de Flash. 6, 7, 8 : il n'y a qu'un seul niveau par site 9 : excellente. Compte tenu de sa fréquentation globale, WikiBis est en hébergement professionnel avec d'excellentes performances. Dans sa fréquentation actuelle, cet hébergement est encore largement surdimensionné. D'autres sites du réseau sont hébergés dans des formules économiques. Pour le moment, ça n'a pas eu d'influence identifiable sur leurs performances. 10 : le poids des pages me semble "raisonnable" : 50 à 100ko par page environ (hors images). Ca serait mieux si les pages étaient plus petites, mais la simple présence du menu consomme déjà 30 à 60 ko, compte tenu du nombre important de pages pour la plupart des sites. La taille de mes pages est donc en rapport direct avec le nombre total de pages du site et ce point méritait donc tout à fait d'être examiné. Mais dans la mesure où je dépasse rarement 100 ko, je pense pouvoir négliger ce facteur. 11 : voir points 1, 2, 3, 4, 5 12 : il n'y a quasiment aucun script côté serveur. 13 : le validateur du W3C me fatigue un peu en raison de sa rigidité et de son inadaptation aux réalités des navigateurs actuels, mais ça ne m'empêche pas de surveiller la syntaxe de mes pages de très prés. Toutes les pages sont conçues d'une façon strictement identique. Par rapport à ma question, je pense donc pouvoir négliger ce facteur. Je rediscuterais avec plaisir et passion du Duplicate Content dans un autre post si vous le souhaitez
  13. Si on m'avait dit plus tôt que quelqu'un sur ce forum détenait la vérité, je n'aurais pas perdu toutes ces années à faire des expériences et à élaborer des projets stupides.
  14. Je suis tout à fait d'accord. Tu fais référence aux "plaintes affligées" dont je parles au début de mon post. J'ai simplement constaté un phénomène et je souhaite savoir si d'autres ont fait la même expérience. Tout à fait d'accord encore une fois. Comme je le dis plus haut, je pense que WikiBis représente un réel intérêt pour certains internautes. L'avenir me dira si j'ai raison.
  15. Je crois quant à moi que si Google a conservé son succès au cours des dernières années, c'est surtout parce qu'il parvient de façon relativement efficace à lutter contre le spam et, par exemple, à écarter des résultats tous les sites créés de façon automatique dans le seul but de "faire du volume", quitte à polluer le Web. Le filtre "Duplicate Content" n'est pas, loin sans faut, la seule protection mise en place dans ce but. Il n'y aurait rien d'étonnant à ce qu'il ait mis en place une limitation telle que celle que je suppose dans ce post. Combien de webmasters mettent directement en ligne des sites de plus de 50 pages hyper riches en contenu ? Vu le peu de témoignages recueillis jusque là, il ne semble qu'il y en ait tant que ça. De là à ce que Google trouve cela suspect... Le projet couvre une dizaine de noms de domaines différents. Mes premières expériences portaient sur des sites indépendants. J'ai ensuite hébergé mes sites dans des sous-domaines de WikiBis. Pour le moment, je ne constate aucune différence entre la progression des NDD indépendants et celle des sites en sous-domaine. Les sites comportant moins de 50 pages démarrent vite dans les deux cas. Ceux comportant plus de 50 pages semblent pénalisés dans les deux cas. Alors là, je tousse un peu. Le fait de partager son expérience serait donc une démarche nuisible ? Qui sait comment le projet Facebook a été élaboré et à quoi il ressemblait au moment de sa mise en ligne et de quelle façon il a progressé ? Et même si j'aimerais en savoir plus sur ces questions, elles sont hors sujet. Comme je l'indique dans le premier post, mon analyse ne porte que sur des sites qui ne bénéficient d'aucune promotion et que l'on laisse "murir" de façon naturelle. Je n'affirme pas que, même dans ces conditions, il faut limiter la création de pages à 10 par mois. Je dis que ma précaution personnelle consiste à ajouter un maximum de 20 pages par mois et que ça semble marcher. Je suppose qu'au bout d'un an (ou peut-être avant), une fois que le site a réussi à obtenir des backlinks naturels et bénéficie d'une bonne côte de confiance de la part de Google, il n'y a plus la moindre limitation quand à sa vitesse de croissance. Mais je n'en suis pas encore là. Voilà qui m'intéresse. Mais tu ne précises pas combien les sites comportaient de pages lors de la mise en ligne et combien de temps ils ont mis à décoller. Pourrais-tu préciser ?
  16. Si, si, un peu quand même... Si le filtre "Duplicate Content" était aussi perfectionné que ce que fait CopyScape, il faudrait à Google des milliers d'ordinateurs rien que pour gérer cette fonction (chaque page devant être comparée à l'ensemble des pages du Web pour savoir si elle n'en constitue pas une copie plus ou moins importante). En réalité, et heureusement pour moi, ce filtre est une jolie passoire, comme on peut le constater tous les jours en regardant les résultats que nous propose Mister G. Je pense que Wikibis présente de réels avantages pour l'utilisateur (ou du moins pour une catégorie d'utilisateurs). Cela dit, ta remarque est pleine de bon sens : du point de vue des moteurs, le défi était en effet de ne pas tomber sous le coup d'une pénalité qui a toutes les raison de s'appliquer car elle n'est pas conçue pour gérer ce cas précis d'utilisation de contenus dupliqués. Je maintiens y être parvenu. Je renouvelle donc humblement ma demande : peut-on oublier le temps d'un post la question du Duplicate Content et revenir au sujet qui m'intéresse ? Dadou m'a proposé un contre-exemple très intéressant pour moi Quelqu'un d'autre a-t-il une expérience concernant la mise en ligne massive de pages lors de la création d'un site ?
  17. Juste histoire de réfléchir encore un peu à ce problème : personne n'a évoqué l'hypothèse du TrustRank, qui peut se résumer à "dis-moi vers qui tu fais des liens, je te dirais qui tu es". Je sais que cette idée est assez controversée, mais bon... Si l'un des sites vers lesquels il a établi des liens a une mauvaise côte auprès de Google, il semble logique que son site prenne le contre-coup.
  18. Ca t'embêterais de me donner l'adresse de ton site ? Ca m'intrigue !
  19. Un peu râpeux, à cause de l'âge. (c'est bien connu, tous les Yoda sont pluri-centenaires. Il faut croire qu'on est déjà très âgés à la naissance) ----> 120 pages mises en lignes d'un seul coup ? Ou 50 d'abord et le reste peu à peu ? [Edit] ... et après réflexion, je reviens sur l'une de tes remarques précédentes : l'étude réalisée sur RankSpirit date en fait de presque trois ans et c'est finalement une bonne chose car en regardant aujourd'hui comment sont placées les pages dupliquées (les pages ayant servi de base à l'étude sont toujours en ligne), on peut constater qu'elles sont toujours pénalisées au bout de 3 ans. L'hypothèse du Duplicate Content ne colle définitivement pas avec ce que je constate pour Wikibis : un décollage retardé, mais qui a bel et bien lieu au bout d'un certain délai.
  20. Allez, un bisou ! J'ai précisé dans ma première réponse que les humains ne voyaient pas les choses du même point de vue que les robots. Il est vrai que mon étude sur RankSpirit date de 2 ans, mais le projet Wikibis comportent suffisamment de pages (environ 15 000 à l'heure actuelle) pour constituer une bonne étude à lui tout seul. Encore une fois, il va falloir me croire sur parole ou étudier de près les différences, refaire les mêmes expérimentations que moi et comprendre à votre tour ce qui fait tomber une page dans le Duplicate Content ou non. Voilà qui est intéressant. J'étais arrivé à la conclusion que 50 pages étaient le maximum. C'est peut-être 55 ? Moi je me suis limité à 40 histoire d'avoir une petite marge de sécurité. Si quelqu'un à tenté une expérience avec 60 pages, ça nous permettra peut-être d'affiner la fourchette. En tout cas, la version anglaise ayant été publié après le français, ça ne contredit pas vraiment ce que je dis. Te souviens-tu combien de semaines ce sont écoulées entre les 2 mises en ligne ? Tu as peut-être échappé de très peu au problème que je signale. Ce n'est pas du tout qu'elles me déplaisent, mais je sais bien comment un sujet part facilement en vrille et j'aimerais beaucoup avoir des points de vue sur le sujet principal de mon post plutôt qu'une longue digression sur le Duplicate Content. Je peux bien évidemment me tromper sur la raison pour laquelle certains de mes sites décollent rapidement et d'autres non, mais on est quand même en train de parler d'une quarantaine de sites, pas d'un cas isolé et sujet à toutes les hypothèses. Si je suis aussi formel sur le Duplicate Content, c'est que j'ai vraiment creusé le bazard de très très prés. L'objectif précis de mon post est de savoir si d'autres webmasters ont constaté eux aussi une pénalité liée à un grand nombre de pages mis en ligne dès la création du site. L'idée est bonne mais ne correspond pas à mon expérience : les premiers sites étaient des sites totalement indépendants et ils ont quand même bien morflé quand je mettais des grandes quantités de pages en ligne d'un seul coup.
  21. Ha, ha ! je vois qu'on s'obstine !! Il va falloir me croire sur parole ou alors prendre le temps de comparer ces deux pages plus en détail. Je me permet d'être formel : seul le grand nombre de page lors de la mise en ligne à constitué un problème. A ce jour, mes 10 sites les plus anciens connaissent des fréquentations qui seraient absolument impossible si leurs pages étaient classées en "Duplicate Content". Peut-on fermer cette parenthèse et revenir au sujet ?
  22. Je m'attendais à cet argument, Dadou. Tu es le gagnant ! J'ai fait une longue étude sur le Duplicate Content pour savoir dans quel condition une page était considérée comme dupliquée ou non. (voir http://www.rankspirit.com/duplicate-content.php et http://www.rankspirit.com/resultats-experi...-duplicate.php) Wikibis ne tombe pas sous le couperet du Duplicate Content pour de nombreuses raisons (j'ai pris le maximum de précautions à cet effet) et notamment pour UNE très bonne raison : contrairement aux apparences (car nous, humains, ne fonctionnons pas comme des robots) ses pages ne sont pas des copies conformes de Wikipedia. Elles ont toutes fait l'objet d'une ré-écriture calculée pour que leur contenu soit considéré comme original par Google. Plusieurs des sites du réseau connaissent d'excellentes fréquentations et démontrent que la technique utilisée fonctionne. Combien de pages ton projet comportait-il et de quel façon a-t-il été mis en ligne ? En paquets ou tout d'un coup ?
  23. La Google sandbox qui s'applique aux nouveaux sites créés n'était pour moi qu'une vague rumeur. Créant mes sites un par un, en ajoutant progressivement des pages à chacun d'eux, je n'avais jamais eu l'occasion de l'expérimenter par moi-même et je me contentais de lire les comptes rendus affligés, publiés à ce sujet sur tous les forums consacrés au référencement. Puis je me suis lancé dans un projet de création de sites "industriel" et je met désormais en ligne des sites par dizaines, chacun d'eux comportant dès sa naissance plusieurs centaines de pages. BOUM! je tombe en plein sous le couperet. Cette expérience n'est pas encore terminée, mais je souhaite partager les premières conclusions auxquelles je suis arrivé afin de savoir si certains d'entre vous peuvent les contester, les confirmer ou les compléter : Les sites comportant plus de 50 pages lors de leur mise en ligne sont pénalisés pour une période de 6 mois dans les résultats de Google Les sites comportant plus de 150 pages sont pénalisés pour une période de 9 mois Les sites comportant plus de 500 pages sont pénalisés pour une période de 1 an Il va sans dire qu'un site bénéficiant de backlinks de qualité se mettant en place progressivement mais de façon soutenue pourra se débarrasser de la pénalité avant les délais ci-dessus. Ces délais ne sont donc valables que pour des sites ne faisant PAS l'objet d'une quelconque promotion et que l'on laisse "murir" de façon naturelle. Je suis parvenu à contourner cette limitation en procédant comme suit : Mettre en ligne un site limité à environ 40 pages Ajouter 10 pages au bout d'un mois Ajouter 20 pages chaque mois suivant, jusqu'à avoir mis en ligne toutes les pages En procédant de cette façon, je parviens à avoir environ 200 visiteurs par jour au bout de 6 mois, alors qu'en mettant tout en ligne dès le départ, je n'ai toujours que 20 à 30 visiteurs/jour au bout de 6 mois (ces chiffres sont des moyennes correspondant à des fréquentations mesurées sur des thèmes très variés). Petite conclusion accessoire : un site nouvellement mis en ligne avec une page d'index comportant une redirection sur une autre page (du même site) et envoyé directement en prison (sans toucher la prime). Autre conclusion accessoire : les revenus Adsense ne sont pas proportionnels à la fréquentation. Il restent médiocres tant que le site n'a pas atteint un minimum de 700 visiteurs/jours puis progressent à la vitesse grand V, même si le site stagne en fréquentation. Je ne doute pas qu'il y ait tout un tas d'exceptions à cette règle, car le fonctionnement d'Adsense est très complexe, mais je cite simplement un constatation faite sur mon panel de sites. Je reviendrais en détail sur mes hypothèses à ce sujet dans le forum consacré à Adsense. Petite constatation étonnée : certains sites semblent se débarrasser de la pénalité pendant 2 à 3 semaines puis retombent dans le bac à sable pour de bon. Dès que les visiteurs apportés par Google augmentent, les visiteurs apportés par Yahoo diminuent. Quand les visiteurs apportés par Google retombent, ceux apportés par Yahoo reprennent du poil de la bête. Je dois avouer que cette constatation me laisse extrêmement perplexe. Pour ceux qui voudraient en savoir un peu plus sur le panel de sites qui m'a amené à ces constatations et conclusions : Wikibis Vous accéderez aux différents sites en utilisant le menu de gauche.
  24. Bon, autant pour moi. Désolé d'avoir tiré la sonnette pour rien. Je trouve mal fichu qu'on me demande ces informations alors que Google lui-même me reconnaît immédiatement (sans doute grâce au cookies) quand je me connecte sur l'outil de recherche ou sur mon compte adsense. Merci à vous deux.
  25. C'est tellement simple que j'ai bien failli me faire avoir : - ce matin, mon outil d'analyse me signale 3 visites de mon site en provenance du site "xxxxxxxxx.blogspot.com" - curieux de connaitre ce nouveau referrer, je vais y faire un tour et je tombe sur la page suivante : Et hop, un peu plus et je donnais la clé de mon compte GMail à un parfait inconnu.
×
×
  • Créer...