Aller au contenu

Stephane

Hubmaster
  • Compteur de contenus

    809
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Stephane

  1. Tout dépend de quelle "sémantique" on parle. Au delà de la "Web semantics", l'introduction d'une dose de vraie sémantique (cf. le lien donné par Kimberly) dans l'algo d'un moteur pourrait constituer une avancée si considérable de la qualité de recherche qu'un moteur disposant d'un minimum de moyens pourrait se tailler de jolies parts de marché dans le contexte actuel. Je ne doute pas que cela puisse tenter certains Tu es peut-être séparé, toi, de la "problématique du moteur de recherche", mais dans ce cas tu es une exception Aucun risque pour le moment en effet. Mais la question qui se pose est de savoir dans quel sens les moteurs vont évoluer. Car ils vont évoluer très rapidement à partir de maintenant, c'est certain. L'introduction du nofollow est un aveu d'échec de ce modèle d'algorithme, auquel collent également Yahoo et MSN. Google explorera probablement des voies différentes dans les mois qui viennent, suivi de près par ses deux imitateurs les plus fidèles. Lesquelles ? On verra bien et on s'adaptera à ce moment là. Mais malheureusement la tentation va sûrement être grande pour eux de coller aux "standards d'usage" (qui deviendraient immédiatement les nouveaux standards du référencement). C'est en tous cas moins coûteux pour eux que de développer des technologies réellement innovantes.
  2. Pas de souci Denis, je ne l'avais pas mal mal pris J'aurais par contre été désolé que tu ne poursuive pas sur ce débat. J'apprends beaucoup, notamment à la lecture de tes interventions. L'un des mérites à mon avis de l'article d'Arno est de mettre en évidence le malaise et l'incompréhension mutuelle qui imprègne aujourd'hui tout débat sur les standards, celui-ci y compris. Loin d'un débat pacifié et productif, on voit des protagonistes s'accuser mutuellement d'être une "élite technicienne" d'une part ou "des ignares de non-informaticiens qu'il faudrait empêcher au plus vite de produire des pages web" d'autre part. Caricatural peut-être, mais le malaise est toujours bien sensible (on en a un bon exemple avec cette discussion), ce qui semble ralentir l'ouverture d'un débat dépassionné et rationnel. Personnellement, je pense comme l'ont déjà dit Laurent et Kimberlyclarko qu'il ne faut pas enterrer le Html, et que les développeurs ont intérêt à rassurer "Mr tout le monde" sur ce point. Pour revenir sur le sujet de la dépréciation des metadonnées, il est évident que les moteurs ont fait ce choix pour s'adapter à un standard d'usage. La réalité est que l'immense majorité des développeurs ne les utilisent pas (et que la plupart des autres ne savent pas les utiliser correctement), et c'est bien pour cette raison que les principaux moteurs n'en tiennent pas compte (ou presque pas). Les moteurs, et en premier lieu Google, sont aussi responsables de cette situation, puisqu'en ignorant l'utilité des balises Meta, et en le faisant largement savoir, ils encouragent davantage de développeurs à ne pas les utiliser... Accuser les référenceurs de la dépréciation des balises Meta est donc effectivement une enormité. A ce propos, j'avoue que je suis assez surpris que dans le cadre d'un débat sur "référencement et standards", personne n'ait encore évoqué le rôle actif du principal acteur de cette problématique : les moteurs de recherche eux-mêmes. Au mieux, certains intervenants ont présenté les moteurs comme "victimes" de "détournements", ce qui revient à nier totalement leur responsabilité dans ce domaine. Or, les moteurs majeurs influencent bien plus l'évolution du web que ne peut le faire actuellement le W3C. On aura l'occasion ces prochaines semaines je pense de le vérifier grandeur nature suite à l'initiative du rel="nofollow" Vous êtes vous déjà demandé par exemple pourquoi les moteurs attachent de l'importance aux balises H1 ? Début de reconnaissance du "Web Sémantique" ? Pas du tout... juste un moyen bien commode pour Altavista à l'époque de pouvoir analyser un tant soit peu le "vieux web" conçu à l'origine pour fonctionner sous Mosaïc ou Netscape 2. Si ce critère a été maintenu jusqu'à aujourd'hui et copié par des moteurs plus récents, c'est en grande partie une conséquence du lobbying des référenceurs qui ont encouragé depuis des années leurs clients à l'utiliser (et par la même occasion à utiliser le CSS puisqu'on n'est pas masos non plus ) Les moteurs auraient tout aussi bien pu faire un choix différent... et ils le peuvent encore aujourd'hui. Que se passerait-il si un acteur majeur du marché (au hasard Google) décidait du jour au lendemain de ne plus prendre en compte les H1 pour leur préférer les <font size="x"> sous le prétexte que ce serait une balise plus "moderne" ou plus massivement utilisée ? Et bien, je pense que presque tout le monde suivrait (moi y compris ), non pas par choix, mais par simple nécessité économique...
  3. C'est clair qu'insulter ses interlocuteurs dans le cadre d'un débat avec un "les référenceurs sont des escrocs" ne fera pas avancer les choses... Cela en dit long seulement sur le refus de tout débat de la part de certains. Mais bon, revenons au débat et oublions jpv... Do not feed the troll...
  4. Joli troll mais un peu "exagéré" quand même, je ne suis pas sûr que ça marche Et au passage, joli détournement sémantique d'utiliser un "code" au lieu d'un "quote" Tu as raison, la présentation est plus jolie
  5. C'est le baromètre Estat de décembre dernier, non ? donc avant le lancement de la beta publique. Va falloir attendre un peu avant de voir ce que MSN peut décrocher comme parts d'audience... Sur les sites que je surveille, c'est très très variable, même si c'est déjà à la hausse partout. A mon avis, c'est surtout le lancement de leur campagne de com fin février qui sera décisif. Wait and see...
  6. Ton propos Olivier m'a tout de suite fait penser à l'excellent W3C Go Home C'est vrai qu'il faut que le web reste ce qu'il est, ouvert à la fois aux "pros" et à tout le monde. D'ailleurs même parmi les "pros", les codeurs ne sont pas les seuls à faire avancer le web. Quelle solution pour que le web reste un espace ouvert et un espace de liberté dans ces conditions ? L'arrivée d'éditeurs wysiwig "intelligents" serait déjà un progrès certain. L'apparition actuelle de CMS standards va aussi dans le bon sens. Mais surtout, je pense que la solution est que les éditeurs de navigateurs continuent de faire des logiciels permissifs. La démarche d'Opera, par exemple, qui version après version accepte quelques balises propriétaires de plus va dans le bon sens, même si je me doute que cela doit faire hurler les puristes. Il serait dommage de condamner toute une partie du web qui n'est pas forcément constituée que de pages multimania avec gifs animés mal compressés.
  7. Tout à fait d'accord avec toi Je voulais simplement manifester un léger agacement face à quelques webmasters prétendant donner des leçons d'accessibilité sous le seul angle des standards, alors que je ne peux consulter péniblement leurs sites qu'à coups de Ctrl-A sur toutes les pages...
  8. Je ne sais pas si la séparation du fond et de la forme est un concept anglo-saxon, mais cette définition de la liberté l'est assurément Personnellement, je préfère encore celle-ci : "La liberté d'autrui étend la mienne à l'infini" (Bakounine je crois...) puisque beaucoup moins individualiste. Désolé pour le hors-sujet mais ce n'en est peut-être pas un après tout... Le détournement d'usages ou de "standards", que ce soit dans un but de référencement ou autres, est parfois source de découvertes, de créativité, voire d'invention de nouveaux usages, de nouveaux standards... Bien sûr, il ne faut pas inciter à le faire puisque cela peut-être un facteur nuisible à l'accessibilité. Mais il ne faut rien interdire non plus Reconnaissons aussi que la conformité au W3C n'est pas une condition suffisante, ni même nécessaire d'accessibilité. En tant que daltonien, je remarque par exemple que la même proportion (si ce n'est plus) de sites valides W3C me sont inaccessibles ou difficiles d'accès.
  9. Ca fait plaisir de voir autant de filles compréhensives, en dehors des geekettes bien sûr Bravo aux Copines
  10. J'ai déjà proposé quelque chose deux posts plus haut. Mais pour clarifier, mon opinion est qu'il faut pénaliser lourdement les liens sortants émanant des blogs, de façon à soulager ceux-ci une fois pour toutes du spam de commentaires, mais aussi et surtout pour améliorer la qualité des résultats de recherche. Par qui ? Par les moteurs bien sûr. L'enjeu est d'améliorer la pertinence de la recherche. Je ne vois qu'un seul type d'acteur dont ce soit le métier et le fonds de commerce. Peut-être, mais c'est leur boulot après tout. Et eux sont payés pour ça C'est justement ce qui me fait craindre que le système soit dévoyé... A mon avis, on se dirige tout droit vers la monétisation des liens en dur sur les blogs, donc l'institutionalisation et l'industrialisation du spam de commentaires. Au-delà des blogs (qui sont après tout très peu concernés par cette annonce), je vois d'autres dérives possibles. Ne voulant pas crossposter, voila un lien vers ce que j'écrivais tout à l'heure sur un autre forum.
  11. Je pense que ça aussi c'est faisable. Ca ne doit pas être trop compliqué de modéliser la structure d'un weblog ou d'un guestbook. Mais même sans aller jusque là, il y a peut-être plus simple déjà. Quelle est la proportion de blogs fonctionnant à partir d'un CMS ? 90% ? Plus ? Ca doit être à peu pres la même proportion pour les guestbooks, il est rare que les webmasters codent ce genre de chose "à la main". Traiter déjà les blogs utilisant un CMS identifiable serait une grande avancée. Le spam de commentaire deviendrait quasiment inutile, et plus compliqué d'autre part à cause justement de la difficulté (pour eux aussi) à détecter de manière automatique les blogs "homemade" acceptant les liens en commentaires.
  12. Dans le cas de Google, un seul mot peut suffire (mais tout dépend où il est placé) C'est le résultat d'un petit test que j'avais fait durant le concours Seraphim Proudleduck. L'un des concurrents avait essayé de faire pénaliser ma page de participation en faisant un lien vers celle-ci, avec un paramètre supplémentaire dans l'url. Résultat, duplicate content puisque Google se retrouvait avec une page strictement identique sous deux urls différentes. Ce à quoi j'ai simplement riposté en ajoutant un seul mot dans la page appelée par la 2ème url. Le mot était placé à la fois en fin de balise Title, et tout en haut du code source juste après le Body. Apparemment cela suffit pour passer le filtre de dédoublonnage sur Google. Donc, je pense qu'il ne faut pas raisonner forcément en termes de pourcentage de similarité et que Google attache plus d'importance aux différences de contenu entre certains éléments du code source (balise Title, 1er paragraphe de texte...)
  13. Ce n'est pas vraiment étonnant. On ne peut comparer deux moteurs que sur des fonctionnalités existantes de part et d'autre. Or, il n'existe pas de vraie commande "link" sur Google, contrairement à MSN et Yahoo (commande linkdomain pour ce dernier)
  14. On n'en sait rien pour le moment, et les promoteurs de ce nouvel attribut ne le savent probablement pas non plus. Je n'ai pas fait d'études scientifiques à Stanford bien sûr, mais a priori une solution "algorithmique" au spam de weblogs ne me semble pas complètement utopique. Juste un petit exemple trivial. pour tous les liens externes d'un weblog : - Apport en popularité du BL = apport du BL x 0,001 - Apport "anchor-text" du BL = apport du BL x 0,001 pour tous les liens externes d'un guestbook : - Apport en popularité du BL = apport du BL x 0,0001 - Apport "anchor-text" du BL = nul Bien sûr, je suis convaincu que tous ces ingénieurs et docteurs es mathématiques pourraient nous trouver des solutions beaucoup plus sophistiquées et ingénieuses.
  15. Pour ma part, je dirais que je ne vois pas en quoi c'est une "solution" à quoi que ce soit. Depuis longtemps, il était possible à un webmaster de réaliser la même chose par un lien javascript. Apparemment cela ne suffisait pas, puisqu'une partie de la communauté des bloggers (mais aussi des référenceurs) interpelait régulièrement les moteurs de recherche afin qu'ils résolvent le problème eux-mêmes une fois pour toutes. La réponse de Google-Yahoo-MSN est enfin arrivée... Et celle-ci est : "continuez de vous débrouiller sans nous et de bricoler"
  16. Quelques commentaires en vrac à cette annonce : - il s'agit bien d'un début de reconnaissance du cloaking par les 3 moteurs majeurs, et cela aura certainement des conséquences... - cette décision entre en contradiction avec deux éléments majeurs du credo de Google : "développez votre site pour l'internaute" et "ne manipulez pas le PageRank". Il s'agit bien d'un encouragement de Google à "manipuler" encore plus le PageRank. Il sera intéressant de voir comment ils vont gérer cette contradiction... - point positif : c'est le premier cas à ma connaissance d'une coopération aussi visible entre les trois principaux acteurs du marché, et j'avoue que ça fait plaisir à voir Tout comme l'émulation née de la concurrence, la coopération entre concurrents peut être un moteur d'innovation. Au moins le marché cesse de stagner, pour enfin avancer (bien qu'on ne sache pas encore dans quelle direction). - point négatif : une fois de plus, comme avec le spamreport de Google, les moteurs se reposent sur le travail des webmasters plutôt que sur l'amélioration de leurs algorithmes (qui est censé être leur coeur de métier) J'en comprends très bien la motivation économique... mais j'espère qu'ils sont conscients que ça risque de se retourner contre eux un jour.
  17. Bonjour Mireille, Parmi les possibilités "gratuites" (le temps c'est aussi de l'argent...) : - corriger ta signature sur le Hub, il manque le .be je crois - publier un feed rss de la rubrique actu de ton site (parfois cela peut même booster le référencement s'il est repris sur d'autres sites) - organiser un évènement en lien avec le site (difficile evec un budget de zéro mais pas impossible) - la mise en place d'une newsletter (pour faire revenir les visiteurs) - l'optimisation du référencement et la chasse aux backlinks puisque c'est un travail sans fin...
  18. De mémoire, je crois avoir payé 69 dollars (environ 50 euros) pour racheter un domaine par ce moyen via Snapnames. Mais les tarifs ont peut être changé. J'avais aussi fait un essai (raté) via un autre prestataire en France, qui m'avait coûté moins de 50 euros. Je ne me souviens plus du nom de celui-là, mais je peux le retrouver si tu veux éviter la même mésaventure
  19. Ma remarque sur le fait que j'aimerais bien associer d'autres référenceurs ne doit pas être comprise comme une volonté d'exclure les "non-pros". Au contraire, toutes les bonnes volontés sont les bienvenues. Ce que je voulais dire en fait, c'est que ce serait une bonne occasion de bosser entre "concurrents" sur une initiative concrète. Et le forum "Référencement pro" du Hub me paraissait l'endroit idéal pour soumettre ce projet. Il n'y aurait rien à gagner dans le fait de participer à l'organisation (au contraire, c'est le genre de projet qui peut demander du temps et des efforts), sinon le fait de faire avancer ensemble le marché en récompensant les meilleurs moteurs de recherche et en encourageant les autres dans le même sens. Merci en tous cas pour vos encouragements, et vos propositions de contribuer à ce projet d'étude indépendante Comme je vois que cela intéresse déjà au moins quelques personnes, je commence à avancer...
  20. Depuis quelques temps, je réflechis à la possibilité d'organiser un test comparatif de pertinence des moteurs. Cela nous permettrait d'évaluer enfin de manière objective la qualité des résultats proposés par les principaux moteurs de recherche. Jusqu'à présent, la subjectivité ("mon site est mieux classé sur ce moteur, donc le moteur est meilleur") et les habitudes empêchent de tirer toute conclusion sur ce qui devrait être le critère d'appréciation numéro un de la qualité de chaque moteur. Je sais bien qu'il y a déjà eu des études réalisées à ce sujet, mais je remarque que celles-ci sont toujours commanditées par un moteur de recherche, et donnent (comme par hasard) toujours gagnant le moteur commanditaire de l'étude. Sont ainsi sortis vainqueurs jusqu'à présent des blind-tests, Google sur une étude commanditée par Google, Inktomi sur une étude commanditée par Inktomi, et Altavista sur une étude commanditée par Altavista... Etrange non ? Le tout réalisé par la même société... Bref, je pense donc à organiser moi-même un nouveau blindtest. Mais je préfererais le coorganiser avec d'autres. Si possible avec d'autres référenceurs, puisqu'on est tous concernés par le sujet. Par souci d'indépendance, il vaudrait mieux par contre qu'aucun moteur ne soit partie prenante de l'initiative. Y en a-t-il qui seraient intéressés parmi vous ? Le principe pourrait être le suivant : - constituer un panel d'internautes - préparer un protocole de test, notamment une série de requêtes couvrant à la fois des recherches commerciales / non-commerciales, concurrentielles / non-concurrentielles, B2B / B2C... - organiser le test de ces requetes par le panel sur des pages de résultats "blanches" (expurgées de tout élément permettant de reconnaître le moteur) en faisant attribuer une note à chaque page de résultats proposée - analyser les résultats et les publier
  21. En effet, et ce n'est pas étonnant. Le défunt moteur Inktomi, racheté par Yahoo et composant principal du moteur YST le faisait déjà à l'époque. Je pense également que Yahoo tient compte d'une sorte d'indice de clic, mais ce ne serait qu'un critère mineur parmi des dizaines d'autres. A noter que Google fait aussi occasionnellement du tracking sur ses résultats. Par contre, Google affirme ne pas en tenir compte dans ses critères de classement. Je suis convaincu que c'est impossible, et heureusement d'ailleurs Leur systême de tracking est probablement moins simple que ce que tu crois. A mon avis, ce n'est pas un simple système de comptage de clics, te donnant des points de scoring proportionnels au nombre de visites. Je pense qu'ils mettent en relation le nombre de clics avec la position occupée, et qu'ils tiennent compte également du temps moyen de consultation des sites (basé sur le nombre de retour sur les pages de résultats de leur moteur)
  22. Des cas concrets de quoi ? Que le message des standards ne passe pas ? Quel est le pourcentage de sites valides W3C ? 1% ? moins ? un peu étrange pour ce qui est censé être un "standard", non ? L'exemple m'a fait sourire Habituellement j'évite ce genre de comparaisons sur un forum, sauf lorsque je veux marquer des points Godwin, mais là on est sur le Hub donc pas de souci Je te propose de considérer la question sous un autre angle. Qu'est ce qui est le plus important ? La manière dont tu "considère les choses" ? ou que ton message passe... ? Je suis un marketer, donc quelqu'un de pragmatique, ce qui me conduit généralement à choisir la deuxième option. Seule l'efficacité compte. Une obligation légale d'accessibilité des sites d'entreprise serait une très mauvaise pub pour l'accessibilité elle-même... Voter une loi ne suffit pas à ce qu'elle soit appliquée. Pour reprendre ton exemple, le racisme est en effet illégal en France. Est-ce que le racisme a pour autant disparu de notre pays depuis le vote de la loi Gayssot ? Est-ce que le racisme aurait même simplement diminué depuis cette loi ? Non bien sûr. Une loi rendant l'accessibilité obligatoire ne serait pas appliquée non plus. Pire, les premiers à pâtir d'une telle loi seraient précisément ceux que la loi prétendrait protéger. La conséquence d'une obligation légale d'accessibilité serait logiquement la mise en ligne de versions au rabais de leur site pour les handicapés (version texte par exemple) par les entreprises souhaitant se mettre en règle à peu de frais.
  23. Autant ce projet de loi concernant les services publics me paraît a priori (je ne l'ai pas lu) une bonne chose, autant vouloir étendre ces obligations aux entreprises serait à mon avis une absurdité, en dehors du fait que ce serait évidemment impossible. Un site web est un espace privé. Tu as le droit d'y mettre ce que tu veux et d'en autoriser l'accès à qui tu veux tant que tu ne nuis à personne. S'il me prenait l'envie de bloquer l'accès de mon site aux utilisateurs de Netscape ou de Broutzilla ou autre chose, c'est mon droit le plus strict, surtout s'il y a un intérêt économique à ma décision. Si je gère une boutique en-ligne de vente de Cd musicaux et que je souhaite en interdire l'accès aux sourds, les discours creux sur "l'éthique" ou le "bien-être global" ne m'empêcheront certainement pas de le faire. Si nous ne voulons pas que l'évangile de l'accessibilité se discrédite aussi vite que celui des "standards", évitons de commettre les mêmes erreurs... Il faut inciter plutôt qu'imposer, donner envie plutôt que culpabiliser.
  24. En termes d'accessibilité, le passage de Shockwave à Flash sera déjà un progrès important je pense. D'après ces statistiques, 98,2% des internautes disposent du player Flash, contre seulement 55,5% pour Shockwave. Ce rapport de Jakob Nielsen présentant des recommandations pour l'amélioration de l'accessibilité des sites Flash te sera peut-être utile. http://www.nngroup.com/reports/accessibility/flash/
  25. Qu'un site soit personnel ou professionnel n'importe pas. Le contenu t'appartient, même s'il s'agit simplement d'une sélection d'adresses. Crois-tu qu'un annuaire comme Yahoo hésiterait une seule seconde avant de t'attaquer si tu reproduisait leur contenu (des liens) sur ton site ? Le dépot est facultatif. En fait, tu peux faire la preuve de la propriété de ton contenu par tout moyen. Exemple : un cd de ton site que tu t'envoie toi-même avec A/R, ou bien prouver l'antériorité grâce au site Archive.org... Je te conseille d'envoyer une mise en demeure au responsable du site à chaque fois que tu constates une reprise illégale de ton contenu. Inutile de leur indiquer que tu n'as pas vraiment l'intention de leur faire un procès, ils n'ont pas besoin de le savoir
×
×
  • Créer...