Aller au contenu

Hibou57

Webmaster Régulier
  • Compteur de contenus

    50
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Hibou57

  1. . Bonjour, Rappel. Lasidoré n'ouvre que les fichiers XML valides. Exemple : un fichier qui commence par une déclaration <!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01//EN" &quot;http://www.w3.org/TR/html4/strict.dtd"> en première ligne, n'est que trés peu probablement un fichier XML valide. Au contraire, un fichier qui commence par <?xml version="1.0" encoding="utf-8"?> a de bien plus grandes chances d'être un fichier XML valide. J'en parle, parce que j'ai des logs d'erreur de l'application qui m'indique que l'application « a calé » (je vous rassure, pas planté quand-même) plusieurs fois aprés avoir eu a faire a des fichiers qui avait l'extention .xml mais qui arborait fièrement une déclaration HTML en guise de prolog. Évidement, ça ne peut pas marcher comme ça .... Puis plus loin Dixit XML 1.1 Second edition Note. la version XML 1.0 ne fait pas exception, et attend le même prolog, même si XML 1.0 et XML 1.1 diffèrent en d'autres points, elle sont toutes les deux unanimes sur ce point. Un fichier qui ne remplie pas ses conditions fondamentals ne peut pas être un fichier XML valide. Voilà, : et encore désolé de m'être permis ce ton un peu sévère.
  2. Oops, vrai, c'était sur France5. Je les confond facilement, parce que je les reçois encore sur le même canal. Pour le commentaire : J'ai trouvé le reportage bon-enfant, interessant, mais pas assez investigatif. Finalement ça n'était pas tout à fait ce que je pensais. Mais en même temps, les journalistes pouvaient-ils/elles vraiment aller plus loin ? Il y a eu quelques commentaires sur la technique de Google, qui est de tous dévorer avec des services entièrement gratuits (ce que seul un gros groupe peut se permettre), quelques commentaires fondées sur l'inovation sociale dans le travail (vis à vis des USA au moins), et des conscéquence avantageuses en matière d'inovation pour Google. Le classique ni-oui-non avec le "Google a l'air gentil, mais il ne l'est pas toujours autant qu'il veut le faire croire". Bref, Google est mi-figue-mi-raisin... comme beaucoup s'en doute souvent. Ça avait de l'intérêt pour les internautes en général (qui seront au moins maintenant sensibilisé-e-s à la question, ce qui n'est quand-même pas rien), mais pour les webmaster, peut-être moins. Des commentaires quand-même ? Ça vous a eveillez des questions ? Bon, maintenant le programme, c'est courses à Auchan....
  3. Bonjour les gens d'ici, Demain (vendredi 11 janvier 2008) sur Arte, est programmé un nouveau reportage sur Google. Il semble assez prometteur, et âmes sensibles s'abstenir, car le reportage semble assez polémique. Le reportage devrait être assez interessant à voir, dans le sens ou en langage webmaster, on peut peut accorder à Arte un bon TrustRank, et ce reportage devrait bien donc valoir au moins autant, sinon plus que certains blogs sur la question (ce reportage a été mené par des journalistes d'investigation). Alors préparez p'tits cafés et fauteuil confortable, et peut-être pourquoi pas se retrouver ici ensuite pour en discuter Bonne journée and happy webmastering PS : J'avais vu il y a quelques mois, un reportage sur le même thème, sur Arte également, et je l'avais déjà trouvé assez interessant tout en restant accessible au non-initié(e)s.
  4. C'est d'abord l'abscence de modération qui m'a invité à répondre moi même Entre cette réplique et la réponse que j'y ai faite il s'est tout de même passé un certain délais. Et j'ai au contraire trop l'habitude de la modération à deux vitesses.
  5. Non mais t'es plus culcul qu'un gamin de 10 ans toi ! Le gosse qui fait sa crise quand on lui répond normalment et qui s'aimagine que ça va passer inaperçu. Si tu le prend comme ça, inutile de te dire que je vais t'avoir à l'oeil sur tes réponse à mes poste. Des forums fait de malades de la tête j'en ai assez vu pour avoir appris à ne pas laisser passer, alors merci de ne pas jouer au con s'il te plait. Je te rappel que ce forum est publique et qu'il n'est pas constitué que du roi et de sa cours, et il serait bon de te mettre dans la tête que ta lecture faite n'est pas celle de tout le monde (oui, tu n'es pas le centre du monde) Et ton propos est largement ambigu : " L'apport de visibilité peut tout à fait se faire sans passer par la présence dans les moteurs. " C'est pas toi qui as écrit ça peut-être ? Ou alors avant t'insulter les gens tu pensera d'abord à mieux te faire comprendre. De deux chose l'une : 1) tu pensais à la visibilité au sens du référencement, et alors ce que tu disais là n'a pas de sens, puisque qu'on ne fait bien sûr pas du réféfencement dans les moteurs de recherche. 2) tu parlais de la visibilité au sens Yoovi du terme, mais alors dans ce cas ça n'a pas de sens de dire que l'on peut se passer des moteurs de recherche pour ça. Les réponses du rois et les craintes de sa cours je m'en moque.... ici c'est un forum publique, qui ne s'arrête pas à ton unique visite. A l'avenir, devant quelqu'un qui ne te comprend pas, agit au moins en professionel (tu parle de bosser, même toi de tes affaires... est-ce que je te demande si tu vote sarko... ?) et prend le temps de comprendre où tu t'es mal exprimé. Parce qu'à ce jeux d'imbécile je peux y jouer aussi : ouiin, le méchant tick y fait rien qu'à déformer tout mes propos. Bonne journée
  6. Le jour où les internautes se passeront des moteurs n'est pas encore pour aprés-demain. Et n'importe qui confirmera que les moteurs représentent au minimum 70%, voir même 80%, des visites sur les sites. Tandis que par exemple j'ai vu des statistiques sur l'apport de visite par les flux RSS par exemple (qui rentre dans la catégorie des moyens que tu site), qui montre que ce moyen ne représente jamais plus que 1% des visiteurs sur un site. Si le liens est le sang du web, le moteur de recherche est son coeur. EDIT : l'indice Yoovi intègre les deux ensembles : la visibilité dont du parle, et la position dans les moteurs de recherche (qui sont eux-même pondérés par leurs parts de marché respectives)
  7. Je me pose souvent la question de cette concurrence, et des abérrations qui viennent parfois avec elle. En effet, est-il vraiment interessant pour les internautes d'avoir plusieurs sites avec des contenus proches, et qui essaient de se passer les uns devant les autres ? Cette concurrence, et ces re-départ de zéro pour chaques sites concurrents, fait que l'on ne pousse pas assez en avant dans l'évolution du contenu. Plutôt que de toujours parler concurrence, peut-être devrait-on plus souvent envisager la collaboration dans la constitution des contenus. Et au lieu d'avoir par exemple 15 sites en concurrences, on aurait quatre ou cinq sites en concurrence, avec pour chacun des sites, deux ou trois webmasters qui collaboreraient à la constitution du contenu qui ne s'en trouverait que meilleur. Mais voilà, le web est trés individualiste.... Ce serait une autre approche du web et de la vie des sites, mais si la plupart des webmasters ne font pas confiance aux autres webmasters, ou s'ils ne vivent que de l'espoir de tout prendre aux autres, alors je crains que cette vision idéale ne puisse jamais voir le jour.
  8. Une réponse et une demande.... La réponse : il faut continuer à supporter les 800x600, pour que tout le monde puisse accéder au web. Je veux bien comprendre que construire des logements pour les pauvres demande de gros moyens financiers, etc, etc, et qu'on ne puisse pas le faire comme on voudrait. Mais là, faire du design en 800x600 ne demande qu'un peu de volonté et n'est pas une question de moyens matériels ou d'argent. Alors pas la peine d'en rajouter encore à l'exclusion... il y en a déjà bien assez comme ça. La demande : est-ce que quelqu'un(e) connait un barre d'outil qui permet de modifier la taille de la fenêtre IE ou Opera pour la faire passer en 800x600 et 640x480 ? C'est histoire de tester sur un écran large.... Note : la barre WAT (web accessibility tool bar) ne me convient pas, parce qu'elle m'a poser des problèmes (elle m'a laissé des petites saletés partout, impossibloe à desinstaller, et je n'ai pas du tout aimé ça)
  9. Pour citer un article du Hub (le référencement est-il une affaire de profesionnels/lles), le PR sert a départager des pages ou sites dont l'indice de pertinence est trés proche ou identique sur une requête donnée. Une requête concurentielle, est une requête à laquelle sont suceptible de répondre un grand nombre de sites, et donc statistiquement, pour lesquels un grand nombre de site on un bon indice de pertinence (concurrence oblige). En application de la première citation dans ce contexte, on concluera que dans le cas des requêtes concurentielles, c'est le PR qui fera la différence CQFD (ou alors c'est que la requête n'est pas concurrentielle, mais qu'il s'agit d'une requête spécifique qui fait passer devant un site qui par ailleurs répond fréquement à des requêtes concurentielles... ce qui est un cas différent) Il n'est pas nécéssaire d'avoir un bon PR pour apparaître en première position de Google, mais il est nécéssaiere d'avoir un bon PR pour apparaître en première position d'une requêtre concurentielle. Bémol et longue parenthèse : en dehors des premières positions, et en vertu de "la lois sur la prime de fraicheur" supposée de Google, il peut arriver qu'un site avec un indice à de pertinence égale à un autre site de PR pourtant plus élevé, passe devant le site à PR plus élevé... mais je n'ai jamais vu le cas se produire en première position : seulement dans les autres positions de la première page. De plus, ce n'est qu'épisodique, et cela n'apparaît donc pas dans un bilan sur le long terme.
  10. Awaaaaaahhhhhhh j'ai des liens de site, yak Je viens de m'apercevoir que j'en ai 6. Il n'y étais pas il y encore une semaine. J'suis content quand-même. C'est que Google s'interesse quand-même à mon contenu. Les liens de site sont pour le site de langue arabe (cf. ma signature) Beh, moi pareil, je ne les ai pas encore vu apparaître sur des requêtes, mais ça me fait plaisir quand-même... pour fêter la nouvelle année, c'est sympa. Bon, alors je vais me repencher sur le contenu de ce site et l'amméliorer encore (quand mon inspiration sera au clair) Si on se pose la question, voilà une utilité certaine et toute trouvée aux site-links : encourager les webmasters(resses) à aller encore plus en avant
  11. Sur des requêtes de traine, mais pas sur des requêtes concurentielles alors.. non ?
  12. Peut-être parce que les résultats qui se trouvent en première page de Google sont toujours les sites qui ont le plus grand PR Tu ne pense pas ?
  13. Tout ça n'est absoluement pas un mystère, et la source c'est Google lui-même : depuis la page de Google, allez dans "Mon compte", puis dans "Historique web"... elles sont tout simplement là les données auxquelles vous faites allusion. ... ça n'a rien d'un secret
  14. Je n'ai jamais dit que le contenu n'a pas d'importance, mais qu'il est secondaire. Et je connais un site qui contient de bonnes références dans son domaine (langue), qui ne reçois que 15 à 20 vistes par jours au grand maximum, alors qu'un site dont le contenu sur la question est objectivement pauvre pour qui connais la question en reçois 5000 à 6000 par jour. Comment tu explique ça alors ? Note : dans l'exemple que je prend je ne parle pas de mon site, initule donc d'y voir une logique partisane vis à vis de mon travail à moi. Que Google indexe du contenu, c'est sûr, mais qu'il soit capable d'en mesurer la pertinence, j'en doute plus. C'est une question de mesure : bien sûr que le contenu compte, mais seulement légérement (trop). Faire référence ? Mais comment ? Ce site à pauvre contenu sur son thème ne va pas aller faire de la pub pour l'autre site... et même au contraire, il va essayer de la plagier ou de le courcircuiter (ce que j'ai constaté personellement). Bon, maintenant l'internaute ne peut avoir aussi que ce qu'il est capable de recevoir : si un travail journalistique sur la politique russe, par un journaliste qui vient de passer 5 ans en russie fait infiniment moins de visite qu'un article sur les dernières frasque de Britney (ce qui demande infiniment moins de travail), c'est sûr aussi que l'internaute y est pour quelque chose... et Google suit....
  15. Oui, j'y suis moi-même pour un site Oui, et c'est bien ce que je me disais en re-visitant l'annuaire http://annuaire.mesprogrammes.net/ . J'en ai bien profité, avec une bonne description. Mais la plupart des sites n'en profitent pas, et y laisse la traditionel description de 250 caractères. Mais ça se comprend, puisque la plupart des annuaires ne permettent pas plus, alors chaque fois qu'il référence dans un annuaire, ils ont le reflexe de faire une description brève. Je m'arrache souvent les cheveux sur les annuaires pour raccourcir une description que je n'arrive pas à réduire. Je valide, ça me dit que la description est trop longue, je la racourci, je re-valide, on me re-dit que la description est re-trop longue, et je me demande comment je peut bien réduire encore plus. Alors j'élague sérieusement, et je n'arrive pas à parler de ce qui distingue mon contenu en si peu de mots. C'est la première chose que je n'ai jamais compris avec les annuaires. Je me suis toujours demandé d'où leur venais une idée aussi farfelue que d'imposé des descriptions aussi brèves. Peur du spam par la description ? La question reste ouverte... Mais à bien y regarder, les annuaires qui permettent une description longue sont d'une rareté inouïe. Je connais celui que j'ai cité, et encore de mémoire http://annuaire.indexweb.info/ qui permet lui aussi des description longue. Mais 99,9% des annuaires ne permettent pas des descriptions de plus de 250 caractères. Pour l'annuaire du hub, j'y ait un site référencé, et j'en ajouterai certainement un autre (quand le site sera au point). Par contre je ne me souviens plus de la longeur de la description permise.
  16. C'est dans la logique même de Google ; la logique de Google c'est le populisme Il ne renvoit pas ce qui est le plus pertinant ou le plus juste, mais ce qui plait le plus. Et ça fait une énorme différence. Le web selon Google, c'est un peu le people-web. Un peu encore aussi à la manière de Wikipédia (largement soutenu par Google), dans lequel la survie d'un texte est conditionné par l'approbation du plus grand nombre : Wikipédia, tout comme Google, sont les lieux des lieux communs.
  17. Totalement faux : je connais des sites avec un trés bon contenu et qui n'ont pourtant presque pas de visite, et des sites avec un contenu pauvre et qui ont beaucoup de visites. D'expérience, je dirais que ce qui fait la fréquentation d'un site, c'est par ordre d'importance Le référencement L'aspect visuel (ou la forme en général) Le contenu (le fond, qu'il soit textuel ou applicatif) Le contenu arrive en tout dernier... c'est immoral, je sais, mais c'est la triste réalité. En tous cas je constate que de s'évertuer à travailler le contenu et à créer du contenu original, c'est l'assurance de se retrouver être le didon de la farce. En fait, dans la liste précédente, je mettrais plutôt l'aspect visuel au même niveau que le référencement. L'expliquation est simple : Google est aveugle et ne comprend pas ce qu'il lit, et donc le contenu passe plus ou moins à la trappe s'il n'y a pas de référencement. Ensuite, en ce qui concerne la validation manuel des sites, les validateur ne lise pas le contenu d'un site, surtout si le site à beaucoup de contenu et que le contenu est profond, mais s'arrête généralement à forme plutôt qu'au fond. Bref, le contenu est malheureusement la dernière chose qui fait le succès d'un site. Quand je vois le travail fourni par certaines personnes sur certains site, et le peu de crédit qui leur est accordé par les moteurs de recherche, il y a d e quoi être dégouté(e) de travailler le fond.
  18. Je viens d'essayer avec le nom de site, tel qu'indiqué par les sites-links que tu donne dans un post plus bas, et je ne parviens pas non-plus à les faire ressortir avec une requête. En tous cas, ce que je constate, c'est qu'il n'y a aucun rapport entre les sites links et le traffique. Un site peut avoir un traffique faible et avoir des sites-link, ou ne pas avoir de sites-links et pourtant avoir un traffique plus important. J'ai lu de sources plus ou moins fiables (plutôt moins je pense) que les sites-links sont le signes d'un bon TrustRank. Mais je ne sais pas si c'est confirmé ou pas par Google. En tous cas, félicitations
  19. Je me pose jutement cette question de savoir à partir de quand le référencement dans les annuaires peut-il avoir un impact négatif. Ce qui me fait peur, c'est que au cours de ma première campagne de référencement, j'ai vu des annuaires qui n'étaient vraiment pas beau (sans parler des pubs du genre casino, argent facile et compagnie qu'on y trouve un peu partout) En ce qui concerne la mesure de l'impact des annuaires, que ce soit en positif ou en négatif, j'ai l'impression qu'on est toujours dans le vague et le trés approximatif, et j'aimerais beaucoup trouvé des mesures précises.
  20. Oui, un peu.... vraiment juste un peu. Pour donner une image, sur un site je suis à 75% d'arrivé par un moteur de recherche (principalement Google, obviously). Les 25% restant se partage en deux, dont la moitié environ d'arrivées directes (sans référant, par exemple depuis les marques pages) et l'autre moitié depuis des forums ou des sites spécialisé (les forums étant largement majoritaire). Les annuaires ne représentent même pas 1% des arrivées sur le site. Pour les revenus AdSense, Ok, je vois bien l'intérêt de Google, mais pour le fait de faire barrage aux sites commerciaux, je ne vois pas l'intérêt pour Google. Peux-tu en dire plus sur ta pensée ? Reformulé autrement, c'est exactement ça oui, c'est aussi ce que je voulais dire. En plus au passage on voit bien encore un exemple du dumping sociale qui sévit sur le web .... le travail à l'oeil pour les plus gros, c'est une manie sur le web
  21. Je dirais des cookies : tu place les données dans des cookies plutôt que dans des liens (les liens ne sont pas fait pour stoquer des données persistantes, mais pour communiquer des données transitionelles seulement) Quoique moi personellement, je n'utilise même pas de cookies, mais des données associées à l'IP. J'associe des données dans une mini base de donné (en fait un simple fichier sur le serveur), et j'utilise l'IP comme clé dans cette mini base. C'est un peu déliquat, parce qu'il faut contourner le problème des IP variables qu'on certain(e)s utilisateurs au cours d'une même cession. Mais ça apporte l'avantage de fonctionner même avec les utilisateur qui bloque les cookies et/ou le javascript. Si quelqu'un(e) a besoin d'un support au sujet de cette dernière technique (pour laquelle j'ai une expérience personelle), alors n'hésitez pas à me contacter en MP (possibilité de tarifs négociés, facturation non assujétie à la TVA)
  22. C'est ce que j'ai remarqué aussi : il comprend mieux la pertinence des pages qu'il renvoit. Ca change de Google qui annule artificiellement la pertinance des pages, tout empetré qu'il est dans la lutte contre le spam généré pas son propre monopol. Mieux qu'un lien dans les marque page, je crois qu'un lien depuis nos pages d'accueil est une encore bien meilleur idée (que j'ai appliqué moi-même depuis un certains temps) Le seul bémol pour l'instant, c'est que le nombre de page indéxées n'est pas aussi important qu'avec Google. Mais j'ai quand-même remarqué qu'il a l'indexation plus efficace : il n'a besoin que d'un seul passage pour faire un travail qui nécéssiterait des dizaine de passages à Google ou Yahoo (bref, le premier est en train de s'effondrer sous son propre poid) Autre point noir d'Exalead tout de même, c'est que la conception du site le rend inutilisable (trop grande lenteur) sur les anciennes machines du genre les Pentium avec Windows98 (parce que les pauvres ça existe toujours, et que changer de PC n'est jamais gratuit, il faut y penser aussi) Sinon à part ces deux points noirs (dont le premier se corrigera peut-être rapidement avec le temps), il est vraiment interessant
  23. Alors ouvrir un blog ? Comment faire alors ? J'en ai référencé un avec des annuaires. Puis le référencement naturel est venu. Depuis je ne fais même plus de référencement pour ce site, et je compte sur son petit PR pour recevoir des visites via les requêtes Google. Mais pour amorcer, quelle est la meilleure solution alors ? En fait, j'aimerais me passer des annuaires, parce que quand j'ai fait le référencement du premier site par des annuaires, j'ai vu des annuaires pas beaux (je doutais en même temps que je référencais)
  24. Ou encore cela signifierait que le site qui contient des liens en nofollow est plutôt un mauvais site au contraire, car un site ou un blog bien géré ne devrait pas contenir de garbages. Comme tu le dis si bien toi-même : sur le webmaster-hub, le spam n'a qu'une durée de vie trés courte (ce qui signifie que le webmaster-hub est un site bien géré). Et donc le nofollow serait censé déchargé les webmaster de la gestion de leur contenu ??? Qui dit nofollow, dit site mal géré, et donc mauvais site... (non pas pour le site lié, mais pour le site qui contient le lien, bien sûr)
  25. Je serais curieux de connaître ta source, et je pense que beaucoup d'autres aussi Google tiens compte des liens en nofollow, mais seulement pour l'exploration du web. Par contre il n'en tiens aucun compte pour déterminer la pertinence accordée à une page : les liens nofollow, sont des liens marqués comme non-pertinants. Les liens dans Wikipédia n'apporte que des visites directe, mais aucun bénéfice pour la page qui est co nsidérée comme nulle par la seule présence de l'attribut "nofollow"
×
×
  • Créer...