Aller au contenu

Dan

Direction
  • Compteur de contenus

    30 688
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Dan

  1. Salut Dino, J'ai précisé ma pensée dans le dernier post à beatnykk. En fait, ces "culs de sac" sont appelées dans le papier de L. Page des "dangling pages". Et les liens qui mènent vers elles sont des "Dangling Links". Ces liens sont "retirés" avant le calcul du PageRank pour ne pas fausser l'algorithme. Ces pages sont donc "perdues", en tout cas en ce qui concerne le PageRank. Le risque est qu'elles finissent par être perdues tout court... quand on a un pied dehors, le reste peut suivre. Le risque est le suivant, et tu peux le visualiser en enlevant mentalement ces pages "cul de sac": est ce que les pages qui pointaient vers ces "culs de sacs" n'en deviennent pas elles-mêmes à leur tour ? Parce que dans ce cas, c'est un peu comme des dominos, le premier entraîne les autres. Il serait sage d'avoir au moins un lien retour sur CHAQUE page, et dans ce cas là tu minimises la perte de pagerank. Cordialement, Dan
  2. Beatnykk, Le bot va bien voir toutes les pages pour lesquelles il a un lien (pas en javascript) au départ de la home page. Le problème est que les liens vers des pages qui ne pointent nulle part sont considérés comme "dangling links" et sont retirés avant le calcul du pagerank. Malheureusement, on ne voit pas très souvent ces pages être rajoutées après ce calcul du pagerank bien que le papier de Larry Page prétende le contraire... De toutes manières, une chose est certaine, c'est que ces pages ne contribuent pas au PageRank du site (même quand elles sont dans l'index). Il est de la première importance d'avoir un chaînage correct de toutes les pages de ton site, qui devraient toutes avoir au moins un lien vers la page d'accueil... Je te suggère de parcourir l'article sur le PageRank expliqué qui pourra certainement t'éclairer sur ce point. Dan
  3. Salut Napo, Les DNS (Domain Name Servers) sont les serveurs de noms de domaine. Lorsque tu "loges" ton site chez un hébergeur, ce sont ses propres serveurs de noms qui propagent l'adresse IP(Internet Protocol) du serveur sur lequel ton site se trouve. Ce sont en quelque sorte les "annuaires téléphoniques du Net" qui permettent de transformer un nom comme webmaster-hub.com en adresse (équivalent au numéro de téléphone), dans le cas du Hub 213.186.33.16 Renseigner les DNS pour un domaine revient à donner le nom ou l'adresse des serveurs de noms de l'hébergeur. Toujours dans le cas d'OVH, ces serveur s'appellent dns.ovh.net et ns.ovh.net. Si le registrar du domaine webmaster-hub.com était Gandi, il me suffirait de mentionner les noms de ces 2 DNS dans le champ approprié et faire ainsi savoir sur la toile que c'est OVH qui héberge le domaine. Dan
  4. Salut MagiX, A mon sens parce que Xiti n'a configuré le soft de son côté que pour reconnaître ce qu'ils considèrent comme les "moteurs principaux" en se basant sans doute sur le % de requêtes et la répartition de celles-ci, et peut-être quelques moteurs "partenaires" comme viper. Même des outils d'analyse de logs payants (et chers) comme Webtrends ou NetTracker n'ont pas une liste exhaustive des moteurs mondiaux. Si on veut reconnaître un moteur comme D*****, il faut les configurer. Dan PS: tu fais l'amalgame entre le moteur ApocalX et le film ...
  5. Salut anonymus, tu as raison, j'ai édité le titre du post. Dan
  6. Une petite idée, mais il a déjà été battu depuis: http://www.llanfairpwllgwyngyllgogerychwyr...iogogogoch.com/ C'est pas mal déjà, mais il n'y a pas beaucoup de mots clés Cela signifie néanmoins quelque chose:
  7. Ok jean-mi, mais reconnaît que ta question était un peu "floue" Avant toutes choses, tu peux éditer ton profil pour y mettre ton site. Cela te fera un peu de pub et cela permet à celui qui te répond de savoir de quel site tu parles. En ce qui concerne les noms de domaines, il vaut mieux que les mots clés soient séparés par un tiret. Regarde webmaster-hub.com par exemple... ou seo-support.com , c'est pareil. En mettant monforum.com, aucun moteur n'en ressortira le mot clé forum, alors que mon-forum.com permettra d'avoir le mot forum dans l'url. Donc il est des cas où il est bien préférable d'avoir 2 mots (ou 3) sans non plus tomber dans l'exagération. Et pour reprendre un autre exemple, forum-achat.com est mieux que mon-forum.com car à moins de vouloir être bien classé sur le mot "mon", il vaut mieux que les 2 mots soient des mots clés. Remplace "achat" par le mot qui décrit le mieux ton forum, bien sûr Dan
  8. Napo, L'exemple que tu cites n'est pas bon, comme Online n'est pas registrar. Tous les domaines achetés à travers Online, ont comme registrar BookMyName ... et avaient avant cela Joker GMBH (société allemande) Tu peux très bien acheter toi même ton nom de domaine chez un registrar, mais tous n'offrent pas les mêmes facilités de gestion. Si tu veux pouvoir gérer l'intégralité des paramètres d'un nom de domaine (y compris les champs MX pour les emails) tu peux le faire transférer chez OVH. (mais il y a d'autres registrars qui offrent ce type de service) Une fois chez OVH, tu peux décider de faire gérer les dns du domaine par OVH, et dans ce cas, tu es en mesure de gérer l'ensemble des paramètres du domaine, même si l'hébergement est ailleurs. Cordialement, Dan
  9. Salut napo et bienvenue sur le Hub ! Tu n'es pas très explicite dans ta question... pourrais-tu développer un peu ? Si du moins tu espères une réponse et que ton post n'avait pas pour seul but de poster une URL vers ton site ... Dan
  10. Salut Seb, Comme répondu à ton MP, le code que tu m'envoies n'est pas celui qui génère la variable deb (ni la partie &deb de l'URL). Tu devrais faire une recherche globale sur tes fichiers pour trouver l'endroit où cette variable est ajoutée au lien. Dan
  11. Bonjour beatnykk, et bienvenue à bord du Hub ! Le principal problème auquel fait face ton site en matière de référencement vient de l'utilisation des frames. Sur ta page d'accueil, tu as bien une partie <noframe>, mais le premier lien qu'on y trouve mène à une page avec un autre frameset... La meilleure manière de visualiser ce qu'un robot d'indexation voit de ton site est encore en utilisant le "Lynx viewer" que tu trouveras sur le site delorie.com. Tu pourras y voir sur chaque page exactement ce que voit un moteur et te rendra compte que nombre d'entre elles sont des "culs-de-sac"... Je veux dire par là que comme les moteurs ne reconnaissent et n'interprètent pas le javascript, une page comme: http://www.spotdating.com/htm/pagintro.html est pour eux un véritable piège. C'est une page qui ne comporte aucun lien et ne peut donc être reliée au reste du Web. La plupart des moteurs, dont Google, laissent donc ces pages de côté. Si cette page pagintro.html est abandonnée par un moteur tel que Google, toute autre page pointant uniquement vers cette page "abandonnée" est réputée ne pointer vers rien d'utile... et est abandonnée à son tour. Ce qui en remontant vers la racine du site fait que toutes les pages sont considérées comme ne pointant vers rien... par terrible pour un référencement. Mais c'est ce qui explique pourquoi ton site a disparu après la dernière dence (après le calcul des liens inter-pages) comme tes pages créent une "anomalie" pour l'algorithme du pagerank; Il suffit de visualiser la page pagintro.html en ayant désactivé javascript pour s'en rendre compte... et de nombreuses autres pages sont malheureusement construites sur le même modèle. Pour bien faire, aucune page d'un site ne devrait être un cul de sac et elles devraient toutes être reliées au moins vers la page d'accueil. Tu as donc pas mal de pain sur la planche... Dan
  12. Salut BZHcool, Ton code a l'air correct, mais ce n'est manifestement pas dans cette partie de code que la variable deb est rajoutée à l'URL. C'est manifestement la partie que tu as oubliée... Tout le début de l'URL (ce qui précède &deb) est par contre correct, ce qui se vérifie dans l'URL que tu crées. Fais une recherche dans tes sources pour trouver "deb" (ou "&deb" peut-être). Dan
  13. Salut exabs, Les délais sont très variables, mais tournent en général autour de 30 jours. Il y a quelques exceptions, et malheureusement joker a souvent tendance à trainer... Dan
  14. Bonjour à tous, Je ne pense pas qu'un sous domaine apporte quoi que ce soit. Il aurait à mon sens plutôt le désavantage de diluer le PR entre le forum et la partie publication, et diminuer le nombre de pages indexées. Pour le CMS, je vous ai annoncé dès le début que j'attendais de voir ce que permettait le CMS d'Invision, donc les publications actuelles sous Spip ne sont probablement pas la version définitive... mais elles ont le mérite d'exister et de s'intégrer correctement au reste du site. Dan
  15. Salut Ammaramzi, Comme te le dt Coyote, ce qui fera le prixd'un pack web est le nombre d'exemplaires que tu vas vendre. S'il s'agit d'un exemplaire unique, le prix sera en général bien plus élevé. Tu peux te faire une idée des prix pratiqués en visitant des sites comme kitgrafik.com, cela te donnera au moins une échelle de prix. Cordialement, Dan
  16. Perle d'argent, Intéressant comme article. Cela doit donner des sueurs froides à tous ceux qui ont des sites "tout Flash"... c'est vrai que cela risque de bouleverser pas mal de choses sur le web. Dan
  17. Hervelaf, Pas de souci pour le code php dans les squelettes, même chez OVH. Le squelette sert à générer une page dans le cache, et cette page est une page .php, donc le code est exécuté. Dan
  18. Eh bien, cela aura au moins permis de vérifier que le lien "renvoyer l'email de validation" est bien utile et fonctionne comme il se doit. Tu es manifestement le premier membre à l'utiliser, à ma connaissance. Cordialement, Dan
  19. Bonjour mx-quou et bienvenue sur le Hub, Tu as pourtant parfaitement validé ton compte car sinon tu n'aurais pas été en mesure de poster sur le forum du Hub Je viens de vérifier du côté admin, et ton statut de membre confirme le bon déroulement de ton inscription. Par expérience, je sais qu'avec la vague de virus de la fin des vacances, certains serveurs de mail sont saturés. Il est donc possible que ce soit le cas de ton côté (AOL) ou du nôtre (OVH). Merci d'avoir mis le Hub en bonne place de ton annuaire, c'est très sympathique de ta part. Bon surf sur le Hub ! Dan PS: pense à cocher "heure d'été" dans ton profil si tu veux voir les heures justes pour les posts.
  20. Si par "contrôler" tu veux dire avoir le décompte exact, tu as 2 façons possibles. Soit à l'aide des stats Urchin mises en place par OVH pour ton domaine (mises à jour avec un jour de retard environ), soit à l'aide des fichiers logs bruts et d'un programme d'analyse comme WebTrends, NetTracker, Webalizer etc... Ce dernier a l'avantage d'être gratuit. L'accès aux stats Urchin -pour lesquelles OVH vient de changer le serveur et qui ne sont donc pas à jour- se fait par le manager en cliquant dans la colonne "stats" en regard de ton nom de domaine (dans la rubrique hébergements). Dan Dan
  21. Salut BZHcool, Oui, les moteurs "consomment des hits", mais moins qu'un internaute. Lorsque Google indexe tes pages par exemple, il ne prend pas toutes les images qui la constituent. Il y a donc un nombre de hits bien plus faibles qu'avec un internaute dans ce cas là. Je ne pense pas qu'il faille trop se focaliser sur le nombre de hits, car si ton site est correctement paramétré, le cache du navigateur aide grandement à économiser la bande passante et les hits. Par contre, si toutes tes pages ont l'attribut "no-cache", l'intégralité des constituants devra être téléchargée à chaque fois. Pour te donner une petite idée du nombre de hits auquel peut avoir à faire face un site, le 12 septembre nous avons fait 2800 visiteurs en provenance de pcimpact. Ces 2800 visiteurs qui ont visité le Hub n'ont consommé "que" 104 000 hits, ce qui est la moitié de notre quota quotidien. Il y avait donc de la marge. Dan
  22. Bonjour à tous, Il semble y avoir pas mal de chambardement dans l'index Google depuis cette nuit. Le Hub conforte une position plutôt enviable sur une requête "forum webmaster" sur le web mondial. http://www.google.fr/search?hl=fr&ie=UTF-8...he+Google&meta= A l'heure où j'écris ces lignes, le Hub s'offre une 2ème et 3ème place sur .... 22 millions de résultats. En 6 semaines d'existence, il y a de quoi en tirer quelque fierté. Espérons que ces résultats restent en place... Dan PS: une heure plus tard, plus que 1200 000 résultats, mais la position reste inchangée. encore 19 millions sur google.com
  23. Salut BZHcool, Cela fait maintenant plus d'une année que sur mes sites immobiliers je propose l'affichage des listes selon 6 critères de tri ascendants ou descendants. Cela fait donc 12 affichages différents qui n'ont posé aucun problème à Google, qui les a tous indexés. Idem sur les sites de mes clients. La différence avec toi est que ces affichages génèrent plusieurs pages, et non une seule. Je ne pense pas néanmoins que cela puisse représenter le moindre problème pour aucun moteur. Dan
  24. Ernestine, Ce que tu vas devoir faire pour générer des URLs différentes c'est de réécrire toutes les fonctions generer_url_(article|breve|rubrique....) en fonction du navigateur (wap ou autre). Il faudra aussi gérer deux versions du cache pour chaque page vue... As-tu interrogé les listes Spip ? Il y a peut-être quelque chose d'existant, non ? Dan
  25. Ernestine, Je ne vois pas trop où est le problème car dans les URLs, c'est bien & qu'il faut mettre et non & ... Tout le monde a pris l'habitude de mettre &, mais une url avec & ne valide pas. Remplacer globalement & par & ne devrait poser aucun souci. Dan
×
×
  • Créer...