Aller au contenu

Jan

Hubmaster
  • Compteur de contenus

    2 304
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Jan

  1. Quelques pistes à explorer après un rapide coup d'oeil: - Côté backlinks: comme le dit karnabal tu n'as sans doute pas assez de backlinks pour sortir sur des mots-clés vraiment concurrentiels. Par ailleurs les backlinks visibles dans Yahoo ne m'ont pas semblé d'une grande qualité (beaucoup d'annuaires secondaires). - Coté structure: tu donne l'url -http://www.monassistance.info dans ta signature mais tes pages contiennent des liens vers -http://www.monassistance.info/index.php. Il serait préférable de concentrer les liens sur une seule des 2 URLs. Par ailleurs, certaines de tes URLs font un peu "suroptimisées", du style -http://www.monassistance.info/depannage-informatique/depannage-informatique.php. Il n'est pas impossible que ceci, associé à d'autres signes de suroptimisation déclenche des pénalités sur tes pages. - Côté contenu: tu as visiblement bossé les titres, metas, ... Mais certaines de tes pages sont des copies conformes de CCM. Ca fait du contenu pertinent... mais dupliqué. Pour ces pages, il est probable (et logique) que Google préfère l'original à la copie. Elles sont donc inutiles, voire nuisibles, en terme de référencement. Pour finir il ne faut pas exclure que ton site soit sous le coup d'un filtre dont l'effet est du type sandbox. Et là effectivement, 4 mois ce n'est pas long. Ces effets durent couramment 6 mois, voire un an.
  2. Fais l'essai: le bouton "recherche google" envoit vers une page de résultats de Google, sur laquelle se trouve un lien vers ton site. Le bouton "J'ai de la chance" redirige directement vers le 1er résultat depuis la page d'accueil de google.
  3. Je n'utilise pas Analytics, mais c'est peut-être un accès depuis google par le bouton "j'ai de la chance" pour un mot-clé sur lequel ton site est premier.
  4. Le problème n'est pas là. Il y a de nombreux dotclears en mutu OVH qui fonctionnent très bien.
  5. Peut être une piste: http://www.dotclear.net/faq.html
  6. Bien sûr c'est un linkbait, mais les blogs ne fonctionnent-ils pas exclusivement sur ce modèle depuis la mode du "web two point O"? Ce n'est pas scientifique pour 2 sous et ça n'est que le reflet d'un feeling de l'auteur. Mais n'est-ce pas le principe même d'un blog? Moi j'apprécie bien ce genre d'approche. La petite équation a pour seule ambition de reflèter le point de vue de l'auteur (expérimenté en SEO quand même) sur l'importance relative des différents critères qui permettent à une page de bien se positionner dans google. On est d'accord ou pas, mais au moins il se mouille et il partage
  7. C'est du moins ce qu'affirme Brett Tabke sur webmasterword: Google suivrait donc les liens trouvés dans les <noscript>, mais ces liens n'auraient aucun poids en terme de référencement. Si c'est vrai c'est nouveau, non? http://www.webmasterworld.com/google/3122771.htm
  8. Cette commande semble nouvelle. C'est l'inverse de la commande link:, c'est à dire qu'elle permet de savoir vers quels domaines un site fait des liens sortants. Cherchez bien, vous y êtes surement http://search.live.com/results.aspx?q=Link...=15&go.y=11 On peut y ajouter la recherche d'un mot-clé: http://search.live.com/results.aspx?q=Link...R&form=QBRE Sebastien me signale que ça ne marche pas pour les sous-domaines. Intéressant par exemple pour voir vers qui vos concurrents font des liens.
  9. Clair! Je ne sais pas quelle population ton sondage est sensé analyser, mais si ses résultats se veulent représentatifs des avis de l'internaute lambda, c'est raté Un peu comme si tu faisais un sondage sur les voitures parmi les pilotes de F1
  10. Bonjour, Ton site a un gros problème dans Google: toutes les pages sauf l'accueil sont en "résultats complémentaires": http://www.google.fr/search?hl=fr&q=si...Adidgco.free.fr Les causes probables de ce problème sont: - Des titres trop similaires. Il commencent tous par ".:DidgCo , le dictionnaire du didgeridoo:. " - Des meta descriptions identiques sur toutes les pages - Un manque de contenu dans beaucoup de pages. Il faut commencer par règler ces points avant d'espérer positionner ton site.
  11. Il prend le risque de se faire blacklister et pas toi. Ca te sert à dormir tranquille. Ceci dit si tu es "sûr" qu'il ne va rien lui arriver, je compends que tu te poses la question.
  12. Le lien entre ces sitelinks et le trustrank n'est qu'une hypothèse... contestée. Voir la discussion à http://www.webmaster-hub.com/index.php?showtopic=28384
  13. En définissant son style dans ta feuille de style, tu dois pouvoir lui donner la taille qui te convient.
  14. Pour les boutons radio, tu peux t'inspirer de http://philippe.medan.free.fr/CoursPHP/phpPasseRadioPost.php
  15. Bonjour, Je m'interroge sur l'apport réel des folksonomies sur la visibilité et le trafic des sites web et des blogs. Les digg-likes (digg, scopeo, Tapemoi, Wikio, ...) et del.icio.us-likes (delicious, blogmarks, ...) sont-ils des sources de trafic intéressantes pour vos sites? Incitez-vous vos visiteurs à voter pour vos billets ou à les bookmarker dans ces systèmes? Lesquels sont les plus efficaces? Francophones, anglophones? De mon côté jusqu'à maintenant, l'apport de trafic constaté sur mes sites a toujours été ponctuel et marginal.
  16. Poser cette question sur le Hub s'appelle "taper dans le mille": http://www.webmaster-hub.com/publication/M...riture-des.html
  17. Merci smile, c'est exactement ça. Du coup j'ai pu affiner mes recherches et j'ai trouvé un début d'explication du pourquoi de ce changement sur le blog de dotclear, dans un billet paru à l'occasion la sortie de dotclear 1.2.4: http://www.dotclear.net/log/post/2006/04/1...de-dotclear-124 Du coup, je n'ai rien changé. Mais en quoi ce changement est-il sensé faire "le bonheur des lecteurs de news". Les anciens flux DC leurs posent-ils des problèmes?
  18. Peut-être une piste en analysant les entêtes http de ces flux avec l'outil du Hub j'obtiens: Les différences de Content-Type ("application/rss+xml" vs "text/xml") seraient-ils la cause de ce comportement? Si oui comment y remédier?
  19. Bonjour, Sur le dernier blog dotclear que j'ai installé, les navigateurs que j'ai testés (IE et Firefox) demandent confirmation avant d'ouvrir le fichier rss (rss.php) Ce n'est pas le cas avec mes précédents rss dotclear (les navigateurs ouvrent directement le rss dans la fenêtre), et je n'en comprends pas la raison. Des hypothèses: - la version de dotclear: mon dernier blog est en 1.2.5, le précédent était en 1.2 - une configuration de dotclear que je n'aurais pas vue? - l'hébergeur (nuxit pour mon dernier blog, ovh pour le précédent) Je n'ai rien trouvé sur le forum de dotclear à ce sujet. Vous pouvez voir ce dont je parle: - Le rss pour lequel les navigateurs demandent confirmation http://bvwg.actulab.net/rss.php - Le rss pour lequel les navigateurs ne demandent pas confirmation http://www.presidentielle-2007.net/actualite/rss.php A priori ce phénomène n'empêche pas de parser mon rss, le rss est valide, mais on me signale qu'il pose problème "avec le simple_load de php5".
  20. De la biométrie appliquée: http://www.linternaute.com/science/biologi...trie/iris.shtml
  21. "Mon quotidien", quotidien d'infos pour les 7-13 ans. Existe en version papier. Version en ligne: http://www.playbacpresse.fr/JTMQ/ Pour en trouver d'autres, tu peux peut-être regarder par là: http://www.viapresse.com/via/abo/famille/1...s-jeunesse.html La presse gratuite peut-être? C'est fait pour être lu en quelques minutes dans les transports.
  22. Des éléments sur l'indexation de nouvelles pages et les sitemaps t'ont déjà été donnés dans cette discussion. 3 semaines ce n'est pas long, et les sitemaps ne sont pas une solution miracle. Si tu souhaites des réponses plus spécifiques, il faudrait donner l'url du site et des nouvelles pages.
  23. Il y avait déjà: site:www.example.com -inurl:example.com Les 2 donnent des résultats très voisins.
  24. Il existe des forums US où les techniques "black hats" sont discutées assez ouvertement sans que ça tourne à la polémique. Par exemple webmasterworld, qui a même un forum dédié au cloaking: http://www.webmasterworld.com/cloaking/ Ceci dit, il est vrai que ces forums sont souvent privés (sur invitation), voire payants. Au passage, le cloaking ne vise pas forcément à "tromper" Google, cf les discussions dans le forum en question sur wmw.
  25. Bonjour Mona et bienvenue sur le forum, L'augmentation du nombre de pages a une influence positive sur le positionnement d'un site. D'une part il permet d'augmenter le nombre de liens qui pointent vers tes pages (ce sont certes des liens internes, mais ils comptent), et surtout, multiplier les pages permet de créer des pages spécifiques à chaque thème en rapport avec ta thématique principale (par exemple dépannage Mac, dépannage windows, etc...). Avoir des pages spécifiques permettra à terme de rendre les pages visibles sur les mots-clés liés aux thèmes qu'elles abordent. Le seul cas où une augmentation du nombre de pages pourrait avoir un effet pénalisant est si il augmente de façon brutale, et que cette croissance est jugée "non-naturelle" par Google. Je te conseille donc de créer ton encyclopédie de façon progressive. Le sitemap n'est pas une solution miracle pour faire indexer de nouvelles pages. Il faut des liens vers ces pages pour que Google les indexe. L'idéal est que ces pages aient des liens externes. Si elles n'ont que des liens internes dans ton site, ça peut prendre très longtemps (des semaines voire des mois) avant que google ne les indexe. Dernier point avec une encyclopédie: il est probable que toutes tes pages soient construites sur le même modèle. Il est important dans ce cas de t'assurer qu'elles contiennent une part de contenu spécifique (et original) assez importante par rapport au contenu commun (menus, etc...). Sinon Google ne les indexera pas ou les relèguera dans son index "supplémentaire" et ces pages ne serviront à rien. Concernant le cloaking, il est utilisé par certains sites, mais n'est pas non plus une solution miracle. Présenter un contenu différent aux robots est une chose, encore faut-il que ce contenu soit de nature à faire monter les pages dans les résultats de Google. Et si c'est le cas, il faut se demander si il ne serait pas judicieux de les montrer aussi aux visiteurs humains du site. Tu parles de 9BLs. Ce n'est pas assez pour faire sortir un site sur un mot-clé concurrentiel, même avec du cloaking. Si ces 9BLs sont ce que tu vois par la commande link: dans Google, sache que ce nombre n'est pas représentatif (Google ne montre qu'une partie des BLs, et les met à jour très rarement). Il vaut mieux regarder les BLs dans yahoo! Enfin (et surtout) il faut bien réfléchir sur ce que tu veux faire du site avant d'y employer des techniques interdites par Google. Elles peuvent faire gagner un peu de temps pour monter dans les résultats, mais elles représentent le risque de tout perdre du jour au lendemain. Si tu inscris ton site dans la durée, il est préférable de faire un site "propre".
×
×
  • Créer...