Aller au contenu

Jan

Hubmaster
  • Compteur de contenus

    2 304
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Jan

  1. Dans le passé, il est arrivé que les meta refresh à 0 secondes posent des problèmes à Google (élimination de l'URL cible au profit de l'URL qui redirigeait). Mais c'est vrai qu'à l'époque, le PR était lui aussi "hijacké" dans ce cas. Je n'exclurais pas que ce soit ce qui se passe sur ton site (mis à part pour le "vol" de PR, phénomène que Google a pris soin de corriger). Question complémentaire: ton site est-il toujours positionné dans Google sur les mots-clés de ton ancienne page PR5 (si oui avec quelle URL) ou la perte de PR s'est elle accompagnée d'une perte de positionnement?
  2. Je pense que le problème peut venir du fait que le contenu de l'URL que tu donnes est dupliqué à -http://barbieplayline.free.fr/ et -http://barbieplayline.free.fr/playline/index.php?fr: http://www.google.fr/search?q=Bienvenue+au...fr&filter=0 Peux-tu indiquer de quelle façon -http://barbieplayline.free.fr/ redirige vers -http://barbieplayline.free.fr/playline/ ? Jobtiens une entête 200?
  3. La redirection n'a rien d'étrange, c'est juste Yahoo qui a parfois du mal avec les redirections. Elles ralentissent considérablement l'indexation. Quant à savoir pourquoi il y a une différence entre le fr et le com, je n'ai pas d'explication. Mais à mon avis ça pourrait n'être que temporaire et s'aligner rapidement. Il semble aussi que ta page avait une erreur de code quand yahoo l'a indexée (cf les <span> en bas de page): http://72.30.186.56/search/cache?p=http%3A...=1&.intl=fr
  4. J'ai bien peur que ce soit la redirection 301 vers -http://www.infos-guyane.com/annuaire/ qui bloque yahoo
  5. Site Explorer n'est pas très fiable. Toujours rien si tu tapes l'url dans yahoo.com? A part ça sans connaitre l'url du site, difficile d'en dire plus
  6. Petit bémol. Les redirections 301 te permettront sans doute, à terme, de transférer ton PageRank vers ton nouveau domaine. En revanche ton nouveau domaine (tout neuf j'imagine) risque de devoir attendre plus longtemps que le temps de transfert du PR pour récupérer le positionnement de ton site sur ses mots-clés dans Google. Le PR est une chose, mais il ne fait pas tout, loin de là.
  7. Bonjour, Si ton marché est la France, il est préférable qur tu héberges tes sites en France. Pour les recherches dans Google.fr avec l'option "Pages France", ton site ne sortira que s'il est hébergé en France, ou si ton nom de domaine est en .fr. Mais indépendamment de cette option "Pages France", les sites hébergés en France bénéficient d'un "bonus" (par rapport aux pages hébergées à l'étranger) pour leur positionnement dans les pages de résultats de Google France. Ca ne signifie pas qu'il est impossible de sortir en première position dans google.fr sur ses mots-clés avec un site hébergé à l'étranger, mais un hébergement en France facilite largement la tâche. [Edit: Dan a été plus rapide ]
  8. A la ligne juste avant ta balise <form>, je vois une balise non fermée: <font color=#cc0000></font Ca peut être la cause du mauvais fonctionnement de ton formulaire sous IE. Essaie en supprimant cette ligne.
  9. Bonnes questions et réponses très intéressantes. On reconnait bien Sébastien fidèle à lui-même: référencement propre et durable, par choix, sans montrer du doigt ceux qui s'y prennent différemment. Bravo Il faudrait que tu nous parles du "seo copywriting" un de ces jours.
  10. Je ne vais pas rentrer avec vous dans un débat sémantique sur la "densité" ou la "fréquence". Ca dépasse largement mes compétences En revanche j'ai l'impression que parler de densité idéale dans l'absolu c'est faire fausse route. En matière d'optimisation, et particulièrement de frontière entre optimisation idéale et suroptimisation, il est vain de disserter en faisant abstraction d'un élément primordial: tous les sites ne sont pas égaux face aux filtres. L'age du site, ses backlinks, son pagerank, son trustrank, etc... jouent un rôle clé. Pour parler trivialement, plus un site a de poil aux pattes, de backlinks, ou de "capital confiance" (notion bien floue j'en conviens), plus son webmaster peut se permettre de "bourriner" en matière d'optimisation. A mon avis, la densité ou le nombre d'occurences de mots-clés présents dans une page n'échapppent à cette règle
  11. Tu peux éventuellement renseigner la variable javascript : google_language = "fr"; .. ou ="en" suivant les pages
  12. Bonne année 2007 à tous les Hubmasters
  13. Google.fr n'est pas un datacenter en tant que tel. Il est soumis au round robin, c'est à dire qu'il prend ses résultats alternativement sur les différents DCs. En plus, même si à un instant t google.fr prend ses sources sur big daddy, il est normal d'avoir des différences de résultats entre les deux: en effet, google.fr module le classement du datacenter par des critères locaux tels que la langue de la page (bonus aux pages en français sur gg.fr) ou la localisation du serveur (bonus aux pages hébergées en France).
  14. Un service en ligne: http://www.chami.com/html-kit/services/favicon/
  15. Désolé, je n'avais pas compris. Je pensais que tu parlais du sitemap xml, mais visiblement non
  16. Par lien "réel", je fais référence aux liens aussi bien internes qu'externes (les backlinks quoi), par opposition à des urls déclarées dans un fichier sitemap.xml Si la présence d'une URL dans un sitemap.xml peut suffir à la faire indexer, elle ne sera pas suffisante à positionner la page sur ses mots-clés dans les résultats de Google. Pour ça il faut des vrais backlinks. C'est en ça que je pense qu'un sitemap peut masquer un vrai problème.
  17. Je suis plutôt réservé sur l'intérêt d'un sitemap dans un tel cas. Le sitemap va peut-être permettre d'accélérer l'indexation des pages, et encore, ça reste à prouver. Mais le sitemap peut masquer de réels problèmes d'indexation de certaines pages. Si on place un sitemap et que dans quelques jours on constate que des pages ont été indexées, quelle conclusion en tirer? Est-ce grâce (à cause) du sitemap ou grâce aux liens vers ces pages? Impossible de le dire avec certitude. Hors si une page se retrouve indexée uniquement grâce à un sitemap, il y a un réel problème (masqué par le sitemap) qu'il faudrait corriger. Une telle indexation par sitemap serait artificielle, et les pages concernées, faute de liens "réels", n'auraient aucune chance de sortir sur leurs mots-clés. Un site de cette taille n'a, à mon avis, aucun avantage à utiliser un sitemap. Il peut très bien être complètement indexé sans. Pour en revenir au site lui-même, j'y vois personnellement un gros problème: la majorité des catégories sont vides, ce qui donne des pages sans contenu et presque 100% identiques. Même si google les crawle, en l'état, elles ont peu de chance d'être indexées, et encore moins de rester longtemps dans l'index.
  18. Si le public que tu vises est (en partie) en Grande-Bretagne, il vaudrait mieux un hébergement UK pour aider à te positionner sur Google.co.uk. En revanche si tu ne vises que les US, le pays d'hébergement n'a pas d'importance. Les US utilisent google.com. Google.com est Google international, et pas Google US. Tous les pays d'hébergements semblent y être traités à égalité.
  19. Effectivement, dans mon cas je définis plutôt le "cloaking" comme le fait de présenter un contenu différent aux humains et aux robots. J'y inclus donc les redirections javascript.
  20. L'intérêt d'une page satellite est de permettre au site auquel elle appartient de se positionner sur un mot-clé sur lequel il n'est pas visible dans les moteurs de recherche. Pour sortir sur son mot-clé, une page satellite est hyper-optimisée pour ce mot-clé. Et un site crée autant de pages satellites qu'il a de mots-clés sur lesquels il veut se positionner. Mais une page satellite n'est satellite (donc hors guidelines de google) que si elle redirige vers une autre page du site (il s'agit donc bien d'une forme de cloaking). Si elle ne redirige pas, elle n'est pas une page satellite, mais simplement une page "normale" du site, conforme aux guidelines des moteurs. Alors pourquoi créer des pages satellites (donc seulement visibles des moteurs et qui redirigent les visiteurs)? 3 raisons principales: - Le référenceur n'a pas le choix: on lui demande de positionner un site en lui interdisant de modifier les pages du site visibles des visiteurs (Flash par exemple). - La page hyper-optimisée l'est tellement qu'elle est complètement illisible par un humain. - On veut que les internautes qui recherchent le mot-clé arrivent sur une page précise du site qui n'est pas optimisable (par exemple une boutique en ligne). La page sat' sert alors de passerelle. Evidemment pour qu'une page satellite arrive à ses fins (se positionner), il lui faut des backlinks. Ces backlinks peuvent provenir du site lui-même ou de sites exterieurs. Quant aux liens sortants de la page satellite vers le reste du site, ils ne sont pas obligatoires puisque de toutes façons une redirection est effectuée. Le critère liens entrants/ liens sortants n'est donc pas caractéristique d'une page satellite. Pour faire la redirection à usage exclusif des moteurs, javascript est la méthode la plus simple. Mais elle est effectivement devenue très dangereuse et conduira presque à coup sûr à une pénalité. Les pages satellites "modernes" (2.0 ) redirigent côté serveur, par cloaking sur user agent ou IP. C'est plus compliqué à maintenir que javascript mais beaucoup moins risqué. Bien sur, un spam report est toujours possible, puisque la redirection n'échappera pas à l'oeil du visiteur averti. En résumé, les pages sat' n'ont aucun intérêt pour un site dont le webmaster maitrise complètement la structure et le contenu: il est tout à fait possible de positionner ses pages sans prendre le risque inutile de les cacher à ses visiteurs. Mais quand le propriétaire d'un site a payé très cher pour le design d'un site impossible à référencer, il n'est pas forcément disposé à laisser son référenceur "tout casser" pour les beaux yeux de Google. Les pages sat' prennent alors tout leur intérêt.
  21. J'ai moi aussi des 404 sur les liens réécrits en footer. Dans le même ordre d'idée que ce que dit Kimberlyclarko tu devrais modifier ton lien "Accueil" de -http://www.kelnoce.fr/?af= en http://www.kelnoce.fr/
  22. Bonjour Cleden, Je t'avais fait part, il y a 15 jours, d'un point qui me semblait bloquant pour l'indexation de ton forum: un paragraphe commun à toutes les pages en début de <body>. Tu as supprimé ce contenu dupliqué, mais 15 jours c'est un peu court pour se remettre de ce genre de problème Comment est l'activité de Googlebot sur ton forum depuis? Combien de pages googlebot a-t'il recrawlé dans ces 15 derniers jours? Je ne serais pas étonné que tu doive attendre encore un ou deux mois pour que ton forum soit correctement indexé.
  23. Tu pourrais commencer par changer le lien dans ta bannière de navigation de -http://www.moto-group.com/index.php?act=idx en -http://www.moto-group.com/ pour concentrer tes liens sur une seule URL. Tu pourrais aussi te contenter de "Forum moto" comme ancre de ce lien.
×
×
  • Créer...