
Jan
Hubmaster-
Compteur de contenus
2 304 -
Inscrit(e) le
-
Dernière visite
Tout ce qui a été posté par Jan
-
Dans ton cas, oui. Mais si j'ai bien compris ce que veut faire thick, il s'agit bien de rediriger toutes les pages de son annuaire vers la page d'accueil du site. Je ne sais pas comment réagit google dans ce cas.
-
Je suis assez curieux de voir l'effet de ces 301 multiples vers la home du site sur son classement dans google. Comment google va-t'il réagir? Booster la page ou la pénaliser pour cause de "pagerank bombing"?
-
La règle RedirectPermanent /annuaire/ http://www.7-dragons.com/ "gomme" le répertoire "annuaire" de l'url, c'est à dire qu'elle redirige: - -http://www.7-dragons.com/annuaire/Entreprise-44.php vers -http://www.7-dragons.com/Entreprise-44.php, - -http://www.7-dragons.com/annuaire/toto.php vers -http://www.7-dragons.com/toto.php, - etc... Si ce n'est pas ce que tu cherches à faire, c'est sans doute que tu cherches à rediriger toutes les pages de ton annuaire vers la home (je me trompe?). Je ne crois pas que RedirectPermanent soit la bonne règle pour faire ça. Je le tenterais par: RedirectMatch 301 ^/annuaire/(.*)$ http://www.7-dragons.com/ Sans garantie, à essayer.
-
Bonjour, Je ne suis pas sûr de vraiment saisir l'intérêt des sites comme goarticles.com ou ezinearticles.com. Un article publié sur leur site = un backlink depuis leur site, bien sûr. Mais si j'ai bien lu, ces articles sont susceptibles d'être repris, tels quel, sur de nombreux sites. Outre le risque que toutes ces copies se retrouvent déclassées pour duplicate content (et que donc les bls qui s'y trouvent perdent leur efficacité), il me semble que ces copies multiples d'un article unique pointant vers un site pourraient bien être perçues, à terme, comme une nouvelle forme de tentative de spam par les moteurs de recherche.
-
Redirection 301 par URL rewriting
Jan a répondu à Jan - Forum : Fichier .htaccess et réécriture d'URLs
Parfait, merci Dan. -
Redirection 301 par URL rewriting
Jan a répondu à Jan - Forum : Fichier .htaccess et réécriture d'URLs
Hum, je réalise que je n'ai pas assez expliqué mon besoin Je ne veux pas rediriger toutes les urls qui ont un query string, mais seulement celles dont la première variable est "parametre". J'ai d'autre urls avec variables. Si ces variables sont autre chose que "parametre", elles ne doivent pas être redirigées. -
Pour éviter d'être trop affirmatif je parlais de "pénalité à plus ou moins long terme". Il me semble assez facile pour google de lire la feuille de style, et assez logique qu'il le fasse - bientôt si ce n'est déjà le cas - s'il veut dévaluer ou pénaliser le texte caché. La propriété a beau être utile, je ne m'y risquerais pas sur un site conçu pour exister sur le long terme. Il ne faut pas oublier que les efforts de référencement payent sur le long terme. Savoir si une technique est pénalisée par google aujourd'hui ou si elle le sera demain n'est pas vraiment important. La question est: "es-tu prêt à prendre le risque?"
-
Dudu, le contenu caché par css semble en effet être dans le colimateur des moteurs de recherche. Mais je crains qu'à leurs yeux display:none, visibility:hidden ou text-indent: -5000px soient exactement la même chose: du texte caché, et donc susceptibles de provoquer une pénalité à plus ou moins long terme.
-
De l'aide pour un webmaster qui ne comprend rien
Jan a répondu à flodesiles - Forum : Techniques de Référencement
Je n'ai pas d'idées arrêtées sur le fait qu'un code tableless serait plus favorable au référencement qu'un code plein de tableaux. Il y a en effet plein d'exemples... et de contre-exemples. Si je crois en effet que google est capable d'aller chercher le contenu, même s'il est enfoui dans plusieurs niveaux de table, je crois aussi comme thick au fait qu'un contenu placé en haut du code a plus de poids. En revanche, j'ai tendance à penser (sans en avoir la preuve) qu'un code tableless favorisera le référencement par le fait qu'il est plus léger qu'un code plein de tableaux. L'avantage procuré ne serait pas dans ce cas la facilité d'extraction du contenu, mais le temps de chargement de la page à la requête du bot (plus le code est léger, plus la page se charge vite). Je crois en effet que si en un temps donné, un bot peut lire 20 pages tableless au lieu de 10 pages en tableau, c'est tout bénéfice pour le crawl et pour le positionnement. De plus, cette rapidité de chargement sera aussi un atout apprécié par les visiteurs humains du site. Il n'est donc pas impensable que google intègre ce paramètre dans ses critères de ranking. Ce n'est bien sûr qu'une hypothèse, mais que certaines observations ont tendance à confirmer. -
Redirection 301 par URL rewriting
Jan a répondu à Jan - Forum : Fichier .htaccess et réécriture d'URLs
Merci pour vos réponses, je savais que la nuit portait conseil Je vais tester ça ce soir. -
Redirection 301 par URL rewriting
Jan a répondu à Jan - Forum : Fichier .htaccess et réécriture d'URLs
Oui, c'est bien ça, je veux enlever le ?parametre=valeur page.php n'est pas une page unique. Je veux le faire pour les pages toto.php, tata.php, etc... -
Bonjour, Je cherche à faire une redirection 301 de toutes mes URLs du style -http://www.monsite.com/page.php?parametre=valeur vers -http://www.monsite.com/page.php ("page" dans ces urls est une variable, j'ai plusieurs pages pour lesquelles je veux appliquer cette redirection) J'écris: RewriteRule ^(.*)?parametre=(.*)$ http://www.monsite.com/$1 [R=301,L] ... et ça ne marche pas. Merci d'avance
-
Le .info n'a rien à voir avec ton problème. Le contenu de tes pages est fait quasi exclusivement de liens sortants. Je pense que tu devrais ajouter du vrai contenu spécifique à chacune des pages, et ça ira mieux.
-
Ce n'est pas une question d'argent. Contrairement à une idée communément répandue, l'accès à wmw est gratuit, à l'exception de quelques salons (payants). Il nécessite juste d'être inscrit, ou comme tu le dis de faker l'user agent d'un bot Cette possibilité de "decloaking" va peut-être effectivement disparaitre.
-
Je pense aussi. Mais dans ce cas, ce n'est pas 1 ou 3 mois que va durer l'essai, mais au moins 6 mois, délai minimum que google met à réintégrer les sites supprimés par l'interface.
-
Bonjour, L'info est étonnante! http://www.webmasterworld.com/robots.txt Brett Tabke, l'admin de wmw annonce la mise en place de ce robots.txt qui bloque l'indexation du site sous le titre :"lets try this for a month or three...": http://www.webmasterworld.com/forum9/9593.htm Ca n'a pas trainé: wmw n'est déjà plus dans google: http://www.google.com/search?hl=fr&q=site%...erworld.com&lr= J'ai beau chercher je ne vois pas ce qui peut le motiver à se tirer une telle balle dans le pied. Un instinct suicidaire? Dan tu essayes quand avec le Hub?
-
Bonjour, En cherchant ta page sur le Croisic dans google, on voit qu'elle n'est pas connue sous l'url que tu indiques, mais comme: La différence est le ":8080". Cette requête montre d'ailleurs que tu as le même problème avec ta page galerie/France/Bretagne/ Tu as visiblement changé d'URL et l'url avec ":8080" renvoie maintenant vers l'url sans ":8080". Je ne sais pas comment tu as fait cette redirection, mais en regardant avec l'outil du hub j'obtiens un code "200", alors qu'il aurait été plus approprié de faire une redirection permanente ("301") pour indiquer aux moteurs que ta page avait changé d'adresse. La redirection telle que tu la fais est susceptible d'être jugée comme abusive par google. Ensuite, il y a le risque, et c'est à mon avis ce qui se passe, que google considère tes 2 URLs comme un cas de "duplicate content". On ne se méfiera jamais assez du "duplicate content".
-
Google : pourquoi un aussi mauvais positionnement
Jan a répondu à agslk - Forum : Techniques de Référencement
Bonjour agslk et bienvenue sur le forum, Outre ton mauvais positionnement dans google, je vois que ton site est absent de yahoo et que seule ta page d'accueil est présente dans MSN. Ton site serait-il récent par hasard? -
De l'aide pour un webmaster qui ne comprend rien
Jan a répondu à flodesiles - Forum : Techniques de Référencement
C'est juste, et dans un moteur "idéal", les sites les plus ergonomiques et les plus utilies à leurs utilisateurs seraient les mieux classés. Mais google n'est pas un moteur idéal. Il y a donc un certain nombre de règles à suivre et d'erreurs à éviter pour qu'un site se positionne bien dans google. Ceci indépendemment de la satisfaction qu'il procure à ses visiteurs. L'exemple le plus frappant des "bugs" de google qui peuvent conduire à la catastrophe pour le référencement d'un site sont les redirections 302, qui ont abouti dans plusieurs cas avérés à des déréférencements. A partir de là il n'est pas illégitime de tenir compte du fonctionnement (et des dysfonctionnement) de google quand on fait un site. Ou alors on prend le parti de ne faire ses sites que pour les visiteurs humains, mais il faut accepter qu'ils soient invisibles ou presque dans google. C'est un choix. -
Je n'ai pas vraiment de certitude sur le type de liens que google déprécie à l'heure actuelle. Mais il me semble logique qu'il soit en train d'essayer de limiter l'importance des liens non-naturels, pour renforcer l'importance des liens naturels. Pour y arriver, il semblerait assez logique qu'il accorde moins d'importance: 1- Aux liens réciproques. Plutôt qu'un schéma classique où le site A lie le site B et le site B lie le site A, il vaudrait mieux - si je possède 2 sites A et A' - établir un schéma dans lequel A lie B, et B lie A' 2- Aux liens depuis les pages d'accueil, pour privilégier lers liens depuis des pages internes aux thématiques voisines. Dans ces conditions, si je veux faire un backlink efficace vers un site qui parle de webmastering, il vaut mieux que je le fasse depuis une page de mon site qui parle de webmastering que depuis la home (sauf peut-être si mon site parle de webmastering lui aussi). On voit ce système se développer en ce moment. L'échange de pages (un site A héberge une page sur la thématique du site B, qui fait des liens vers le site B ) semble devoir remplacer l'échange de liens. Je pense quand même que cette technique a ses limites. Google ne devrait pas tarder, si ce n'est déjà fait, à dévaluer les échanges de pages. Par exemple si j'héberge sur un site de sport une page consacrée au webmastering (et pointant vers un site de webmastering), ça n'a rien de naturel. La thématique de la page est en accord avec les liens sortants qui s'y trouvent... mais la thématique générale du site ne l'est pas.
-
De l'aide pour un webmaster qui ne comprend rien
Jan a répondu à flodesiles - Forum : Techniques de Référencement
Dans de nombreux cas, le passage d'une page en "résultats complémentaires" est dû à un "duplicate content" (contenu identique sur une autre page). Depuis quelques semaines, google semble avoir durci son filtre anti "duplicate content", ce qui fait qu'il a touché des pages aux contenus non pas similaires mais ressemblants. Cette sévérisation explique que beaucoup de pages satellites aient été touchées. En effet les pages sat d'un site sont souvent construites sur un même modèle (template), et la partie spécifique de leurs contenus représente donc un faible pourcentage du code de la page. Google a sans doute vu là une façon d'éliminer une partie du spam de ses pages de résultats. Mais il y a eu des effets de bord. Beaucoup d'annuaires ont été frappés par exemple, alors qu'ils n'avaient pas de raison de l'être. J'ai un annuaire qui a été touché. C'était même allé plus loin que le passage en "résultats complémentaires" pour certaines pages qui se retrouvaient dans google en mode "listing" (plus de titre, plus de snippet, seule l'url de la page était listée dans google). Après analyse j'ai compris que j'avais commis l'erreur de donner des titres très voisin à toutes les pages de cet annuaire, et qu'elles avaient des meta descriptions identiques. J'ai personnalisé tout ça pour chaque page, mis en place de l'url rewriting (mais ce n'était peut-être pas nécessaire) et tout est rentré dans l'ordre en quelques semaines. Cette théorie semble pouvoir s'appliquer à ton site. Toutes tes pages ont le même titre et les même meta keywords et description. Voilà à mon avis une des causes possibles (probables) de ton problème. Rectifie ça au plus vite et ça devrait s'améliorer. -
J'ai eu les mêmes angoisses une semaine avant toi face à l'absence de crawls. Et puis en une nuit et un full crawl, j'ai été rassuré. Pas d'inquiétude, tout devrait rentrer dans l'ordre.
-
Mettre une ligne en commentaire
Jan a répondu à NorSeb - Forum : Fichier .htaccess et réécriture d'URLs
Bonjour, Il faut faire commencer la ligne de commentaire par le caractère # -
Bonjour, Je ne pense pas que le fait d'appeler ton répertoire "fr" t'aide beaucoup. En revanche, si ce n'est déjà fait, je te conseille de mettre lang="fr" dans ta balise <html>: <html lang="fr"> Ca ne suffira pas à sortir sur les "Pages : France". C'est réservé aux sites hébergés en France. En revanche, tu peux espérer sortir sur les "Pages francophones". A défaut d'être hébergé en France, des backlinks depuis des sites hébergés en France t'aideront.
-
Salut sarc, Très beau, très clair, bravo. Drôle d'idée, il n'est jamais trop tôt.