
Jan
Hubmaster-
Compteur de contenus
2 304 -
Inscrit(e) le
-
Dernière visite
Tout ce qui a été posté par Jan
-
Moi aussi, d'ailleurs ce n'est pas le cas dans mon navigateur, mais ça semble être le cas pour google. C'est du moins ma conclusion quand je vois la page de résultats de google: http://www.google.com/search?q=site:www.co...coff=1&filter=0 Contrairement à la balise <title>, la meta title n'est pas indispensable au référencement dans google: la plupart des sites ne l'utilise pas.
-
Hum, je parlais de la balise <title>, mais effectivement je vois que tu as une meta title identique dans toutes les pages, et qui viendrait donc "écraser" la balise title. Supprime cette meta title, elle ne sert à rien puisque tu as une balise <title>
-
Google connait bien tes autres pages: http://www.google.com/search?q=site:www.co...coff=1&filter=0 Le problème est qu'elles avaient toutes le même titre et la même description quand il les a indexées. Du coup, par défaut, il n'en liste qu'une (l'accueil): http://www.google.com/search?hl=en&lr=&c2c...mmint.com+-page Il semble que tu aies corrigé le problème des titres identiques. Pour ce qui est des métas, elles sont moins importantes que les titres mais il vaut encore mieux ne pas en mettre que de mettre les mêmes dans toutes les pages. Une fois ces corrections faites, tout devrait rentrer dans l'ordre à la prochaine ré-indexation de tes pages. Il suffira d'être patient.
-
Polonais ou Français, ça ne change pas grand chose. Même s'il est plus difficile d'envisager de gagner un concours polonais, ça reste une occasion de tester l'effet de quelques techniques de positionnement dans google.
-
Tu peux trouver quelques informations en français dans ma page participante au concours. Le concours se termine fin septembre. Nous sommes quelques-uns du Hub à participer plus ou moins activement, mais la concurrence est rude. Il semble bien difficile de se positionner dans google pologne avec une page hébergée en France. Et les participants Polonais sont redoutables
-
Tu trouveras un exemple de script sur le Hub à http://www.webmaster-hub.com/publication/article110.html
-
<meta refresh> risque d'avoir l'effet contraire à celui recherché. Les pages lycos risquent de canibaliser celles de ton domaine. La solution propre et efficace est une redirection permanente (301). Par .htaccess, ça peut être très léger: tu peux rediriger toutes les pages de l'ancien site vers leurs homologues dans le nouveau site en une seule ligne si l'arborescence des 2 sites est identique. Autre solution, faire la 301 en php. Pour peu que toutes tes pages utilisent un "include" php en début de code, il suffit de faire la redirection dans cet include.
-
Faire des erreurs volontaires pour google
Jan a répondu à fgaascht - Forum : Techniques de Référencement
A partir du moment où un webmaster décide de faire ou de laisser des fautes (ou un quelconque contenu) pour google et non pour ses visiteurs, il est déjà considéré comme un tricheur par google Alors texte caché ou pas caché, ça ne change rien dans l'esprit. A partir de là, on peut considérer qu'il n'y a pas de raison d'infliger ça à ses visiteurs... et décider de cacher le texte. -
Etonnant en effet. Je n'ai pas l'explication, mais je note que sur la commande site: les pages qui sortent sont en "Résultat complémentaire", ce qui n'est pas très bon signe: http://www.google.fr/search?hl=fr&q=site%3...he+Google&meta= Par ailleurs en cherchant par inurl: ( http://www.google.fr/search?hl=fr&c2coff=1...royedlolo&meta= ) on voit apparaitre le site http://membres.lycos.fr/destroyedlolo (vers le bas de la page de google). J'ai bien peur que tu ais créé un joli "duplicate content" qui pourrait bien être la cause de ton problème. A mon avis les visiteurs que t'envoient google arrivent plutôt sur ces URLs Lycos. Si tu en as la possibilité chez Lycos, je te conseillerais de faire des redirections 301 des pages Lycos vers les pages de ton domaine.
-
Finalement, la sandbox incite les sites qui démarrent à consacrer leurs budgets "promo" à acheter des adwords plutôt qu'à se payer un référencement non? Ca ne pourrait pas être une motivation pour google ça?
-
Je viens d'ouvrir juste pour l'expérience Mais je repars en vacances dans quelques heures <edit>J'ai ajouté le lien moi-même avant de re-fermer</edit>
-
Matt Cutts en a parlé dans son blog: http://www.mattcutts.com/blog/ui-fun-better-snippets/ http://www.mattcutts.com/blog/ui-fun-better-queries/ Merci à Thick, notre Googleguy à nous, de qui je tiens l'info
-
Bonjour, Tes balises <title> et <meta> sont identiques sur toutes les pages. Fais en sorte de corriger ce point: ces balises doit être spécifiques et représentatives du contenu de chaque page. Par ailleurs, tes title sont trop longs. ils ne devraient contenir que quelques mots clés, ciblés. L'intérêt de ta page d'accueil (doorway) est contestable pour tes visiteurs comme pour les moteurs. Pourquoi ne pas faire de accueil.php la page d'accueil de ton site? Enfin les liens qui renvoient sur ta page d'accueil depuis les pages de ton site sont fait sur index.htm. Il serait préférable de les faire sur http://www.act-nature.com/, qui est la même page. Mais pour les moteurs http://www.act-nature.com/ et http://www.act-nature.com/index.html seront 2 pages différentes... avec un contenu identique.
-
Je ne connais pas de solution satisfaisante à ce problème. A ma connaissance, ça nécessite qu'après le test, la page a.php envoie un formulaire vers b.php. Les champs de ce formulaire de a.php peuvent être cachés (hidden) et être des recopies des champs du formulaire initial, mais pour que ce nouveau formulaire soit soumis, il faut obligatoirement un clic du visiteur sur un bouton submit côté client. J'imagine que cette pseudo-solution ne te convient pas. Il y a bien sûr la possibilité de faire un submit automatique en javascript... mais c'est du javascript donc ça ne marchera pas à tous les coups. A défaut il y a le passage par GET. Désolé je n'ai pas mieux.
-
.Dj., Je ne peux que confirmer ce que te dit Anonymus sur ta responsabilité. Sache en outre, qu'il ne suffit pas de supprimer le contenu d'une discussion sur ton site pour qu'il n'en reste plus de trace sur le web. Les moteurs de recherche qui indexent les pages en gardent trace pendant des jours, voire des semaines, dans leur cache. Et je ne parle même pas de certains sites qui ont de la mémoire pendant plusieurs années: http://www.archive.org/
-
Le mieux est en effet de faire une redirection 301 (permanente) des anciennes pages vers les nouvelles, dans le .htaccess de -http://www.1ere-compagnie-guyane.com/: RedirectPermanent /forum/ http://www.real-tv.biz/ Tu peux ensuite vérifier que ta redirection se passe comme prévu grâce à l'outil du Hub
-
Google les liste sur des commandes bien spécifiques (que seuls les webmasters utilisent): site:, inurl:, etc... En revanche, il semble impossible de les faire ressortir sur une recherche normale (recherche d'un mot-clé). En tous cas pas de façon durable. En ce sens, ce filtre revient au même que de les supprimer de l'index. Et on peut imaginer qu'il permet à google de ne pas complètement "oublier" les pages, et donc de repasser les crawler de temps en temps, pour voir s'il y a lieu de les sortir du filtre.
-
Non, le fait de n'être listées que par leurs URLs dans google n'est pas que le triste privilège des pages pas encore visitées. En recherchant par la commande site: sur un gros site, par exemple sur le Hub, tu tomberas sur des pages anciennes que google ne liste que par leurs URLs. Par ailleurs, à l'occasion du récent update "bourbon", beaucoup de sites ont vu augmenter leurs nombre de pages listées simplement par leurs URLs. Pendant cet update, de nombreuses pages ont "perdu" leurs titre et snippets dans Google. Ces pages étaient auparavant bien listées. il ne s'agit donc pas de pages nouvelles pas encore crawlées, mais bien de pages filtrées, visiblement pour cause de duplicate content. Quelle logique derrière tout ça? Un tel filtre "anti-duplicate" dans google pourrait par exemple résulter d'une volonté de nettoyer l'index des pages satellites. Les pages satellites sont souvent générées par des moulinettes automatiques, et peuvent souvent être identifiées comme telles par le fait qu'elles se ressemblent un peu trop au niveau de leurs structures. Cette chasse aux pages sat' n'est qu'une hypothèse (gratuite), mais même si ce n'était pas le but recherché, le filtre semble en tous cas assez efficace pour les éliminer
-
Je ne sais pas avec quel type d'interface tu gères les articles dans ta base de données. Mais si ce système t'offre un tant soit peu de flexibilité, tu pourrais sans doute ajouter, en plus des photos, des prix et des liens vers les articles, un petit descriptif personnalisé dans chaque rubrique. Ca aiderait google à différencier tes pages les unes des autres sans équivoque.
-
Je n'en pense pas beaucoup de bien. En fait ces redirections constituent un gros handicap pour référencer tes pages. Si l'url de ton nom de domaine n'est qu'une frame qui appelle les pages de ton site, ton domaine sera considéré comme n'ayant qu'une page par les moteurs de recherche. Et encore cette page sera une page vide de contenu puisqu'elle ne contient (mise à part une hypothétique <noframe>) que l'appel des pages "framées". Elle ne pourra donc s'appuyer que sur son titre, ses métas et ses backlinks pour se positionner. C'est bien maigre Ca peut suffire à la positionner sur un mot-clé à grand coup de BLs, mais ça ne te permettra pas d'être présent sur plusieurs mots-clés. Si tu es dans le cas d'un nom de domaine qui fait des redirections 302, c'est encore pire. Google risque de faire des confusions entre tes URLs redirigées et tes URLs cibles, et de les pénaliser pour cause de "duplicate content". Vraiment pas un bon plan les redirections. A choisir, il vaut beaucoup mieux référencer tes URLs wanadoo. Ceci dit il existe pas mal d'hébergement+vrai ndd qui ne coutent vraiment pas trop cher. C'est la meilleure solution.
-
Comme j'essayais de l'expliquer (visiblement très mal ) dans mon message précédent, ce que j'appelle les pages "duplicate" sont les pages que google ne liste que par leurs URLs (pas de titre ni de snippet) sur la commande http://www.google.com/search?hl=en&q=site%...G=Google+Search Ce ne sont pas à proprement parler des pages identiques puisqu'elles présentent des articles différents, mais elles sont trop peu différentes les unes des autres en terme de contenu (contenu qui comprend les éléments communs - titres, métas, menus, etc... - et les éléments spécifiques) pour que google juge qu'elles sont différentes. Et à défaut de les considérer comme vraiment différentes, google les considère comme des pages "identiques" et les pénalise. La seule solution pour sortir de ce filtre est d'augmenter les différences entre chaque page, c'est à dire d'y faire figurer un pourcentage de contenu spécifique plus important. Tu as commencé à le faire avec tes <title>, il faut continuer à le faire avec des descriptifs plus importants de chacun des articles. Si tu y parviens, tes pages retrouveront alors leurs titres et leurs snippets dans google, et auront une chance de se positionner sur leurs mots-clés.
-
Je suis assez de ton avis. Yahoo "s'acharne" souvent sur la page d'accueil, mais à du mal à descendre dans l'arborescence des liens. En revanche contrairement à Google, il est possible d'y positionner très rapidement une page dopée aux backlinks, d'autant plus si c'est la page d'accueil. Dans Google la "sandbox" rend la chose plus difficile dans les 6 premiers mois d'existence du site.
-
Bonjour, Il est assez difficile de se faire une idée précise sur le sujet. Le temps de prise en compte d'un BL est composé de 2 temps: 1- Le temps entre la mise en ligne du backlink et la découverte de ce backlink par les robots (le crawl de la page dans laquelle est placé ce backlink). 2- Le temps entre la découverte du backlink par les robots et l'effet visible de ce backlink sur le positionnement de la page. Le premier est très variable. Il dépend de la fréquence de crawl de la page qui contient le BL. Celle-ci varie en fonction de la "popularité" de la page. Les ordres de grandeur que j'ai (cru) constaté(er): - Dans Google: entre 24 heures pour une page bien "linkée" et 1 (voire 2) mois pour une page peu ou mal "linkée" - Dans Yahoo: entre 24 heures pour une page bien "linkée" et 2 mois pour une page peu ou mal "linkée" ou à plus de 2 niveaux de liens de la page d'accueil. - Dans MSN: entre quelques heures et 2 semaines pour une page bien "linkée" et 1 mois pour une page enfouie dans l'arborescence du site. Pour le second: - dans Google: 2 à 4 jours - dans MSN et Yahoo c'est moins clair: il semble que les BLs aient un premier effet sur le positionnement en quelques jours, puis un deuxième, plus important, à l'occasion des updates (mensuels?) de ces moteurs.
-
Oui, Yahoo est sensible aux backlinks, même s'il semble y accorder une importance relative moindre que google pour le positionnement. 78500 résultats ne représentent pas un très grosse concurrence. Il n'est donc pas étonnant que tu puisses te positionner 7ème sans backlinks ou presque. Yahoo ne semble pas avoir de "sandbox". Un site récent peut s'y positionner sans difficulté. Le seul obstacle est la lenteur de yahoo slurp à indexer les pages un peu trop enfouies dans l'arborescence des sites. Ce qui fait qu'un site qui démarre devra attendre longtemps avant d'être totalement crawlé. Pour continuer à grimper dans yahoo comme dans google et msn les recettes sont les mêmes: - continuer à développer du contenu - optimiser les pages pour les mots-clés visés - développer les backlinks
-
Bonjour, Ton site semble souffrir d'un problème de "duplicate content", c'est ta dire que Google juge que tes pages ne sont pas suffisamment différentes les unes des autres. Du coup la plupart de tes pages connues de google sont listées seulement par leurs URLs (pas de titre, pas de snippet): http://www.google.com/search?hl=en&q=site%...G=Google+Search Ce phénomène calme sans aucun doute l'ardeur que met googlebot à visiter tes pages. Plus gênant, les pages "duplicate" n'ont aucune chance de sortir dans google sur tes mots-clés. Je pense que tu aurais intérêt à différencier un peu plus le contenu de chacune de tes pages. Par exemple: - mettre des <title> beaucoup plus spécifiques à chaque page. Tous tes titres commencent par "LA PETITE FRANCAISE : vente de bijoux et de montres en ligne" suivi de quelques mots spécifiques à la page. A ta place je supprimerais cette phrase récurrente au profit d'un title 100% spécifique, ou au pire la remplacerai par "bijoux et montres", ce éviterait que la partie spécifique de chaque titre ne soit noyée dans la partie générique - tes balises meta keywords et description me semblent indentiques sur toutes tes pages. Même si ces balises n'ont pas une grande importance, il vaut mieux ne pas en mettre du tout que de mettre les mêmes partout. - le contenu des pages (la présentation des articles) devrait aussi être un peu plus riche pour que google n'ait plus aucun doute sur le fait que tes pages ne sont pas identiques.