Aller au contenu

Jan

Hubmaster
  • Compteur de contenus

    2 304
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Jan

  1. L'intérêt d'un site satellite est de pouvoir créer des backlinks "dans la thématique" (et donc de poids) pour le site principal. Pour les visiteurs, comme pour les moteurs, il est préférable que ces liens ne soient pas en pied de page et pas tous dirigés vers la page d'accueil, mais au contraire vers différentes pages internes du site. Les liens auront d'autant plus de poids qu'ils seront faits dans un contexte et sur des mots-clés pertinents. Limite de l'exercice: pour que les liens du site satellite soient intéressants (en terme d'envoi de trafic ou de référencement), il faut que le site satellite soit bien référencé. On peut donc estimer que l'effort passé à référencer le site satellite serait mieux utilisé à référencer le site principal.
  2. Peut-être un début d'explication: de temps en temps (je viens de le voir), sur cette requête, Google affiche des liens vers Google Maps en haut de la page 1. Quand ces liens sont présentés, les 3 derniers de la page 1 (positions 8 à 10) ne sont plus présents en page 1... et sont donc uniquement sur la page 2 (en positions 11 à 13). Cet affichage des 8, 9 et 10éme en début de page 2 serait donc volontaire, pour le cas où Google les omet, pour cause de liens vers Google maps, en page 1.
  3. C'est effectivement un phénomène que j'ai remarqué depuis quelques jours, et qui, contrairement à ce qu'on pourrait penser, ne semble pas dû au Round Robin. On le constate ici sur Big Daddy: - http://66.249.93.104/search?hl=fr&q=gr...hercher&lr= : le site 7inoui.com est 10ème - http://66.249.93.104/search?q=graphiste+pa...art=10&sa=N : le site 7inoui.com est 13ème (j'ai repris ton mot-clé karnabal, mais pas ta requête, parce qu'en consultant google.fr on ne s'affranchit pas du round robin) La seule hypothèse qui me vient à l'esprit est que Google serait en train de switcher alternativement entre 2 index, correspondant à 2 algorithmes. Un update important est peut-être à venir? A noter que ce phénomène se produit sur MSN/ Live depuis toujours.
  4. 4k, c'est la taille de ta page en octets: 4 kilo-octets Parmi les navigateurs qui ne lisent pas Flash, il y a Googlebot... et la plupart des robots. Il y a aussi les navigateurs textuels, et aussi les navigateurs vocaux utilisés par les mal-voyants. De façon générale, il est possible à tout internaute de désactiver ou de ne pas installer le plugin Flash dans la plupart des navigateurs modernes. Je trouve dommage que tu laisses indexer ton site avant de l'avoir rendu accessible aux moteurs de recherche. A mettre la charrue avant les bufs, tu risques de devoir fournir beaucoup d'efforts pour rattraper un référencement qui s'annonce calamiteux. A ta place, j'interdirais l'indexation (par robots.txt) jusqu'à ce que la nouvelle version du site soit prête. Surtout qu'un référencement dans l'état actuel du site ne t'apportera aucun visiteur ou presque.
  5. Personnellement je supprimerais le menu en Flash. Ceci dit, si tu y tiens tu peux le garder mais dans ce cas tu dois absolument rajouter ailleurs sur ta page d'accueil des liens vers quelques-unes des pages les plus importantes de ton site. Pour les moteurs... mais aussi pour tes visiteurs (Flash n'est pas accessible dans tous les navigateurs).
  6. Pour ce qui est de la présence de mot-clés, il n'est pas nécessaire de tomber dans l'excès qui consiste à écrire un texte bourré de mots-clés pour les moteurs de recherche. Ton idée d'écrire pour tes visiteurs est louable, je pense simplement que tu as moyen d'améliorer ton texte pour le rendre plus explicite pour les visiteurs... et donc au passage plus précis pour les moteurs. Par exemple: ... pourrait être remplacé avantageusement par quelque chose du style: Pour ce qui est du menu, inutile de passer par javascript. Les plus simple et le plus efficace consiste à faire un menu en html. Les sites que tu peux voir avec un menu en Flash reprennent la plupart du temps ce menu en html (visible ou caché), justement pour des questions de référencement.
  7. Les backlinks et le sitemap c'est bien (quoi que), mais il ne faut pas pour autant oublier les fondamentaux: à savoir: - Proposer du contenu structuré, pertinent et original aux robots - Avoir un site accessible aux robots. Le site autoccasion74.fr pêche sur ces deux points: - Le contenu est largement perfectible. Par exemple le mot "occasion" n'est présent qu'une fois dans la page. Aucune occurence de "voiture d'occasion" ou "de "automobile d'occasion", 1 seule occurence de "véhicles d'occasion", alors qu'on peut raisonnablment penser que ces mots-clés sont intéressants pour le site. Autre exemple, aucune balise <h1> n'est présente, et le seul <h2> est sur le mot "accueil". - Côté navigation, le menu est en Flash, ce qui n'apporte absoluiment rien aux visiteurs, et bloque les robots. Le seul lien html de l'accueil vers les autres pages du site est fait vers la page... "contact" Le résultat à attendre d'une augmentation des backlinks vers le site dans son état actuel sera que les pages finiront par être indexées grâce à (à cause de) ce faux ami qu'est le sitemap, mais qu'elles n'auront aucune visibilité dans Google. En résumé, je te conseillerais de retravailler le contenu de ton site avant de penser à le booster par des backlinks.
  8. C'est une bien bonne idée que tu as là de supprimer ta page de bienvenue. Autant pour les visiteurs que pour les moteurs de recherche Les redirections permanentes telles que tu les envisages sont la bonne solution à un bémol prêt: dans la nouvelle architecture de ton site, les URLs http://sboisse.free.fr/index.php et http://sboisse.free.fr/ seront la même page. Il va donc falloir en choisir une des 2 et t'y tenir pour ton référencement, histoire de concentrer le PR (disons plutôt le pouvoir des backlinks) de ta page d'accueil. Vu qu'aujourd'hui c'est http://sboisse.free.fr/ que Google semble connaitre, c'est plutôt vers vette URL qu'il faut faire tes redirections. Donc: Si mes souvenirs sont exacts, Free ne permet pas de spécifier la page d'accueil par "DirectoryIndex". Dans ce cas il faudra donc que tu supprimes de ton serveur la vieille page index.html pour que http://sboisse.free.fr/ appelle bien la page index.php (sinon c'est sans doute index.html qui sera appelée). Toujours dans le but de ne pas éparpiller ton PR, veille aussi à ce que tous les liens internes des pages de ton site vers l'accueil soient fait vers "/" et non "index.php"
  9. https://adwords.google.com/select/KeywordToolExternal Et il me donne des résultats pour "rugby"
  10. Essaye ceci dans le .htaccess de rep1 RewriteEngine on RewriteRule ^toto\.cgi$ /rep1/rep2/toto.cgi [L]
  11. Modifie ton code de la façon suivante pour accéder à cet élément: $html .=$item['dc']['subject'];
  12. Quid d'un .fr hébergé en Angleterre, ou d'un .co.uk hébergé en France, pour bénéficier à la fois des faveurs de google.fr et de gogle.co.uk?
  13. Non, je l'ai sur des petits sites récents.
  14. Ici c'est mieux: http://209.85.135.104/search?q=cache:o75uO...;cd=2&gl=fr Tes pages"/" et "index.php" sont identiques, et comme tes liens internes pointent vers "index.php?" c'est index.php que Google choisit. Pour corriger ça: - fais pointer tes liens internes vers "/" (ou "index.php" suivant l'URL que tu veux garder indexée) - Implémente dans ta page index une redirection 301 de "index.php" vers "/" (ou le contraire)
  15. Précisons quand même que la notion d'"illégalité" évoquée ici est pour le moins un abus de langage. Aucune loi française ou internationale n'empêche d'utiliser un outil visant à augmenter ses backlinks. Google considère cette technique comme une mauvaise pratique, certes, mais la "loi" n'a rien à voir là-dedans. Sur le fond, s'il est vrai que l'utilisation de tels outils peut te valoir une pénalité dans les résultats moteur de Google (et encore, il ne faut pas tirer ce genre de conclusion de façon hâtive), il est faux, sauf exception et abus évident, de dire qu'une telle pratique peut entraîner un bannissement d'AdSense.
  16. Je ne suis pas sûr que ce soit pour ça. Ma compréhension était que les clics sur des sites non autorisés rapportaient 0, pas que l'affichage des ads était bloqué. Mais je n'ai pas encore testé...
  17. Je serais tenté d'autoriser Google pour les visiteurs qui visualisent les pages en cache (et clickent sur les ads). De même, je pense qu'il faut autoriser tous les traducteurs en lignes.
  18. La chute que tu observes est normale, le temps que Google re-crawle et digère tes modifications. En théorie après une semaine our deux de yoyo tu devrais retrouver tes positions. A conditions bien sûr que la structure interne des liens de ton site n'ait pas été trop pronfondément boulversée. On ne peut pas non plus complètement exclure que tes nouvelles pages tombent sous le coup d'un filtre si ta thématique est concurentielle (et je crois comprendre qu'elle l'est). Par exemple un filtre qui serait mis en oeuvre pour cause d'URL qui semblerait un peu trop "spammy" (répétition de mot-clé). Mais à 99% tout ira bien. Dans tous les cas mon conseil serait de ne pas te lancer dans des changements hatifs si tes positions tardent à revenir. Il faut être patient et surtout ne pas agir en mode panique.
  19. Il y a la censure chinoise certes, mais aussi certains hébergeurs français qui bloquent le trafic venant de Chine, pour une raison que j'ignore.
  20. Thick est beaucoup plus compétent que moi (notre maître à tous ) pour ce qui est de l'optimisation du taux de clic. En revanche je pense qu'un taux de clic de 15% ne peut s'atteindre que si les pages sont conçues pour que les visiteurs clickent sur les ads après quelques secondes sur le site. Dans ces conditions, une moyenne de 3 pages vues par visiteur semble difficile à atteindre. La moyenne sera plutôt aux alentours de 1,1. Ceci dit, 15% de clic sur un site dont les visiteurs voient en moyenne 1,1 page rapporte beaucoup plus que 1% de clic sur un site dont les visiteurs voient en moyenne 3 pages Quant au foot, c'est une thématique saisonnière, aux revenus variables selon la période de l'année.
  21. Bonjour Bigb06, Un sitemap permet d'indiquer à Google les pages à référencer dans un site, mais n'est en rien une garantie d'indexation rapide et encore moins de bon référencement. 3 éléments sont déterminants pour la rapiditié d'indexation et la qualité du référencement d'un site: - Le contenu des pages: il doit être suffisamment abondant et original. - La structure du site: les pages du site doivent être facilement atteignables par les robots d'indexation en suivant les liens internes du site. - Les backlinks, liens qui pointent vers les pages du site. ... La présence d'un sitemap n'en fait pas partie Les sitemap sont même, à mon avis, une fausse bonne idée (une mauvaise idée) pour la plupart des sites. Une page doit être indexable naturellement par ses backlinks. Un site bien conçu n'a pas besoin de sitemap pour être bien référencé. A contrario, pour un site souffrant d'un problème de conception, "forcer", par un sitemap, l'indexation de pages inaccessibles par les robots ou trop faiblement liées est le meilleur moyen de les envoyer direct dans l'index complémentaire. Une fois dans cet index elles n'ont que très peu de chance de sortir sur leurs mots-clés. Elles sont indexées, certes, mais cette indexation n'apporte aucune visite sur ton site. Elle est inutile. Coincidence ou pas, c'est d'ailleurs ce que tu constates puisqu'un lien sur le Hub semble avoir suffi à faire passer Googlebot sur ton site. Après ce couplet anti-sitemap, quelques éléments plus concrets sur ton site: Beaucoup de pages sont dans l'index complémentaire (merci sitemap): 541 pages indexées: http://www.google.com/search?hl=fr&q=s...rage.fr&lr= dont 332 dans l'index complémentaire: http://www.google.com/search?hl=fr&q=s...r%2F%26&lr= Les causes sont visiblement liées à au moins 2 des 3 points cités précédemment: - Contenu: certaines de tes pages ont très peu de contenu, d'autres ont des contenus très voisins. En plus beaucoup de tes titres et balises métas sont très similaires - Structure: sauf erreur, la seule façon de passer au reste du site depuis la page d'accueil est le formulaire de recherche. Le problème est que les robots ne valident pas les formulaires. Il faut donc mettre quelques liens HTML sur ta page d'accueil vers d'autres pages importantes du site. Bon courage.
  22. Ce qui est peut-être un peu élevé, c'est d'avoir à la fois 15% de clic et une moyenne de 3 pages vues par visiteur
  23. 1000 vu/J x 3 pages/visiteur x 15% x 0.10 = 45/ jour
×
×
  • Créer...