Aller au contenu

Jan

Hubmaster
  • Compteur de contenus

    2 304
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Jan

  1. C'est là qu'il faut être créatif et contourner la difficulté en se positionnant sur des niches, en attendant d'avoir un site assez "fort" (et ancien) pour s'attaquer au mot-clé rêvé. Si un positionnement sur "immobilier" est jugé "mission impossible" pour un site qui démarre, on peut par exemple imaginer d'y créer une section informative très documentée sur le financement de l'immobiler. Ca peut être une façon d'obtenir des backlinks de poids-lourds, et d'entrer progressivement dans le jeu par la petite porte. (Mon exemple sur l'immobilier et le financement est purement factice. Je ne connais rien au domaine)
  2. Il ne semble pas y avoir de recette miracle. L'effet sandbox ne semble pas être automatique, mais apparaitre quand Google juge que l'optimisation devient de la suroptimisation. A partir de là soit les mots-clés que tu vises ne sont pas trop concurrentiels et tu peux te positionner avec une optimisation "light" en évitant la sandbox, soit tu vises des mots-clés très concurrentiels sur lesquels les sites bien positionnés sont anciens et très optimisés (beaucoup de backlinks), et le problème commence. Il faudrait pour être visible sur ces mots-clés forcer sur l'optimisation pour arriver rapidement au niveau des sites déjà présents. Mais comme ton site est récent, google semble juger que son optimisation va trop vite pour être "naturelle", et l'effet sandbox apparait. Les critères pris en compte par Google pour juger de l'optimisation ou de la suroptimisation semblent être principalement les backlinks. Leur quantité et parait-il aussi leurs qualités. Il se dit que les liens réciproques, les liens dans certains sites ou annuaires, les liens massifs dans les footers seraient dévalués. Mais tout le monde n'est pas d'accord. L'optimisation interne des pages a probablement aussi son importance. Une trop forte densité de mots-clés parait sans doute suspecte sur un site jeune. Bref, d'après des témoignages lus sur des forums US, la seule solution pour positionner un site récent sur des mots-clés concurentiels serait de faire un site de grande qualité, au point qu'il obtient rapidement et spontanément des backlinks depuis beaucoup de sites, dont des sites qui font autorité dans le domaine.
  3. -http://www.web-infotek.com/index.php?op=edito et -http://www.web-infotek.com/index.php sont 2 URLs différentes. -http://www.web-infotek.com/index.php redirige vers -http://www.web-infotek.com/index.php?op=edito C'est donc cette URL qu'il faut référencer.
  4. Si tu n'as pas d'autre solution (ce qui m'étonnerait), alors c'est l'URL -http://www.web-infotek.com/index.php?op=edito qu'il faut que tu références. C'est à dire qu'il faut faire pointer tous les liens (internes à ton site et externes chez tes partenaires ou dans les annuaires) vers -http://www.web-infotek.com/index.php?op=edito
  5. Bonjour, L'URL que tu donnes (http://www.web-infotek.com/) redirige vers -http://www.web-infotek.com/index.php?op=edito Cette redirection a de grandes chances dêtre un sérieux obstacle au référencement de ton site. Il serait souhaitable que tu modifies ce point.
  6. Il se dit que seuls les nouveaux sites (ceux qui avaient pr=0) ont droit à une mise à jour du PR. Vous confirmez?
  7. Jan

    Trier un tableau de dates

    J'ai mis en place la solution proposée par Dan... et découvert au passage la fonction strtotime() qui correspond exactement à ce que je cherchais. Mon code est allégé. Merci à tous pour votre aide.
  8. Tu obtiens ces informations personnalisées parce que tu es loggué sur ton compte Google ou gmail. Déloggue toi et elles disparaitront. De même si tu veux observer le positionnement des sites dans Google il faut te délogguer, sinon tu verras des résultats personnalisés, et non pas ce que Google renvoie à l'internaute lambda <edit>7:09 est l'heure de ta dernière visite sur cette page</edit>
  9. Bonjour, En jetant un rapide coup d'oeil aux pages "bungalow" et "activités", j'ai vu du texte caché avec des liens répétés dans des div en "visibility: hidden". Ce n'est peut-être pas la raison de la disparition de Google, mais ça peut être une cause possible .
  10. Jan

    Trier un tableau de dates

    Je me permet de revenir sur ce sujet pour préciser un point. Je récupère bien les 3 lettres représentant le mois ("Mar" pour le mois de mars) par la fonction substr, comme suggéré par Anonymus. Pour convertir ce "Mar" en "03", je balaye ensuite par une boucle while une table de correspondance: Ca fonctionne, mais ce n'est pas très élégant. Je me demandais s'il n'existait pas une fonction toute faite en PHP qui ferait cette conversion. Merci.
  11. Matt Cutts nous gratifie d'un billet sur son blog dans lequel il répond à beaucoup de questions relatives à ce qui se passe sur Google depuis quelques semaines: Big daddy, Mozilla Googlebot, pages complémentaires, etc... http://www.mattcutts.com/blog/q-a-thread-march-27-2006/
  12. Jan

    Trier un tableau de dates

    Je crois que j'ai compris le principe. Merci
  13. Jan

    Trier un tableau de dates

    Bonjour, J'ai un tableau de dates, que je veux trier par ordre décroissant (de la plus récente à la plus ancienne). Le problème est que ces dates n'ont pas toutes le même format. Certaines sont sous la forme: ... d'autres sous la forme: Je cherche à les mettre toutes au même format, puis à trier le tableau. Merci.
  14. Bn anniversaire Dan
  15. Merci
  16. Bonjour, J'ai un tableau de chaines de caractères (dont j'ignore le nombre d'éléments, n) duquel je voudrais supprimer les doublons. Exemple, ce tableau de 4 éléments contenant un doublon ($tableau[2] identique à $tableau[0]): $tableau[0] vaut "aaa" $tableau[1] vaut "bbb" $tableau[2] vaut "aaa" $tableau[3] vaut "ccc" ... devient un tableau de 3 éléments: $tableau[0] vaut "aaa" $tableau[1] vaut "bbb" $tableau[2] vaut "ccc" Merci.
  17. L'activité de googlebot sur mes sites est variable, selon les sites. Certains sont énormément crawlés d'autres moins que par le passé. Mais ce ralentissement que j'observe sur certains sites n'est pas récent, il date de l'update Jagger (novembre 2005). Je n'ai pas trouvé l'explication, mais je me dis qu'il s'agit peut-être d'une pénalité. Ce phénomène rend en tous cas les sites affectés plus difficiles à positionner. Au global c'est vrai que google est beaucoup plus lent que par le passé à indexer les nouvelles pages (MSN est plus rapide). Et que des liens dans des pages à PR élevé ne suffisent plus à garantir une indexation rapide ou un crawl régulier. Ce n'est peut-être que temporaire. La mise en place (laborieuse) de big daddy y est peut-être pour quelque chose. Autre nouveauté avec Big Daddy: "Mozilla Googlebot" sert maintenant à indexer les pages en cache, alors qu'avant seul "Googlebot" le faisait.
  18. Il semble que ce soit possible avec Movable type. Un exemple: http://www.markcarey.com/googleguy-says/ avec la vue en forum: http://www.markcarey.com/googleguy-says/forum.html
  19. Je ne suis pas sûr que tu sois exactement dans ce cas, faute d'avoir suivi l'évolution de ton site. Ce n'est qu'une explication possible. Mais le bug est en passe d'être corrigé. Les pages disparues reviennent peu à peu sur les sites affectés. Le bug est donc maintenant moins flagrant. Pour le vérifier: - essaie la commande site: sur un dc big daddy et un dc non big daddy - regarde les pages de résultats jusqu'à trouver l'endroit où commencent les résultats complémentaires - tu obtiens ainsi un nombre de pages hors résultats complémentaires (qu'il ne faut pas comptabiliser) sur big daddy et "non-big daddy" - s'il y a une différence, il est probable que ton site soit affecté par le bug en question - ré-essaye tous les jours. Si tu vois le nombre de pages augmenter régulièrement sur big daddy, c'est bien ce bug Reste à savoir quand big daddy sera revenu au niveau des dcs non big daddy. A ce moment-là, on pourra considérer le bug comme résolu... et on pourra commencer à surveiller les positionnements pour tirer les leçons de l'update (il se dit qu'il pourrait alors y avoir une mise à jour des BLs et PR).
  20. Tu n'es pas le seul dans ce cas. Beaucoup de sites ont été désindexés sur big daddy (sauf la page d'accueil et les pages en résultat complémentaire) il y a une dixaine de jours sans raison apparente. On en a parlé ici et ici. Googleguy est intervenu sur webmasterworld en laissant entendre qu'il s'agissait d'un bug qui devrait être règlé ces jours-ci. Depuis ce week end, la diffusion de big daddy sur de nouveaux data centers s'est accompagnée d'un retour (encore partiel) des pages désindexées: http://www.webmaster-hub.com/index.php?showtopic=22509 Reste à voir si ça se confirme, et que toutes les pages disparues réapparaissent. Le mieux est sans doute d'attendre que ça se stabilise avant d'agir, si nécessaire.
  21. Bonjour, Après être resté limité à environ la moitié des data centers pendant plusieurs semaines, l'index "Big daddy" semble être en train de se diffuser sur tous les data centers: http://www.webmaster-hub.com/outils/googlesearch.php Certains des sites qui avaient été désindexés de big daddy le week end dernier (toutes les pages absentes sauf la page d'accueil et les résultats complémentaires) commencent à réapparaitre. Toutes les pages ne sont pas encore réindexées, mais ça semble être en route. Avec la généralisation de big daddy, il faut s'attendre à des variations de trafic sur pas mal de sites (en + ou en - selon les cas).
  22. Firefox notamment, et sans doute d'autres navigateurs, recherchent une favicon en arrivant sur une page. S'il n'y en a pas, comme ça semble être le cas sur ton site, ça génère une erreur 404.
  23. Google est au courant du problème qui affecte ton site et beaucoup d'autres sur Big Daddy (disparition de toutes les pages sauf la home et les résultats complémentaires). Si c'est un glitch, on peut penser qu'il sera corrigé, si c'est une pénalité, il faudrait en comprendre la raison pour pouvoir y remédier. En attendant, je pense qu'il est préférable de ne pas se lancer dans des modifications lourdes sur les sites impactés. Ecrire à Google? Pourquoi pas mais je doute que tu obtiennes une réponse.
  24. Aucun problème pour utiliser actulab.com comme vecteur de test. Encore faut-il savoir quoi tester Si vous avez des idées... Mais, je crois comme Nicolas que la meilleure chose à faire est d'attendre. Si google ne parvient pas à règler le problème lui même, il aura vraiment perdu en pertinence en rayant de la carte un certain nombres de sites très pertinents sur leurs mots-clés. Quant à identifier la raison pour laquelle le problème touche certains sites et pas d'autres ça semble difficile. Si c'est bien une pénalité que nous voyons en action, je comprendrais qu'elle frappe actulab.com qui n'est pas blanc-bleu Mais certains sites frappés n'ont rien à se reprocher. Le cas de mincoin me semble en témoigner. J'ai l'impression que le seul point commun des sites touchés est d'avoir beaucoup de pages en résultats complémentaires. Donc pour la plupart des sites assez anciens avec des pages qui ont changé d'adresse ou des URLs qui renvoient des contenus trop similaires pour des raisons diverses, pb d'url avec et sans www, 302 inamicales, contenu pompé, etc... (perso ce sont des liens internes, volontairement faits en javascript pour que google ne les suive pas, et qu'il a fini par suivre le jour où il a commencé à lire le js).
  25. Le problème semble assez sérieux pour faire sortir Googleguy de son mutisme: http://www.webmasterworld.com/forum30/33351-16-10.htm Pas franchement rassurant
×
×
  • Créer...