Aller au contenu

thick

Membre+
  • Compteur de contenus

    3 093
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par thick

  1. Je suppose que Google traite cela comme dans le cas du duplicate content. Faut voir si le PR se trouve dilué en même temps que le site se trouve freiné. Aunid, tu ne serais pas inscris à la terrible toplist mangeuse de cigogne de Rico ?
  2. J'ai personnelement eu à me défaire de Genhit et Etula. Je sais que cap-locations.com fait ce genre de bidouille. Y en a d'autres, mais je ne peux rien certifier sans être sûr. Voilà comment ça marche. En fait, pour une toplist, il faut une redirection pour permettre le vote. Ton site se retrouve avec une adresse du type http://genhit.com/out/tonpseudo. Je ne sais pas par quel miracle, Google prend cette redirection comme plus pertinente que celle de ton site. Là où tu étais positionné, tu verras toujours ta title et ta description, mais l'URL ne sera plus la tienne, ça sera le http://genhit.com/out/tonpseudo qui aura pris sa place. Smart non ? Coyote a même eu mieux puisque son site avait carrément disparu pour laisser place à Genhit. Ca lui a coûté une place sur la première page cigogne, vu le boulot qu'il avait fait.
  3. J'insiste particulièrement sur les recommendations de PwetPwet. On assiste à une montée en flêche de ce type de redirection voleuse de ranking. Attention aux inscriptions sur les toplists notamment et quelques annuaires malicieux.
  4. Picasa est génial. L'interface est très agréable, les fonctions nombreuses et le moteur de recherche par mots clefs est excellent. Par contre, ce qui me gène est encore une fois qu'il s'agit d'un logiciel qui se permet de se connecter au réseau sans demander la permission. Il faut juste savoir que Google connait vos images si vous installez Picasa.
  5. En fait, il y a un autre post (toujours avec intervention de GGGuy) qui dit que le contenu après les 100Ko pourrait être indexé. http://www.webmasterworld.com/forum3/20791.htm Bref, ce n'est pas très clair cette histoire, même pour GoogleGuy qui dit que certaines personnes dignes de confiance chez Google ont certifié que le contenu après les 100Ko sont indexés. Désolé d'ajouter à la confusion, mais si même GoogleGuy botte en touche (il préconise de rester en dessous des 100Ko), ça va être difficile de savoir. Voilà un test tout trouvé pour DarkSEO.
  6. GoogleGuy n'est sûr de rien, mais il s'appuie sur les connaissances d'un autre membre de WebmasterWorld pour dire que le contenu indéxable est fonction de la limite du cache qui est de 100 Ko (HTML seulement). Le problème est que l'exemple cité dans le post parle du contenu non indexé après la limite des 100Ko dans un document .pdf Ceci dit, pour moi c'est bien la limite du cache qui va limiter l'indéxage d'une page. Si ça peut vous aider, voici le post original de WebmasterWorld http://www.webmasterworld.com/forum3/23410.htm
  7. D'après moi, Google a simplement changé l'échantillon de Backlinks qu'il nous montre. Maintenant, les backlinks de faible PageRank sont inclus, mais il n'a pas mis à jour tout ça. Enfin, j'espère sinon il y a comme un gros problème avec certaines cigognes.
  8. GG me laisse 2 BLs foireux de Genhit sur ma cigogne. C'est carrément l'insulte.
  9. Dan, les 2 m'intéressent mais c'est le dernier cas dont il s'agit en l'occurence. Merci pour le lien. Pour me créer mo propre fil, je bûche ...
  10. Si, j'ai encore un souci. Pas de bouton "Blog This" que j'utilise très fréquemment. A ma connaissance, il n'y a qu'une extension pour Live Journal, mais si quelqu'un connait une solution pour blogger depuis Firefox, pour que je mette IE définitivement au placard.
  11. Elle ne passe pas en gris pour une page non indéxée, mais bon c'est un détail. Maintenant, je ne vois plus trop pourquoi j'aurais à sortir IE.
  12. title pour les img ne passe pas la validation W3C pour le XHTML me semble t'il ?
  13. Amusant ta remarque Denis, car j'allais justement revenir à la charge pour demander s'il n'y avait pas un tuto qui traîne pour produire son propre feed ? Je suis en plein trip RSS et c'est clair que je ne veux pas avoir à passer par un feed qui me bousille la valid W3C si je veux l'afficher. En plus, je veux mettre un feed sur la page d'accueil et là je ne veux certainement pas toucher au DOCTYPE.
  14. Bravo Xavier, tu me l'as enlevé de la bouche. C'est le message que 99,9% des webmasters devraient écrire en haut de leur écran. La simplicité est toujours la solution aux problèmes Web. Pour ajouter un sentiment par rapport aux noscript, il me semble que si vous avez trop honte de vos liens pour ne pas les afficher sur la page, pourquoi les proposer aux Robots ? Dans le cadre du concours cigogne, c'était fun de tester les bidouilles en noscript ou autre, mais faire des brouettes de liens ou texte caché ne donnera rien de positif sur la longueur pour un site que tu veux faire durer.
  15. LaurentDenis merci, c'est exactement ça. Je n'y avais même pas pensé. En fait, Je pense que je vais tout simplement faire cette page en HTML 4.01 pour voir si ça ira pour le validateur. Quand tu parles de fournisseur de service, as-tu quelqu'un en tête, car je ne suis marié avec personne ?
  16. Quand je passe la page qui contient les feeds au validateur, ça coince actualités google En fait, je passe par Actifpub pour le code qui inclut les feeds et je pense que c'est là le problème.
  17. Aïe aïe aïe, le validateur W3C n'a pas l'air d'apprécier du tout les feed RSS. Le mien est à base d'include, mais je ne pense pas que le problème vienne de là. Si quelqu'un a des infos sur le moyen de rendre accessible un feed RSS, je suis preneur ?
  18. Vraiment très très bien ce projet. Je suis impressionné par l'envergure de la chose. Un grand bravo. Il manque aussi un bon logo !
  19. Pour une CSS interne, je vois bien comment le Robot pourrait voir la bidouille, mais penses-tu vraiment que le Robot de crawl va venir fouiner dans une CSS externe ? Je pense plutôt que ceux qui se font attraper ont abusé en coincant un max de keywords ou de liens, mais une CSS externe reste bien loin du crawl il me semble. Quand au noscript, ce sont les fameux liens en footer de page qui sont à éviter, surtout s'il n'y a pas de "script" aux environs. Encore une fois, c'est l'abus qui est à proscrire. 1 ou 2 noscript en footer avec des liens dedans ne va pas pénaliser une page, mais en mettre des dizaines peut être un problème, quoique je ne connaisse pas de cas de blacklistage pour cela.
  20. Pour ma part, je n'y comprends rien. Certains "satellites" ou "miroirs" deviennent très bien positionnés, en particulier les pages free.fr où je m'amuse un peu. D'un autre côté, ça coince complètement pour un site dynamique, où GG refuse d'indéxer les pages et je ne sais plus quoi faire. Il semblerait que Google débarasse sont index de nombreuses pages, mais il y va un peu fort. Si vous avez le malheur d'attraper le filtre qui ne convient pas, ça ne sent pas bon pour la page, alors qu'on peut abuser sans peine avec d'autres pages.
  21. thick

    FireFox 0.9 !

    Merci Loupillo de m'avoir soufflé cette sortie. En effet, Firefox monte franchement en puissance. Par exemple, les extensions m'ont carrément bluffé et je fais mumuse avec mon navigateur comme rarement auparavant. J'utilise pratiquement tous les navigateurs par curiosité, mais cette nouvelle version de Firefox est un must. Laissez Internet Explorer au placard pour un moment et essayez Firefox sans retenue, c'est un vrai régal.
  22. Merci messsieurs. Je vais essayer de m'en sortir grâce à vos conseils
  23. Bonjour, J'essaye d'indéxer un site, mais l'URL Rewriting n'est pas possible chez l'hébergeur (online.net). Pas possible de changer d'hébergeur non plus. Du coup, je me demandais si des URLs en index-fr-3-4.php pourraient suffire ? Ou alors, générer des liens html puis de les rediriger en php. Les avis des spécialistes me seraient d'un grand secours. Merci
  24. En tant que roi du spam, je peux trouver pleins d'idées créatives pour ta page PR5.
×
×
  • Créer...