Aller au contenu

smile

Hubmaster
  • Compteur de contenus

    1 154
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par smile

  1. J'appelle pas cela du codage, c'est de la mise en page, je préfère me concenter sur du vrai codage: les algorithmes et la programmation Ca tient sur 3 lignes quelque soit le langage utilisé, je peux te le faire en PHP, en Delphi, en VB. Et si j'ai besoin de faire une pause, j'ai toujours le graphisme qui m'apporte une petite touche de fantaisie et de créativité Alors les tableaux ou pas, pour moi c'est vraiment secondaire et comme tu le dis Thick, ca n'a pas d'incidence sur le référencement donc pourquoi changer
  2. smile

    Site Targeting

    Par contre je trouve que ca fait un peu too much avec "annonces Google" et "votre publicité sur ce site", "votre publicité sur ce site avec Google" c'est plus long mais ca fait qu'un texte en bas, quitte à faire 2 links.
  3. smile

    Site Targeting

    Si ca fonctionne http://www.oscoop.com/
  4. smile

    Site Targeting

    Ca y'est c'est fait on peut personnaliser sa page d'annonce pour recevoir des annonces sites "Votre publicité sur ce site" : Paramètres du compte > Inscription des annonceurs sur site A croire qu'ils nous lisent Par contre ca pas l'air encore totalement effectif ...
  5. Vraiment pas eu le temps de me documenter sur "l'importance des attributs de lecture horizontale/verticale qu'un intégrateur HTML ajoute à ses tableaux de données tabulaires afin que les cellules soient lues correctement et dans le bon ordre" Mais je ferais un effort, si on peut soulager les navigateurs de leurs lourdes taches alors pourquoi pas
  6. http://www.webmaster-hub.com/lofiversion/i....php/t6846.html pas si rare que ca, tu comprends pourquoi je ne l'utlise pas pour le moment Pour l'accessibilité numérique, je parlais plutôt de l'ergonomie d'une page, et son rendu. c'est possible, dans ce cas, le travail se fait en amont après recupération du code source, comme le suggère Cendrillon, un programme analysant la page sur <h1>, alt, etc ... Là j'adhère pas, expliquer que les tableaux de mise en page sont invalides mais acceptable dans la hierarchie de l'information, c'est idiot. qui va comprendre que l'un est légitime et l'autre à jeter ? En tous les cas ni les utilisateurs, ni les robots ...
  7. je suis pas contre des pages valides surtout que dans le code source du Hub, il y'a des tableaux
  8. Si tu lis ce que j'ecris, j'ecris qu'il y'a deux index, un sans balise, l'autre avec balises pour le cache, mais le code source sert qu'au cache pas pour un eventuel algo, d'ailleurs c'est sur un autre data center. C'est ce que je pense mais chacun est libre de penser ce qu'il veut
  9. Oui il faut distinguer les crawlers qui rapatrient le contenu et le moteur qui fait des recherches dans le contenu depuis sa base et à mon avis il fait des recherches sans les balises, le crawler a extrait à la volée le contenu sans les balises. Dans ce cas, il n'y aura pas d'algo pour analyser le code source puisqu'il n'y en a plus. Maintenant si GoogleGuy dit autre chose alors j'ai peut etre tout faux
  10. Je parle des Crawlers Dan, et en ayant developper des spiders, j'ai une petite idée comment ca fonctionne
  11. Certainement, mais je pense qu'il le parse à la volée, à mon sens, il y'a le contenu indexé en supprimant les balises (ca prend moins d'1 seconde) et de l'autre la page totale qui est indexé pour le cache. Je ne crois pas qu'il y'ait un algo pour analyser la page (totale avec le code source) ensuite, mais bon je n'ai pas de certitudes, si vous avez des infos, ou un technicien de Google, on sait jamais qui peut nous renseigner, ca serait super, mais peut etre que mon imagination est trop débordante
  12. Pas besoin de navigateurs exotiques, pendant un certain temps, j'étais sous ie 5.5, le nombre de sites valide W3C, qui n'affichaient pas correctement etaient hallucinants, le contenu se déplacant en bas. Je suis pour l'accessibilité numérique et rien de mieux que les tableaux, ca bouge pas, et c'est accepté par tous les navigateurs. Maintenant, si j'ai la garantie qu'il y'a 99,99% qui affiche correctement, j'enleverai les tableaux, d'ailleurs je le fais pour certains de mes clients qui le souhaitent, ca sera pas un problème
  13. Je suis pas contre la modernité Mais Il y'a encore trop d'utilisateurs (20%) qui ne peuvent pas lire correctement le XHTML, les tableaux eux sont reconnus par tous les navigateurs. Je choisis l'utilisateur
  14. Suis pas certain qu'on se comprenne Le code HTML ou XHTML n'est que le carburant (Sans plomb, Diesel, Huile végétale), mais au final la bète de course c'est ton site web, et un bon moteur c'est le contenu et le developpement d'applications. C'est pas la même philosophie
  15. Je ne sais pas mais pour les trouver hideuses, il faut aller chercher le code source, et franchement les visiteurs eux, n'iront pas le voir, je préfère voir un beau site graphique qui aura l'estime de ses membres et non pénalisante pour les moteurs, qu'un site en XHTML pauvre qui sera estimé uniquement par une catégorie de webmasters et qui aura des defaults d'affichages selon le navigateur. La seule question : A qui s'adresse notre travail ?
  16. Si un code pourri pour toi ce sont des tableaux imbriqués, je maintiens que le code HTML n'entre pas en ligne de compte. Crois tu qu'un Bot aussi perfectionné soit-il, prend du temps à analyser le code source ? Son job c'est de rapatrier l'info le plus rapidement possible, je pense même qu'il se fout si le contenu est en bas, en haut ou au milieu. Maintenant il est clair que si t'as pas ou peu de contenu, du javascript, du flash, ca va te pénaliser. C'est pas contre toi thick mais de lire sans arret dans divers forums qu'il faut un code XHTML pour esperer etre bien referencer, c'est faux, on se sert du du referencement pour faire avancer la norme W3C mais cela n'a pas d'incidence sur le ref. Pour finir certainement que le changement d'algo y est pour quelque chose, possible qu'il faille chercher dans les resultats complementaires mais en aucun cas pour son code HTML, et si on me demontre le contraire, je ne suis pas buté et je suis pret à l'accepter
  17. Il y'a des grandes règles à respecter, mais pas la peine d'en rajouter des fausses ou inutiles.
  18. c'est n'importe quoi, qu'il y'ait des pénalités pour des ressemblances pour le contenu des metas et le contenu body c'est une chose mais de dire que le bot se perd dans le code html ca ce n'est pas vrai. Les bots retirent la partie code pour extraire le contenu, c'est tout, que ca soit pour des balises div, table, font ... Faut arreter de dire tout et n'importe quoi ... Et puis faut arreter avec l'optilisation à tout va, si on doit se preoccuper aussi du data center jagger3 et changer l'organisation des liens, c'est plus possible ... Je rappelle quand meme qu'un site web est destiné à un public et non à un moteur, se soucier de l'ergonomie, des attentes de tes membres, c'est quand même un peu plus noble que de se soucier du data center Jagger3
  19. Tes questions il y'a un an sont toujours d'actualité et je dirais davantage, ce second index est de plus en plus important et beaucoup de sites en sont victimes ... Je ne comprends pas les critères qui font que telles ou telles pages se retrouvent en complementaires et à vrai dire je pense que ca enlève pas mal de pertinence. Franchement, c'est pas ce qu'à fait de mieux Google ou alors des explications sur les raisons de cet index secondaire serait le bienvenu ...
  20. Justement ces "resultats complémentaires", pour quelles raisons ? pourquoi ce genre de pénalité ?
  21. Je ne vois pas le rapport avec la position de son site sur Google, les tableaux ne sont pas un problème, de plus je suppose qu'avant son déménagement, il avait le meme code source ...
  22. Merci, je l'ai desactivé
  23. Salut, je souhaiterai savoir à quoi correspond le service ident sur linux. j'ai dans mes logs : identd[29027]: started peut-on le désactiver le cas écheant ? merci par avance
  24. heureusement qu'il y'a la pub online sinon beaucoup de sites fermeraient, si ca permet de sensibiliser les internautes sur le fait que la pub est utile alors pourquoi pas si c'est intelligemment fait Maintenant je comprends aussi ces logiciels anti-pub quand le site abuse, pops, pops-under etc.. là ce n'est plus possible ... Mais si c'est pour bloquer des liens textuels qui sont des pubs non polluantes et qui peuvent apporter un complément d'infos, là pas d'accord
  25. J'ai pigé Ca sert à afficher les adsenses en paralysant le logiciel Adblock que je ne connaissais pas d'ailleurs. Mais comme le dit Cheval, dans ce cas on va à l'encontre de sa volonté ... Puis il ne cliquera pas sur les liens donc ca sert à rien.
×
×
  • Créer...