Aller au contenu

Sebastien

Hubmaster
  • Compteur de contenus

    2 598
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Sebastien

  1. Comme le dit Perrine, ne t'attends pas à ce que les régies produisent du code valide. Le mieux est encore de retoucher le code pour se conformer aux standards. Il s'agit de problèmes simples à resoudre le plus souvent des ampersand mal codé, des attributs target à supprimer ou des méthodes dépreciées de déclaration des scripts. Cela dit si ces pubs sont des javascripts, elle pourront respecter les standards, mais ne seront pas "accessibles" (mais bon ce n'est pas bien grave pour les usagers du site, et je n'ai jamais encore entendu parler de personnes se plaignant de ne pas voir de pub affichée ).
  2. Juste une nuance : les caractères foncés sur fond clairs semblent plus lisibles pour les personnes ayant une vision dans la moyenne. Mais il est fort possible que d'autre types de contrastes soient plus adaptés pour certains troubles de la vision. Je ne pense pas qu'on puisse dire qu'il y ait une couleur idéale pour les mal voyants, et d'ailleurs cette expression couvre un grand nombre de troubles de la vision très différents : opacité de la rétine, dégénerescence maculaire, dyschromatopsies... Il me parait donc sage d'utiliser un fonc clair et des textes sombres pour le plus grand nombre et de laisser la possibilité aux malvoyants de gérer eux-même leur affichage en respectant le principe de séparation contenu-présentation et en utilisant CSS. On peut également proposer un "style switcher" avec des CSS adaptées.
  3. C'est l'achat qui est défendu, pas la vente
  4. Un référenceur n'a pas à partager ses "secrets" s'il ne le souhaite pas, mais à vrai dire il n'y a pas vraiment de secrets, surtout des savoirs-faire et de l'expérience.
  5. Bon alors je suis pas codeur, et je vais dire peut être des bêtises mais voila quelques pistes qui pourraient être exploitées : - Qualité des sites liants, basé sur un premier échantillon de sites selectionnées (un genre de trustrank). Par ex il est normal qu'un lien émanant des signets de la BnF se voit accorder une plus grand confiance qu'un lien de annuaire-spammy.com - Analyse de l'intitulé des liens. On sait (nous les humains) reconnaître des liens achetés du fait que les ancres sont un peu trop idéales (genre "achat appareil photo numérique"). Google pourrait modeliser ce jugement. - Place des liens dans le code : des liens en footer ou dans un bloc pourraient être ou non indicateur de leur pertinence. - Distance sémantique entre les liens : un ensemble de liens sur des thématiques très éloignées peut être un indicateur de liens artificiels. Au contraire des liens traitant de thème proches ressemble plus à une selection logique. - Caractère générique des liens : un lien présent sur toutes les pages pourrait être considéré comme de moindre importance, car ne s'inscrivant pas dans un contexte précis. Un lien sur une page donnée du site est au contraire là parce qu'il est pertinent par rapport au contexte.
  6. Je suis d'accord sur cette grosse blague qu'est le web 2.0 avec sa cohorte de services pas forcément nouveaux ou utiles, cela dit je ne pense pas qu'on puisse faire un amalgame entre un format de site et la qualité de l'information. Qu'un site soit un blog n'a aucun rapport avec la pertinence de l'information qu'il propose. Et certains services qualifiés de web 2.0 sont quand même remarquables en terme d'information. Je pense par exemple à Del.icio.us.
  7. La qualité, je dirai que c'est un ensemble de signaux sur lesquels Google se base pour juger de la valeur d'un lien. Bien sûr la recette est secrete
  8. Un lien est un lien et Google ne classe pas les sites en blogs/annuaires/forums etc. Un lien sur un site considéré comme étant de qualité par Google continuera AMHA de pousser vers le haut le site lié, que le site liant soit un annuaire ou une autre forme de site. Ce n'est pas la forme du site qui compte mais sa pertinence.
  9. Cette vague de perte de PR concerne le PageRank affiché. Ces sites affichent donc moins de PR, mais il ne semble pas que leur positionnement ait été significativement impacté.
  10. Tu ne t'es pas fait trop mal au moins ? Bienvenue sur le Hub !
  11. Très bon la réponse à la question "quelle heure est-il ?"
  12. Une hypothèse, peut être farfelue sur cette tendance à la baisse des PR pour des sites "clean" : Google est en guerre contre les liens artificiels et payants. Les gens qui pratiquent ces techniques se basent le plus souvent sur le PR visible, et favorisent les PR élevés : de 5, 6, 7, les PR supérieurs à 8 étant souvent inatteignables. Google pourrai très bien infléchir le milieu supérieur de la courbe des PR visibles, de façon à baisser le PR apparent des sites ayant un PR réel correspondant à des valeurs entre 5 et 7 (je rappelle cependant que le PR est en réalité un chiffre entre 0 et 1 et que les valeurs que nous voyons sont des indices utilisant une echelle logarithmique).
  13. Si tu as un nom de domaine local (.fr en France), peut importe le lieu d'hébergement, il sera considéré comme "français". Avec un .com il ne sera pas forcément considéré "français", mais plutôt "francophone" (si son contenu est écrit en français). Il ressortira dans les pages de résultats mais ne bénéficiera pas d'un bonus pour la France. Le top serait un domaine local avec le contenu qui va bien par région (et un .com à l'international).
  14. Normalement tu peux importer ton XML dans excel. Chaque balises XML correspondra à une colonne. Tu n'as ensuite qu'à copier coller la colonne des URLs dans un fichier texte.
  15. Nombre de logiciels libres sont "portables", c'est à dire ne necessitent pas d'installation ni de base de registre pour fonctionner. Voir ici : http://www.framakey.org/Portables/Index http://portableapps.com/apps
  16. Aucun risque que cela soit vu comme du spam, tant qu'il s'agit de vrais commentaires, faits à la main. Mais du fait de l'utilisation de l'attribut nofollow il se peut que le lien ne transmette aucun PageRank. Peu importe, cela peut te créer quand même de la visite et permettre de nouer des contacts avec les blogueurs.
  17. Cette balise n'est utilisée par aucun moteur actuellement. Il s'agit d'une balise propriétaire d'un obscur moteur nord americain qui a disparu depuis des années.
  18. Précision : Altavista et Yahoo sont en fait le même moteur (Altavista affichant les résultats Yahoo, propriétaire de la marque)
  19. Les liens cachés ont disparu ? le "reflaet" est en commentaire HTML semble-t-il
  20. En effet seul le swf est indexé sur ce domaine. Je ne vois pas de raison évidente : il n'y a pas de robots.txt ni de metas restreignant l'indexation. Une piste pourrait être que le sous-domaine avec 36 mots-clés dedans séparés par des tirets soit vu comme du spam. De toute façon le site n''affiche aucun lien entrant dans Google, on peut déjà s'estimer heureux que le fichier flash soit indexé.
  21. Ca peut etre possible si l'indexation de la page est restreinte via robots.txt mais que les fichiers sont indexables via des liens sur d'autres pages.
×
×
  • Créer...