Aller au contenu

Sebastien

Hubmaster
  • Compteur de contenus

    2 598
  • Inscrit(e) le

  • Dernière visite

Messages postés par Sebastien

  1. Comme le dit Perrine, ne t'attends pas à ce que les régies produisent du code valide. Le mieux est encore de retoucher le code pour se conformer aux standards. Il s'agit de problèmes simples à resoudre le plus souvent des ampersand mal codé, des attributs target à supprimer ou des méthodes dépreciées de déclaration des scripts. Cela dit si ces pubs sont des javascripts, elle pourront respecter les standards, mais ne seront pas "accessibles" (mais bon ce n'est pas bien grave pour les usagers du site, et je n'ai jamais encore entendu parler de personnes se plaignant de ne pas voir de pub affichée ;) ).

  2. Juste une nuance : les caractères foncés sur fond clairs semblent plus lisibles pour les personnes ayant une vision dans la moyenne. Mais il est fort possible que d'autre types de contrastes soient plus adaptés pour certains troubles de la vision. Je ne pense pas qu'on puisse dire qu'il y ait une couleur idéale pour les mal voyants, et d'ailleurs cette expression couvre un grand nombre de troubles de la vision très différents : opacité de la rétine, dégénerescence maculaire, dyschromatopsies...

    Il me parait donc sage d'utiliser un fonc clair et des textes sombres pour le plus grand nombre et de laisser la possibilité aux malvoyants de gérer eux-même leur affichage en respectant le principe de séparation contenu-présentation et en utilisant CSS. On peut également proposer un "style switcher" avec des CSS adaptées.

  3. Ah non, je n'accepte pas cette réponse !

    Bon alors je suis pas codeur, et je vais dire peut être des bêtises mais voila quelques pistes qui pourraient être exploitées :

    - Qualité des sites liants, basé sur un premier échantillon de sites selectionnées (un genre de trustrank). Par ex il est normal qu'un lien émanant des signets de la BnF se voit accorder une plus grand confiance qu'un lien de annuaire-spammy.com

    - Analyse de l'intitulé des liens. On sait (nous les humains) reconnaître des liens achetés du fait que les ancres sont un peu trop idéales (genre "achat appareil photo numérique"). Google pourrait modeliser ce jugement.

    - Place des liens dans le code : des liens en footer ou dans un bloc pourraient être ou non indicateur de leur pertinence.

    - Distance sémantique entre les liens : un ensemble de liens sur des thématiques très éloignées peut être un indicateur de liens artificiels. Au contraire des liens traitant de thème proches ressemble plus à une selection logique.

    - Caractère générique des liens : un lien présent sur toutes les pages pourrait être considéré comme de moindre importance, car ne s'inscrivant pas dans un contexte précis. Un lien sur une page donnée du site est au contraire là parce qu'il est pertinent par rapport au contexte.

  4. Je suis d'accord sur cette grosse blague qu'est le web 2.0 avec sa cohorte de services pas forcément nouveaux ou utiles, cela dit je ne pense pas qu'on puisse faire un amalgame entre un format de site et la qualité de l'information. Qu'un site soit un blog n'a aucun rapport avec la pertinence de l'information qu'il propose. Et certains services qualifiés de web 2.0 sont quand même remarquables en terme d'information. Je pense par exemple à Del.icio.us.

  5. Une hypothèse, peut être farfelue sur cette tendance à la baisse des PR pour des sites "clean" : Google est en guerre contre les liens artificiels et payants. Les gens qui pratiquent ces techniques se basent le plus souvent sur le PR visible, et favorisent les PR élevés : de 5, 6, 7, les PR supérieurs à 8 étant souvent inatteignables.

    Google pourrai très bien infléchir le milieu supérieur de la courbe des PR visibles, de façon à baisser le PR apparent des sites ayant un PR réel correspondant à des valeurs entre 5 et 7 (je rappelle cependant que le PR est en réalité un chiffre entre 0 et 1 et que les valeurs que nous voyons sont des indices utilisant une echelle logarithmique).

  6. Si tu as un nom de domaine local (.fr en France), peut importe le lieu d'hébergement, il sera considéré comme "français". Avec un .com il ne sera pas forcément considéré "français", mais plutôt "francophone" (si son contenu est écrit en français). Il ressortira dans les pages de résultats mais ne bénéficiera pas d'un bonus pour la France.

    Le top serait un domaine local avec le contenu qui va bien par région (et un .com à l'international).

  7. Aucun risque que cela soit vu comme du spam, tant qu'il s'agit de vrais commentaires, faits à la main. Mais du fait de l'utilisation de l'attribut nofollow il se peut que le lien ne transmette aucun PageRank. Peu importe, cela peut te créer quand même de la visite et permettre de nouer des contacts avec les blogueurs.

  8. En effet seul le swf est indexé sur ce domaine. Je ne vois pas de raison évidente : il n'y a pas de robots.txt ni de metas restreignant l'indexation. Une piste pourrait être que le sous-domaine avec 36 mots-clés dedans séparés par des tirets soit vu comme du spam. De toute façon le site n''affiche aucun lien entrant dans Google, on peut déjà s'estimer heureux que le fichier flash soit indexé.

×
×
  • Créer...