Aller au contenu

yep

Hubmaster
  • Compteur de contenus

    278
  • Inscrit(e) le

  • Dernière visite

Messages postés par yep

  1. Une URL est fait pour identifier un contenu

    => doit donc être unique ce qui évite les duplications de contenus

    => inutile de l'implémenter avec des identifiants de bases de données

    Par ailleurs, elle doit avoir un caractère sémantique

    => être intelligible par la cible

    Ainsi comme un argumentaire dans un document Word l'URL peut contenir des caractères de ponctuation, mais comme dans un document Word il est préférable d'utiliser un séparateur de mots clés (le tiret semble le plus approprié) pour "séparer" deux termes proches (pique-nique).

    Toutefois avant de te concentrer sur le format des URL, le contenu des pages est roi d'autant que de nombreuses pages se positionnent avec des URL dites "non optimisées" mais surtout parce que les moteurs de recherche sont là pour proposer des contenus pertinents pas des URL.

  2. Juste pour rappel, Google et consorts donnent bien ce qu'ils veulent comme informations en particulier lorsqu'on utilise des opérateurs.

    D'un autre côté, link: permet de connaître les pages faisant des liens "pertinents" vers l'URL renseignée.

    Peut-être que tes backlinks ne sont simplement pas considérés comme pertinents par Google ?

  3. meilleur outil d'analyse de statistiques

    Tu veux dire te donnant des informations : donc de reporting, parce que l'analyse c'est toi qui la fait.

    Le meilleur outil (à mon avis, mais payant) : Omniture (parce qu'il permet entre autre de configurer ses propres reportings).

    On ne peut pas avoir le meilleur des outils gratuitement, parce que pour "devenir le meilleur", il a fallu investir du temps ce qui se traduit par offrir un service payant.

    Donc tu devrais rester avec Google Analytics qui est un des outils gratuit les plus complets du marché.

  4. Connaissant bien cette problématique (de récupération de l'info, cf. outils-referencement.com), je te tire mon chapeau Stéphane.

    Pourquoi ? Parce qu'effectivement, beaucoup de webmasters sont habitués à des outils qui ne fonctionnent pas correctement et on a beau en concevoir qui donnent une information plus viable, cela ne se voit pas de leur côté (par exemple la gestion des encodages des pages).

    De même, et c'est justifié, l'aspect graphique joue même si ce que, normalement, on demande à un outil c'est d'être fiable, après reste à savoir si on l'utilise correctement ou pour obtenir réellement ce que l'on veux.

  5. Oui et non.

    Tu parles de densité de mots clés, indice qui :

    - est encore utilisé aujourd'hui

    - (mais) ne doit pas représenté grand chose dans l'immensité des critères exploités pour calculer la pertinence d'une page

    - dépend des outils de recherche, d'autant que les vrais (peu nombreux) outils exploitant la sémantique n'en ont vraiement que faire

    T'embêtes pas, rédige pour l'utilisateur ! :P

  6. La meilleure réponse que je puisses faire, je l'ai déjà écrite ici : http://www.inferences.fr/index.php/2007/10...rencement-natif

    Trop centré sur Google : au niveau des contenus web et de leur publication, respecter les standards c'est déployer des contenus sans prendre en compte les "user-agents" (que ce soit un navigateur ou celui d'un moteur de recherche) qui restituent l'information.

    Cela va bien au-delà : inscrit toi sur Paris Web 2008 :P (désolé je n'ai pu m'empêcher de faire un peu de pub).

    Note : d'où par exemple le fait qu'il y ait différentes initiatives sur l'accessibilité web (WCAG, UAAG, etc.).

  7. C'est moi qui suis en mode raleur. ;)

    Beaucoup de webmasters/sites pensent être légitime sur un ou plusieurs domaines. Or leurs contenus ne répondent pas aux besoins d'informations des internautes.

    Il faut donc qu'ils mettent en adéquation leurs contenus par rapport à ces besoins (exprimés par des mots clés) s'ils veulent être considérés comme légitimes sur ce domaine (et positionnés en tant que tel dans les SERP).

    La question de la technique est un faux problème (RTFM). Celle de la popularité, pour être vraiment légitime, n'est pas de la falsifier avec un développement contre-nature : le maillage doit émaner d'une réflexion de partage des utilisateurs des contenus/services et non de déploiement de liens sur la toile (d'où le travail des moteurs de recherche contre la création de liens émanant d'un rapport commercial).

    D'où le : "travailler le contenu" :)

    Maintenant sa question concerne le référencement et pas seulement la création d'un service/site.

  8. Par ailleurs, les solutions proposées par captain_torche ne fonctionne qu'au clavier.

    Préfère externaliser le JavaScript, via la méthode addEvent par exemple.

    Enfin, les pop-ups pénalisent l'accessibilité de ton site (problème d'historique de navigation et d'accès), par ailleurs elles sont quasiment toutes bloquées par les navigateurs.

    Bannit les pop-ups de tes développements.

  9. Une URL devrait être un identifiant (caractère unique) ayant une sémantique (= HTTP URI).

    Proposer une requête (des paramètres) qui change en fonction d'une session (sessid ou autre) empêche d'identifier un document.

    Les moteurs de recherche se retrouvent ainsi à analyser le même document plusieurs fois parce qu'il est accessible par des URL différentes.

    Cela augmente leurs bases de données sans les rendre pertinentes.

    C'est pourquoi cette duplication de contenu est devenu un critère de blacklistage.

    Ton CMS ne semble donc pas gérer correctement le nommage des ressources publiées. Bonne lecture ;)http://www.w3.org/Addressing/

  10. Dans la grande majorité des navigateurs, JavaScript est pourtant activé par défaut, que ce soit une option n'y change rien.

    En fait si ... en terme de conception d'interface web.

    Le JavaScript devrait ainsi être codé en surcouche, en tant qu'option.

    J'ai eu du mal à comprendre le sens de ta dernière phrase, par contre, elle signifie bien :

    "Si une url est écrite dans un script, Google peut malgré tout la retrouver" ?

    Certains billets ont annoncé l'inteprétation du JS par Google parce qu'ils avaient une URL indexée alors que celle-ci est appelée via du JS.

    Leurs auteurs ont cru à une interprétation du JS, je pense que c'est parce que l'URL était codée en entier dans le JS

    Exemple d'URL potentiellement suivie :
    var url = 'http://sld.tld/path/basename;parameters?query#fragment';

    URL non détectable par expressions régulières:
    var url = 'http://sld.tld';
    url += '/path/basename';
    url += ';parameters?query#fragment';

  11. ils se comportent comme un utilisateur l'ayant désactivé.

    Cette remarque laisse sous-entendre que le JavaScript est activé par défaut : c'est faux, c'est une option très courante certes mais une option ! comme le Flash.

    Le JavaScript n'est effectivement pas interprété, mais pour ce qui est de la détection des URL, les outils de recherche fonctionnement sur la détection d'URL par masques (expressions régulières) ce qui leur permet de détecter certaines URL écrites dans les scripts (implémentation à ne pas faire, le JavaScript étant une option ;)).

×
×
  • Créer...