Aller au contenu

yep

Hubmaster
  • Compteur de contenus

    278
  • Inscrit(e) le

  • Dernière visite

Messages postés par yep

  1. Bonjour,

    je tente d'appeler une méthode dynamiquement :

    // déclaration du nom de la méthode
    $nom_methode = 'test()';

    // appel de cette méthode
    $obj -> $nom_methode;

    mais cela ne fonctionne pas(erreur de parsing), quelqu'un aurait-il une idée ou des pistes pour obtenir cette fonctionnalité ?

    merci d'avance.

  2. comme les pages web ne sont plus des documents à part entière mais bel et bien des plaquettes commerciales, Googe comme Yahoo sont obligés de patcher leurs algorithmes pour prendre en compte ce déploiement en analysant les éléments redondants des pages qu'ils vont ainsi identifier comme dupliqués (menu, header, footer, etc.).

    L'implémentation de cet élément devrait ainsi leur permettre d'analyser plus facilement le contenu des pages mais à quel prix : favoriser le spam ? (d'ailleurs excellent billet Seb)

  3. Il me semble bien qu'au contraire, Google a tendance à dévaluer les liens dans le footer (en pied de page)
    En théorie les pages web sont des documents à part entière et c'est comme cela que les outils de recherches les évaluent, à savoir avec une introduction, un développement et une conclusion; c'est d'ailleurs pourquoi les moteurs de recherche accordent d'abord généralement plus de pertinence au début d'un document (puisque qu'il résume en quelque sorte tout le reste) alors qu'ils prennent moins en compte ce qui devrait être la conclusion.

    Par contre, pour l'accessibilité notamment, il est préférable de placer le menu du site en bas du code de la page (même s'il apparaît en fait en haut visuellement) car pour quelqu'un qui visite le site avec un navigateur de type Lynx, ces informations communes à toutes les pages perturbent la lecture de chaque nouvelle page si elles sont en haut, alors qu'en bas, elles sont lues tout naturellement après le contenu spécifique de la page.
    Faux, les professionnels (ex: label accessiweb ?) du domaine diraient même qu'il faut que le contenu visible avec un rendu graphique soit lu dans le même ordre que lorsqu'il est linéarisé (sans CSS), à savoir de haut en bas, de gauche à droite (pour notre sens de lecture en tant que français).

    Par ailleurs, l'implémentation que tu recommandes, si elle n'est pas gérée correctement au niveau de la navigation par clavier (touche tab ou shift + tab) sera complétement explosée et incohérente par rapport à celle attendue par un utilisateur.

    C'est d'ailleurs pourquoi on recommande de mettre en place des liens d'évitement permettant un accès facile soit au menu soit au contenu.

  4. des conseils en la matière, je n'en ai pas mis à part le fait de regarder ce que font actuellement certains leaders pour pouvoir offrir des stratégies web globales (rachats de sociétés, intégration à des groupes, etc.).

    Pour ce qui est des exemples de sociétés, je prêcherais bien pour celle dans laquelle je bosse, maintenant elles offrent presque toutes les mêmes prestations; et c'est à toi de voir laquelle est en adéquation avec tes attentes et surtout ton budget, car ce type de prestation à la performance n'est pas pour les petits budgets (ceux inférieurs à 10 000 € je pense) car ces stratégies nécessitent de véritables solutions personnalisées par site/thématique qui engendre de nombreux coûts de la part des deux partenaires (prestataire-client).

  5. Le protocol HTTP gère la gestion de vie de tes documents. Les redirections côté client (Javascript, meta refresh, etc.) ne devraient pas être mises en place.

    Vu que temporairement les internautes auront accès à la version .com, je te conseille de déployer des redirections 302.

    Pour le référencement, comme plus globalement, je déconseille ces déploiements, qui ne sont pas pertinents aux différents utilisateurs (internautes, spiders, etc.). Cela n'apportera rien aux utilisateurs dans les deux cas : les internautes ne comprendront pas forcément la version .com. Voire pour le référencement, cela pourrait être assimilé à du spam.

    Active les autres versions linguistiques quand celles-ci seront prêtes : les pages en construction ne sont pas appréciées des internautes.

  6. Niveau meta propose juste un contenu marketing qui fera cliquer pour la meta description, les autres sont inutiles.

    Et pourquoi pas de paramètres, parce que tu n'ouvres pas tes documents sur ton ordinateur en transmettant des paramètres. Les URL permettent d'identifier de manière sémantique une ressource web (URI); elles ne devraient pas proposer de paramètres.

  7. oui, les agences leader en la matière, qui ont l'expérience parce qu'elles ont pu travailler sur de nombreuses prestations qui plus est avec beaucoup de contraintes d'ordre différente.

    Cependant, elles ne proposent plus qu'une simple prestation de SEO, mais des prestations marketing complémentaires favorisant la performance des résultats plutôt que la prestation en elle-même.

  8. Il est à noter qu'il y a quelques jours, Matt Cutts (10/03/07) a suggèré aux webmasters d'empêcher l'indexation des pages de résultats pour réduire l'impact de ces pages dans l'index de Google.

    Perso, je propose ces pages de résultats à mes internautes parce que les moteurs de recherche ne sont pas capables d'identifier la ressource la plus pertinente de mon site par rapport à une recherche (je ne parle pas de la place de positionnement dans les SERPS de mes pages, je parle juste du choix de la page).

    Maintenant c'est aux moteurs de recherche de faire le travail d'indexation, ou non, de ces pages et de virer celles spammantes (celles où le contenu des pages est créé par les contenus d'autres sites).

  9. Sinon au niveau de tes URL, certes elles proposent des mots clés, mais l'ensemble de tes documents n'est pas classé sur le serveur web : ils sont tous disponibles à la racine.

    Du coup on (nous internautes et les spiders) ne peut pas identifier les thématiques du site grâce aux URL puisque tout est proposé à la racine.

    Une question : classez-vous tous vos documents à la racine (ou c:) de votre ordinateur, sans les placer dans des (sous-)dossiers ?

    Faites pareil sur un serveur web :P

  10. Perso je ne vois pas pourquoi tu utilises du DHTML (ce n'est que du HTML et du Javascript).

    Il aurait très bien pu être conçu en full (X)HTML + CSS avec du Whatever:hover (http://www.xs4all.nl/~peterned/csshover.html) pour émuler la pseudo classe :hover sur IE et du full CSS pour la mise en forme (http://www.htmldog.com/articles/suckerfish/dropdowns/)

  11. Pour ce qui est du PageRank : http://www.outil-referencement.com/blog/in...hp/346-pagerank

    Sinon 100 liens, c'est pas seulement Google, c'est de l'ergonomie et de la qualité web :

    Croyez-vous pertinent de proposer plus de 100 autres ressources aux internautes à partir d'une seule page, ce qui impliquerait que ces 100 ressources sont directement en rapport avec la page en cours de consultation ?

    Si c'est le cas, organisez ce maillage par rapport aux différents types de ressources, ce qui permet de déployer ces 100 liens sur plusieurs pages et non sur une seule.

  12. perso, je n'ai jamais eu de problème avec la solution 3 : pourquoi ?

    1) les agent-utilisateurs (navigateurs graphiques, spiders, etc.) se basent sur le content-type renvoyé par le serveur pour identifier le type de contenu renvoyé

    2) niveau ergonomique, il est plus aisé de retenir l'URL d'une ressource sans extension

    3) ce déploiement permet une compatibilité descente au niveau des technologies serveur : cela permet de garder les même URL alors qu'on change de technologie.

    A lire : http://www.la-grange.net/w3c/Style/URI

×
×
  • Créer...