Aller au contenu

ptit pimousse

Actif
  • Compteur de contenus

    10
  • Inscrit(e) le

  • Dernière visite

Réputation sur la communauté

0 Neutre
  1. ca marche d'enfer yahoo et alexia sont tombés dedans et ils sont pas près d'en sortir C'est franchement cool plus de 200 000 liens déjà indexés reste encore une bonne 50 000 et oui mon catalogue est comment dire assez gros
  2. bon j'ai trouvé une solution qui me semble plutot pas mal au lieu de tester à chaque page si l'internaute est un robot et donc perdre un peu de temps voire beaucoup si on a une liste de robots à rallonge donc voilà le code pour ceux que cela interresse : $spider = false; //si on a pas de session on test //ce test est exécuté une seule fois if(!session_id()){ //on detecte les robots } //c'est un robot if($spider){ ini_set("session.use_trans_sid", "0"); //c'est un client }else{ session_start(); } Voilà là c'est la
  3. il est vrai tu as tout bon enfait j'ai éclaté le plan du site 1ere étape choix par lettre => redirection vers une autre page 2eme étape j'affiche 100 liens max => redirection vers une autre page dans cette 2eme etape si il y a plus de 100 resultats je reload la page avec un index pour la requete (limit ...) donc je vais voir comment les robots réagissent et je reviendrai poster
  4. Bonjour tout le monde Je souhaiterai avoir un petit conseil sur la manière d'organiser un plan de site. Mon soucis étant que je dispose de + de 200 000 produits à référencer. Ce que j'ai mis en place est de ce style : on arrive sur une page 3 liens disponibles ces liens recharge la page en présentant les lettres a,b,c....w,x,y,z sur ces lettres il y a des liens qui rechargent la page en affichant les résultats. Enfin ces résultats pointent sur des pages d'articles. Quelle est, à votre avis la meilleure solution possible dans mon cas ? garder toute cette arborescence dans la même page ou éclater le plan (par exemple une page par lettre) ? Je me pose cette question car d'une par sur certaine lettre j'ai plus de 100 liens et d'autre part je me demande si les robots vont pas s'arreter à la première visite de la page (c.a.d sans recharger la page) enfin j'espère que je suis assez clair
  5. Merci pour ces réponses constructives :-) Cette ligne de commande tu le fais seulement pour les robots ou pour tout internaute. J'avais essayé de passer par cette ligne de php mais le soucis majeur est si l'internaute est un vrai client et qu'il ne possède pas les cookies là euh
  6. au passage je n'utilise pas des paramètres tels que ini_set('session.use_trans_sid', false); pour supprimer de l'url le nom de la session et sur ma config php il est actif. Mais aucun problème pour moi. Je souhaiterai juste savoir comment vous faites de votre côté, histoire d'elargir ma vision sur ce problème épineux : e-commerce/session/référencement
  7. oui en effet j'ai vu sur ton site que lors du premier ajout d'un article dans le panier un phpsid était passé et puis après ce paramètre n'apparait plus; cela me rassure je me demandais si c'etait normal (j'ai la même chose sur mon site).
  8. on peut appeller cela "cloaking gentil"
  9. oui j'ai aussi ce système. Cela m'interresse de savoir comment vous vous y prenez. Pour ma part voilà l'ordre des étapes 1) je lance la session 2) je teste si l'ip de l'internaute est un robot (je possède une liste des principaux moteurs) 3) je detruis la session
  10. Bonjour à tous. Je souhaiterai savoir comment vous gérez vos sessions pour un site e-commerce ? Tout le monde sait que l'avantage des sessions pour un site e-commerce est de garder le panier du client pendant sa navigation sur le site mais qu'en est-il du référencement ? (le soucis étant le phpsession) Pour ma part je créer un cookie lors de l'ajout d'un article dans le panier. Ensuite je teste le cookie et s'il existe je lance la session. Mais qu'en est-il pour vous ?
×
×
  • Créer...