Jump to content

real34

Actif
  • Content Count

    47
  • Joined

  • Last visited

Community Reputation

0 Neutre

About real34

  • Birthday 05/15/1987

Contact Methods

  • Website URL
    http://www.pierre-martin.fr

Profile Information

  • Genre
    Homme
  • Localisation
    Toulouse
  • Société
    Occitech
  1. Bonjour, Ce que nous faisons pour assurer une mise à jour facilitée de nos applications est de garder le coeur de CakePHP intact sur notre serveur, en dehors du webroot. Si tu as Git il te suffit de faire un git clone git://github.com/cakephp/cakephp.git et le tour est joué. Utiliser Git a également l'avantage de rendre les mises à jour ultra simples (git pull). Ensuite viens ton application. Pour la créer il suffit simplement d'avoir l'équivalent du dossier "app" dans ton webroot. Si tu développes en local, tu peux utiliser la ligne de commande pour générer un nouveau projet : c
  2. Bonjour à tous, Je viens vous demander conseil en désespoir de cause après avoir passé plusieurs heures à trifouiller les configurations d'un nouveau serveur et les résultats de Google sans succès. Diverses solutions ont été testées, et au final je n'arrive plus à comprendre ce que je peux oublier alors peut-être qu'un oeil extérieur pourrait m'aiguiller ... Voici un résumé de ma situation (qui semble somme toute assez commune). Je souhaite déployer une application PHP utilisant PEAR sur ce nouveau serveur CentOs. PHP ayant été compilé "--without-pear" j'ai donc installé yum et ensuit
  3. Après avoir testé rapidement différents frameworks, j'ai arrêté mon choix sur CakePHP pour plusieurs raisons : Il est basé sur le principe "des conventions plutôt que de la configuration", donc pas besoin de configurer 30 trucs à travers divers fichiers XML Les conventions sont un ensemble de bonnes pratiques ... et ne sont donc pas contraignantes une fois qu'on les connait (au contraire même, celà améliore ton code) Oblige à avoir une architecture MVC permettant une meilleure évolutivité de l'application Le grand nombre d'helpers, composants et autres utilitaires livrés de base (Aut
  4. Bonsoir, Je reviens donc sur vos réponses comme prévu afin de reformuler vos remarques pour voir si je les ai bien comprises ... et essayer de trouver une solution à chaque problème. A priori je n'ai pas d'intérêt à ce que le site soit hyper bien indexé (car ma part du travail est effectuée, n'étant pas en charge du référencement), mais bien de pouvoir être sûr de mes arguments lorsque je dirai au client que ce sont les conseils qu'il a eu auprès de ses référenceurs (et que j'ai appliqués à la lettre) qui justifient le peu de pages indexées. Le but est aussi de faire ma culture personnelle
  5. Bonjour à tous et merci pour toutes ces informations constructives ! Cela confirme mes pensées (le partenariat avec l'AFP, les catégories de normes, l'aspect multilingue et tous ces nofollow qu'un référenceur nous a fait ajouter). Vous m'avez fait également découvrir le "siloing" et je vais me documenter un peu dessus. Je prendrai du temps pour répondre à chacun des points évoqués ce soir, afin de continuer à avancer dans la bonne direction ... le reste cela sera une discussion avec le client, car maintenant mes pensées ont été confirmées
  6. Bonjour à tous, Ce message est en quelque sorte une suite à mon précédent message concernant un problème survenu avec le référencement du site http://www.normadoc.com ... et en plus c'est mon 42ème Le site a été réalisé depuis pas mal de temps désormais, avec son lot d'itérations supplémentaires concernant l'ajout de fonctionnalités. Néanmoins nous avons eu beau faire appel à plusieurs fois à divers référenceurs ayant effectués chacun un audit afin de donner leurs conseils sur l'optimisation du site et leurs conseils n'ont (sans aucun préjugé) rien apporté de nouveau à ce que je savai
  7. Bonjour, En fait le délai de chargement des pages a fait de suite remonter le nombre de pages indexées (de 400 à 800), cependant depuis ce moment là le nombre de page stagne. J'ai ensuite essayé de vérifier que toutes les requêtes été optimisées (une seule ralentissait pas mal d'autres pages). Enfin j'ai ajouté des redirections 301 à certains endroits pour éviter que 2 urls différentes pointant vers le même contenu soient indexées. En effet j'ai des urls de type "article-ID-slug-du-nom-article" ce qui faisait qu'une infinité d'urls pouvaient pointer vers la même page. Par exemple "artic
  8. Est-ce que cet avertissement est vraiment gênant ?
  9. Bonjour, Je vous confirme que le nombre de pages indexées est en hausse ... cela a semble-t-il résolu mon problème ! Merci pour votre aide, vous pouvez marquer ce message en résolu (ou m'indiquer comment l'éditer car je n'ai pas trouvé) si vous le souhaitez. Pierre
  10. Bonjour, Après ma séance de travail du matin je suis parvenu à optimiser ma requête SQL de recherche et l'affichage de la page est nettement plus rapide. Le soucis de délai dépassé pour google devrait disparaitre. Si ce n'est qu'une question de temps il n'y a aucun problème, mais j'aimerai votre avis pour savoir : 1 - Si il faut que je regarde d'autres choses (notamment comment déterminer le duplicate content de manière précise) 2 - Combien de temps pensez-vous que cela prenne pour que Google se rende compte de son erreur ultime () et ré-indexe mon site ? Merci d'avance pour vos infor
  11. Merci à vous deux pour vos réponses, Oui, merci je vais quoi qu'il arrive travailler là-dessus car c'est vraiment affreux ... je ne pensais pas qu'une augmentation du nombre de norme fasse un tel effet :/ Je t'ai envoyé quelques informations supplémentaires en MP. Concernant le duplicate content, j'ai normalement essayé de différencier au maximum les pages de chaque norme (description, titre et mots-clés fortement liés au descriptif du document). Néanmoins pour les pages de recherche, il n'y a pas de différence ... je vais peut-être rajouter un titre contenant la requête ou quelqu
  12. Bonjour, Je suis en charge d'un site internet proposant des normes à la vente. Jusqu'à présent, celui-ci proposait environ 8000 normes et le nombre de pages référencées augmentait petit à petit (>1500) ce qui me semblait normal au sens où le principal moyen de toutes les référencer est de passer par un sitemap.xml. Néanmoins, dans le cadre d'un nouveau partenariat le nombre de normes proposé a doublé (16800 normes). Depuis cette date, le nombre de pages indexées diminue à vue d'oeil (470 actuellement) d'une manière très inquiétante. Il y a (d'après mes conclusions) deux phénomènes po
  13. J'ai déjà tenté avec des autoload, mais il fallait que je le fasse évoluer pour que cela cherge les classes dans les sous dossiers (de manière récursive) pour s'adapter à PEAR. En effet c'est pas pratique ... au moins j'ai la confirmation que sans ini_set() et sans PEAR d'installé, il est impossible (ou pas évident du tout) d'utiliser PEAR : je me sens moins bête ! Merci pour ces informations ... et adieu Hebergeur-Discount !
  14. Bonjour, Je rédige ce message dans 2 buts distincts. Le premier est d'avertir certains développeurs familiers avec la librairie PEAR pour ne pas réinventer la roue à chaque fois, la seconde est pour avoir une solution à mon problème. Devant travailler sur un projet qui serait (je ne l'ai su qu'après) hébergé sur hebergeur-discount.com j'ai comme d'habitude basé mes classes sur la librairie PEAR. Le problème est qu'une fois en ligne, il me fut impossible de faire marcher ces scripts : pourtant leur offre stipule bien explicitement "PEAR" dans la catégorie "PHP" ... Après envois de mails
  15. real34

    Easyphp et sessions

    Cela vient peut-être du fait que mysql_fetch_array te renvoie un tableau indexé par des indices numériques (d'après la doc cela peut se configurer). Essaie avec mysql_fetch_assoc() ... tu auras directement ton $_SESSION['username'] de créé (enfin normalement !)
×
×
  • Create New...