Aller au contenu

Jeanluc

Membre+
  • Compteur de contenus

    2 003
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Jeanluc

  1. C'est tout bonnement renversant que la régie d'affiliation ne t'ait pas expliqué cela. Jean-Luc
  2. Merci pour les suggestions. Cela m'a permis de restructurer les choses. Voilà ce que je fais maintenant: 1. cron exécuté toutes les 15 minutes pendant toute la période de capture des infos 2. il lance un premier script qui vérifie d'abord s'il doit s'exécuter ou pas et qui se termine par un exit avec un code d'erreur si les infos ne sont pas disponibles 3. dans le shell script, après l'appel du premier script, j'ajoute if [ $? -ne 0 ]; then echo "Info non valide." exit 127 fi Comme ça, le cron s'arrête si l'info n'est pas prête. Jean-Luc
  3. Bonjour, J'ai des tâches PHP (et Perl) qui sont lancées par cron. Il arrive que certaines tâches ne s'exécutent pas correctement parce que l'information nécessaire n'est pas encore disponible. Dans ces cas-là, je sais que l'information sera probablement disponible 10 ou 20 minutes plus tard. Comment faire une relance automatique si possible à l'intérieur du script PHP ? Je cherche une méthode la plus "propre" possible. Jean-Luc
  4. Bonjour, C'est dû aux magic quotes qui, en réalité, ne sont pas magiques mais diaboliques. Pour t'en débarasser, utilise stripslashes. Jean-Luc
  5. Qu'est-ce qui te fait dire ça ? Merci d'éclairer ma lanterne. Jean-Luc
  6. Quand il y a des espaces, RedirectPermanent marche avec les guillemets: RedirectPermanent "/ancien dossier/ancienne adresse.html" http://www.domaine.com/nouveau-dossier/nouveau-fichier.html Jean-Luc
  7. Les infos de contact avec numéro de téléphone sont ici. Jean-Luc
  8. Tu es sûr que ce n'était pas 100 $ (= 78,78 €) ? Jean-Luc
  9. C'est chez le registrar que ça se passe, plutôt que chez l'hébergeur. C'est généralement une option payante. Jean-Luc
  10. Bonjour et bienvenue, Je ne connais pas la réponse sur le fond du problème, mais pour FileZilla et les .htaccess qui disparaissent, je suppose que c'est parce que l'option d'affichage des fichiers cachés n'est pas activée. Dans ma version 3.2.0 en anglais de FileZilla, on affiche les fichiers cachés en passant par l'onglet "Server", puis en cochant "Force showing hidden files". Dans des versions plus anciennes de FileZilla, cette option se trouve dans un autre menu, mais je ne me souviens plus où. Jean-Luc
  11. h1 n'est-il pas supposé être le titre du document, de la page, plutôt que le titre du site ? Explication: supposons que h1 soit le titre du site, alors les h2 seraient (par exemple) les titres des principales sections du site et les h3 les titres des pages. Ceci impliquerait aussi qu'on pourrait très bien avoir un bloc de titres en h2 qui renverraient vers les différentes sections du site (ce que tu trouvais illogique un peu plus haut dans ce thread). Jean-Luc
  12. Si c'était bénévole, c'était bénévole. Si tu quittes l'association tu la quittes. Je pense qu'il est déplacé d'aller maintenant revendiquer des droits sur des prestations passées, d'autant plus qu'avec la mention "copyright", tu as voulu indiquer que le site n'était pas ta propriété, mais celle de l'association. Que l'association prenne maintenant des décisions qui ne plaisent pas, ne te concerne plus. A la limite, fais le savoir aux responsables de l'association et puis laisse-les faire ce qu'ils veulent et passe à autre chose. Jean-Luc
  13. Les points et virgules sont des séparateurs valables pour Google. Ce n'est pas nouveau, mais c'est vrai que les virgules sont peu utilisées. Je ne comprends pas la question concernant la réécriture d'URL. Il suffit de prévoir les points et virgules dans les règles de réécriture. Jean-Luc
  14. Je ne m'inquiéterais pas pour ça. La source du problème est dans le spider-simulator qui ne gère pas bien les caractères accentués et les liens "mailto:". Google fait très probablement mieux. Jean-Luc
  15. En examinant tes stats de plus près, tu devrais pouvoir déterminer quels sont les robots parmi les "visiteurs" dans les stats 1and1. Si ton site est en français, la plupart des "visiteurs" américains sont probablement des robots. Comme analyseur de logs, je recommenderais AWStats, mais je ne sais pas si tu peux l'installer chez 1and1 (s'il n'est pas pré-installé, l'installation demande des connaissances système). Comme stats avec tag, il y a aussi Google Analytics qui est gratuit, si cela ne te gêne pas que Google sache tout des visiteurs de ton site. Jean-Luc
  16. Bonjour et bienvenue, Bubblestat utilise un code JavaScript que tu places dans tes pages. Ils ne comptent que les visiteurs dont JavaScript est activé (presque tous) et il peut parfois oublier des hits parce que la communication entre l'ordi du visiteur et le serveur Bubblestat serait défectueuse (ne devrait pas être fréquent non plus, mais on ne sait jamais). 1and1 utilise un analyseur de log. C'est un programme qui analyse le "journal" du serveur web qui contient une trace de chaque accès au serveur. En ce sens, c'est plus précis, mais tous les analyseurs de log ne se valent pas. Certains (comme Webalizer) ne différencient pas correctement les robots des vrais visiteurs, ce qui conduit à une surévaluation flagrante du nombre de visiteurs. Jean-Luc
  17. Si l'objectif est essentiellement de partager des .doc et des .pdf, je ne vois pas pourquoi il faut s'encombrer d'un serveur web. Un quelconque serveur local de fichiers ferait très bien l'affaire, non ? Jean-Luc
  18. Pas la peine ! Le robot est repassé sur ta page d'accueil, dans la nuit de dimanche à lundi: voir la page en cache dans Google. Il faut chercher la cause de la perte de positions ailleurs que dans un petit problème technique passager. Jean-Luc
  19. Je pense que cela a toujours été le cas. Si des paramètres sont différents, les URL sont différentes et il y a donc risque de duplicate content. Quant à savoir à quel point Google est capable de gérer ça tout seul, chacun aura son opinion d'après son expérience personnelle, mais je préfère ne pas prendre de risque et je conseillerais de nettoyer tout ce qui peut nuire au référencement. Jean-Luc
  20. Bonjour et bienvenue, La condition ^(.*)/(.*)\.html$ ne sera jamais vraie, car elle n'est qu'un cas particulier de ^(.*)\.html$. Idem pour la dernière ligne. Jean-Luc
  21. Bof bof... Ne serait-ce pas plus élégant d'accepter que l'option soit décochée et que, dans ce cas, un message apparaisse pour expliquer pourquoi la demande ou la commande exige que l'option soit prise ? Jean-Luc
  22. Utilise CURLOPT_FOLLOWLOCATION qui automatiise ou non le suivi des redirections. Jean-Luc
  23. Je pense que Mavenhosting utilise cPanel. Normalement dans ton cas, dans cPanel, tu indiques tes différents domaines comme des "addon domains" et tout devrait alors se faire presque tout seul: Ces "addon domains" peuvent être associés à un sous-répertoire de ton choix. Jean-Luc
  24. Est-ce que Joomla entre dans cette catégorie de CMS ? Jean-Luc
  25. Merci encore, Dan. J'y vois plus clair, mais il n'y a toujours pas de solution. Le problème est en cours de traitement par le support de l'hébergeur qui l'escalade de niveau en niveau... Patience. "tomber en marche" : jamais entendu cette expression. Ce n'est pas belge, en tout cas ! Jean-Luc
×
×
  • Créer...