Aller au contenu

Jeanluc

Membre+
  • Compteur de contenus

    2 003
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Jeanluc

  1. Bonjour, Si le PR est de 2, c'est bien la preuve que ces pages reçoivent des backlinks, peut-être pas terribles, mais il y en a et le contenu fait le reste. Jean-Luc
  2. Bonjour, Si tu demandes à FileZilla d'enregistrer des noms d'utilisateurs et des mots de passe FTP, il les enregistre en clair dans un fichier du PC. Si un agresseur peut accéder à ce fichier au moyen d'un logiciel espion, il obtient la liste des utilisateurs et mots de passe stockés par FileZilla dans ton PC. Maintenant, il faut bien que FileZilla les stocke quelque part, à moins qu'on ne veuille les retaper à chaque connexion, mais alors on choisira probablement des mots de passe toujours les mêmes ou plus faciles à deviner. En principe, avec un bon antivirus avec mises à jour automatiques, on évite de voir son PC contrôler par une personne malveillante. Ici, c'est probablement impossible de trouver l'origine exacte de la faille. Je pense que captain_torche a bien résumé la situation. Il faut changer les mots de passe (je suppose que tu l'as fait entretemps) et utiliser les versions à jour des logiciels. Si cela ne suffit pas, il faudra tout réinstaller à partir d'originaux sains. Jean-Luc
  3. Jeanluc

    Conversion de date

    Bonjour, Ces fonctions ne sont pas faites pour représenter des durées, mais des dates. Pour une date, le jour varie entre 1 et 31; il ne peut pas être 0. Si tu essaies d'utiliser le jour "0", il me semble que la fonction passe au dernier jour du mois précédent (jour "0" d'avril = le 31 mars). Peut-être qu'un autre Webmaster-Hubien aura une solution pour contourner le problème. Jean-Luc P.S. Va voir du côté de DateTime::diff.
  4. Bonjour, Tu mets http://www.example.com/image.png dans la barre d'adresse de ton navigateur, puis tu fais "Fichier" suivi de "Enregistrer sous ...". Jean-Luc
  5. C'est bien ça. Je suppose que Google se préoccupe uniquement de l'effet du fichier pour ses robots! Maintenant dans ce cas de robots.txt qui autorise la visite de toutes les adresses, c'est sans conséquence. C'est critique dans certains robots.txt plus complexes. Le pire est que, parmi les moteurs qui acceptent "Allow", ils ne suivent pas tous les mêmes règles pour gérer les cas d'URL qui sont à la fois concernées par un "Allow" et par un "Disallow". Jean-Luc
  6. Bonjour et bienvenue sur Webmaster-Hub, Merci pour cette info. Malheureusement, ce soir, j'ai la flemme de lire le PDF en détail. C'est une sorte d'AdSense sans Google ? Qui fait la police (faux clics,...) ? La concurrence est bienvenue, mais quels sont les points forts de cette solution ? Jean-Luc
  7. Bonjour, Premièrement, un site peut parfaitement se passer de robots.txt. Mais c'est une bonne idée de mettre un robots.txt qui autorise l'accès à toutes les adresses: User-agent: * Disallow: Je préfère cette version à celle que tu indiques parce que la directive Allow n'est pas standard et qu'il vaut donc mieux l'éviter. Le seul bénéfice d'un robots.txt qui n'interdit rien est d'éviter de remplir le log d'erreurs Apache avec des lignes qui disent que robots.txt n'a pas pu être lu (une telle ligne est ajoutée à chaque fois qu'un moteur de recherche vérifie l'existence de ce fichier). Jean-Luc
  8. Oui, cela ne vérifie que l'extension. Il y a un truc que je ne comprends pas. L'article dit Si le fichier à une extension d'image (gif, png, jpg), je ne pense pas qu'il soit correct de dire qu'il suffit d'appeler le fichier avec un navigateur pour exécuter le code PHP qu'il contient... Sauf évidemment si le serveur web est configuré pour exécuter du PHP avec n'importe quelle extension, mais ce ne devrait pas être le cas. Jean-Luc
  9. Bonsoir, Je suis d'accord avec les commentaires d'Arlette (évidemment!). Mais j'ajouterai qu'on est sur un terrain particulièrement glissant. Si je lis bien les infos du whois, le .com a été créé le 17 janvier 2006 et le .fr le 19 janvier 2006, ce qui donne une proximité de dates remarquable (suspecte ?) et une antériorité défavorable au .fr. Comme on ne peut pas montrer du doigt, je ne copierai pas ici ce que j'ai trouvé sur Google à propos du propriétaire du .com. Jean-Luc
  10. Bonjour, Non, pour qu'une page ne soit pas examinée par les robots de Google, il faut l'exclure au moyen du fichier robots.txt: User-agent: * Disallow: /page-a-cacher.html Il est inutile de mettre des "follow"; c'est l'option par défaut. Jean-Luc
  11. Bonjour, Je suis content de voir que le problème est résolu. J'avais bien compris ce que tu voulais faire; d'ailleurs, le RedirectPermanent du .htaccess fait bien une redirection de page à page et pas une redirection vers la nouvelle page d'accueil. Je pensais qu'il devait exister quelque chose d'analogue dans ISAPI_rewrite, mais ce n'est visiblement pas le cas. A l'avenir, je ne le proposerai plus aux utilisateurs d'ISS et je suggérerai directement de passer par une RewriteRule. Promis! Jean-Luc
  12. Pas du tout. Dans .htaccess en tout cas, cela fait la redirection comme tu la souhaites. Jean-Luc
  13. Je ne peux pas répondre avec précision pour ISAPI_Rewrite, mais je suppose que c'est similaire au .htaccess de Apache. Concrètement, puisque ce sont des serveurs différents, il n'est pas utile de tester le nom de domaine. La redirection doit être faite sur le serveur de www.toto.com et elle doit évidemment renvoyer vers forum.toto.com. Dans .htaccess de www.toto.com, je ferais simplement ceci: RedirectPermanent /forum/ http://forum.toto.com/ Reste à transposer cela en syntaxe ISAPI_Rewrite. Jean-Luc
  14. Beaucoup d'hébergeurs permettent d'associer un sous-domaine au répertoire de ton choix. Cela éviterait toutes ces réécritures. Jean-Luc
  15. Aux dernières nouvelles, 8 pages du site sont indexées par Google qui les a visitées le 24 juillet à partir de 12h00 GMT (14h00 à Paris), soit 2 heures après que j'ai placé un lien vers le site dans ce fil de discussion ... mais c'est peut-être une coïncidence... Jean-Luc
  16. Le choix de l'hébergeur ne joue aucun rôle là-dedans. Par contre, le TLD (top level domain) pourrait jouer un petit rôle dans la mesure où Google qui est un registrar agréé ICANN, est informé automatiquement des nouveaux domaines en .com, mais pas des nouveaux .be. Cela dit, il faut surtout se pencher sur l'aspect "liens entrants" qui est le facteur clé. Jean-Luc
  17. Bonjour et bienvenue, Il me semble qu'aucun autre site ne fait de lien vers http://www.menuiserie-sciebelbois.be/ (voici un lien!). Les liens entrants ("backlinks") permettent à Google (et aux autres moteurs de recherche) de découvrir de nouveaux sites. Ils sont aussi un moyen (parmi d'autres) pour les moteurs pour mesurer la popularité et la réputation d'un site. Ajoute le lien dans ta signature du forum, inscris le site dans des annuaires, obtiens des liens plus ou moins spontanés de sites "amis" et le site apparaîtra puis progressera dans Google. Jean-Luc PS: pour Binano, c'est parce qu'il y a une faute de frappe (http//: au lieu de http://).
  18. Je pense que c'est http://www.bibi.com/forum (sans / final) qui est redirigé vers http://www.bibi.com/forum/ (avec / final). Si c'est ça, c'est une redirection utile pour éviter le duplicate content et il ne faut rien changer. Est-ce que celui qui trouve la bonne explication gagne un voyage en Bulgarie ? Jean-Luc
  19. RedirectPermanent et Redirect permanent sont tous les deux corrects et équivalents. Dans l'exemple indiqué, la redirection va se faire de http://www.domaine.com/repertoire/anciennepage1.html vers http://www.domaine.com/nouvellepage1.html. Jean-Luc
  20. Bonjour, On peut exprimer un avis juridique sur la question, mais, d'un point de vue commercial, je dirais qu'ils appliquent une politique de losers. Quand on a confiance dans son propre business model, on n'empoisonne pas la vie de ses clients avec ce genre de conditions. Au contraire, on leur dit: "Nous regrettons votre départ et espérons votre retour prochain. N'hésitez pas à nous faire part de vos suggestions pour améliorer nos services." Jean-Luc
  21. Si ver il y a, tu devrais le voir sur ton PC. Or tu dis que tu n'arrives pas à le détecter. Qu'est-ce qui te faisait penser que c'était un ver ? Ton mot de passe était-il connu ou "devinable" par certaines personnes ? Jean-Luc
  22. Bonjour, Le script que tu utilises permet de définir la taille maximum des fichiers uploadés dans un fichier de configuration, mais il ne faut pas oublier que les contraintes ne viennent pas nécessairement du script. Si je comprends bien, le script transfère le fichier depuis le navigateur jusqu'au serveur web par HTTP, puis le retransfère en FTP au serveur FTP. Il est possible qu'il y ait un time-out au niveau de la durée d'exécution de la tâche (durée d'affichage de la page web qui fait le transfert). Suivant l'hébergeur et le plan d'hébergement, on peut gérer ce time-out ou non. Jean-Luc
  23. Est-ce que ces serveurs DNS de ZoneEdit fonctionnent ? N'ont-ils pas signalé un problème ? Jean-Luc
  24. Ce n'est pas un problème de WordPress, mais un problème de nom de domaine. Tout se passe comme si le nom de domaine n'était pas valide. Tout ce que j'obtiens avec le nom de domaine, c'est "could not resolve". J'irais voir du côté des serveurs DNS. Jean-Luc
×
×
  • Créer...