Aller au contenu

Jeanluc

Membre+
  • Compteur de contenus

    2 003
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Jeanluc

  1. Bonjour, Quelle est ta question ? Je ne vois pas ce qui t'empêche de copier le config.php de ton mutualisé OVH sur le serveur 1&1. Jean-Luc
  2. Si tu utilises l'adresse absolue du fichier, tu ne dois pas te poser cette question. D'ailleurs, dans ton code, c'est une adresse absolue ($file = "C:/rep/rep/rep/rep/rep/fichier.php";), non ? Et c'est vrai que ce nom de fichier ne semble pas être un nom de répertoire. Il doit y avoir quelque chose qui m'échappe... Jean-Luc
  3. Dans ce genre de situation, chez le registrar (Gandi), j'aurais simplement indiqué les DNS de l'hébergeur (OVH). C'est, d'ailleurs, ainsi que j'interprète l'extrait de doc OVH que tu cites. Jean-Luc
  4. Oui. perl hello.pl devrait fonctionner. On dirait que Perl n'est pas installé. Bizarre. Jean-Luc
  5. Je viens de tester ton hello.pl (permissions 755) sur mon serveur OVH et il marche. J'obtiens l'erreur 500 quand je mets les permissions sur 644... Peux-tu exécuter ce hello.pl depuis SSH ? Jean-Luc
  6. A ta place, je commencerais avec un hello_world.pl pour valider le fonctionnerment de Perl avec Apache. Jean-Luc
  7. Essaie en ajoutant ce .htaccess dans /home/kes/www/cgi-bin: Options ExecCGI -MultiViews +SymLinksIfOwnerMatch AddHandler cgi-script .cgi .pl Je ne suis pas sûr que ce soit la meilleure méthode, mais ça devrait fonctionner. Jean-Luc
  8. Bonjour et bienvenue sur le Hub, Qu'il y ait des arnaqueurs sur le web et ailleurs n'est pas une nouveauté. D'habitude, quand une proposition semble trop belle pour être honnête, c'est qu'elle n'est pas honnête ! J'ai édité ton message. Merci de prendre deux minutes pour lire les règles du forum. Jean-Luc
  9. Bonjour et bienvenue sur le Hub, Tu as mal spécifié l'adresse de ton site. L'adresse correcte est [i]http://94.23.209.20 et pas 94.23.209.20. Tu fais des liens vers 94.23.209.20/machin au lieu de faire les liens vers [i]http://94.23.209.20/machin. Donc, depuis la page d'accueil, quand on clique le lien, on va vers [i]http://94.23.209.20/94.23.209.20/machin. Idem pour les CSS et compagnie. Jean-Luc
  10. Bonjour, J'ai une configuration similaire que j'ai dû réinstaller il y a quelques jours. Une fois la réinstallation terminée, qmail n'était pas redémarré. Je l'ai redémarré en faisant: /etc/init.d/qmail start et les mails qui étaient dans la file sont arrivés à destination (donc sans éditer le php.ini). Jean-Luc
  11. Pour ce qui est de devoir s'inscrire ou non pour poster, c'est une option au choix de l'administrateur dans la plupart des forums. Cela dit, je ne connais pas assez les différents logiciels de forum pour t'en recommander un plutôt que l'autre. Jean-Luc
  12. C'est ce qu'on appelle un forum, non ? Jean-Luc
  13. Ton .htaccess actuel pourrait peut-être être simplifié en : Options +FollowSymlinks RewriteEngine on RewriteRule ^([a-z-]+).html index.php [L] Jean-Luc
  14. Tu nous dis maintenant que tu allais travailler ton référencement sans les www et tu viens de les rajouter dans ta signature. Je te suggère de respirer un grand coup et de reprendre tout ça calmement. 1° Tu choisis une fois pour toute avec ou sans www. 2° Tu te tiens à ton choix et tu ne changes plus. 3° Dans le fichier .htaccess du site, tu rediriges la "mauvaise" adresse vers l'adresse préférée. 4° Partout où c'est possible (par exemple, la signature sur le hub), tu remplaces les "mauvaises" adresses par des adresses avec le nom de domaine préféré Jean-Luc
  15. En tout cas, pas dans ta signature sur ce forum. Jean-Luc
  16. Cela fera une différence, donc ce serait dommage de ne pas le faire. Jean-Luc
  17. J'essayerais plutôt ceci : RewriteCond %{QUERY_STRING} start=([0-9]*) RewriteRule .* - [G] ErrorDocument 410 /410.php Remarque : dans ton exemple, la condition start=([0-9]*) est équivalente à start=. Pas sûr que ce soit ce que tu souhaites. Jean-Luc
  18. La décision de Google n'est pas une mauvaise nouvelle pour ceux qui font des sites en pensant, avant tout, aux internautes. Pour moi, elle va rendre l'algo de Google plus pertinent. Avant : - PR des liens internes canalisés arbitrairement vers leurs pages préférées du webmaster aux dépens de celles qu'il veut masquer - PR des liens externes en "nofollow" récupéré par les pages internes du site qui utilise le "nofollow" Dans le nouveau traitement du PR des "nofollow" : - PR des liens internes en "nofollow" perdu pour le site - PR des liens externes en "nofollow" perdu pour tout le monde Ceux qui faisaient du Pagerank sculpting au moyen de l'attribut "nofollow" étaient gagnants sur toutes la ligne: ils montraient à Google un contenu diffférent de ce qu'ils montraient aux internautes et ils en tiraient un bénéfice en terme de PR. Absurde ! Dans le nouveau système, ce bénéfice a disparu: si vous ne voulez pas soutenir, auprès des moteurs de recherche, un site vers lequel vous faites un lien, vous ne récupérez plus le PageRank de ce lien. Le "nofollow" ne favorise plus ceux qui l'utilisent. Peut-être va-t-il enfin être utilisé correctement, c'est-à-dire dans les cas rares où un webmaster veut montrer aux internautes un lien vers une page dont il désapprouve le contenu. Jean-Luc
  19. Bonjour, Il est clair que ce sont deux URL différentes qui pourraient correspondre à des contenus différents. Cela dit, cela n'exige pas des tonnes d'intelligence artificielle pour comprendre que dans 99,99% des cas, ces URL correspondent au même contenu. On peut penser que, par souci d'efficacité, les moteurs traitent ces URL comme si elles étaient identiques. Oui, mais minime (voir ma réponse plus haut). Oui. Je suppose que quelque chose comme ceci devrait faire l'affaire: Options +FollowSymlinks RewriteEngine on RewriteRule ^(.*[^\/])$ http://www.ton_site.com/$1/ [QSA,L,R=301] Jean-Luc
  20. Google n'apprécie pas des pages qui ne sont manifestement pas faites pour des humains. Je comprends bien que c'est lié à la structure de la bibliothèque, mais il faudrait leur donner plus de substance (texte expliquant cette section de la classification) et éventuellement regrouper différents niveaux de la classification sur une même page. Un autre problème est qu'une fois qu'on est sur la page d'un document comme [i]http://catalogue.univ-angers.fr/OPD01/05/06/10/00/OPD01.000110506.html, les liens vers l'auteur ou la collection sont des liens JavaScript, inefficaces pour l'indexation par les robots. Pour la page d'un auteur, une adresse telle que [i]http://catalogue.univ-angers.fr/F/BV8P5ARR6SIH1XHAJR8RTX9C8YDH3LNM4NY7S1DTCCUK5DVP42-05845?func=find-acc&acc_sequence=000266883 n'est pas efficace non plus. Le site a manifestement été conçu sans penser au référencement. Si son référencement est important pour vous, vous trouverez de nombreuses informations de base dans la partie Publications sur le référencement de ce site. Bonne lecture. Jean-Luc
  21. Je suppose que le site est sur un hébergement mutualisé. L'hébergeur prend un certain nombre de précautions pour éviter les attaques et il n'est pas utile que tu prennes des précautions particulières. Il faut évidemment garder secrets tes identifiants pour l'accès aux fichiers du site (FTP ou console d'administration du site). En fait, tes pages ne sont pas attaquables par le web. Elles pourraient seulement être attaquées par un intru qui aurait directement accès aux fichiers du serveur qui t'héberge. Cela pourrait se faire en utilisant tes identifiants (encore faut-il les connaître) ou s'il y avait une faille majeure dans la sécurité générale du serveur (c'est à l'hébergeur à gérer ce risque). En pratique, avec un site statique, pas de quoi t'angoisser, si tu conserves une copie des fichiers en dehors du serveur. Dans le pire des cas, tu pourras tout remettre en place facilement, une fois l'intrusion corrigée. Jean-Luc
  22. Bonjour, J'ai peut-être mal regardé, mais je vois un moteur de recherche, pas vraiment un site. En dehors du sitemap, y a-t-il un lien vers l'arborescence dont tu parles ? Jean-Luc
  23. Tu pourrais ajouter un captcha à rafraichir toutes les N pages ou minutes ou points. Pour ne pas trop importuner tes internautes, tu pourrais créer toi-même les questions et les réponses pour qu'elles s'intègrent le plus naturellement possible dans le site. Par exemple, tu affiches "Bravo, vous avez gagné un nouveau bonus de 100 points. Cliquez sur la fleur jaune pour valider les points". Et tu peux même pénaliser ou virer celui qui ne valide pas ses points. Jean-Luc
  24. Bonjour, www.blog.societe.fr et blog.societe.fr sont deux domaines différents. En théorie, ils sont aussi différents que www.machin.com et www.bidule.com. Toujours en théorie, rien n'empêche de mettre le contenu qu'on veut sur chacun des domaines ou sous-domaines. C'est bien sûr inhabituel d'avoir des contenus différents sur machin.com et www.machin.com. Je pense que cela ne pose aucun problème aux moteurs de recherche, mais que cela va probablement créer une belle confusion chez les internautes qui visitent ce site. Jean-Luc
  25. Bonjour et bienvenue sur le Hub, Pour augmenter ton PageRank et améliorer ton classement dans Google, il faut que d'autres sites fassent des liens vers ton site. Il y a plusieurs articles concernant le PageRank et le référencement dans la partie "Publications" de Webmaster-Hub, entre autres, Le PageRank par l’exemple et Le PageRank sert-il encore à quelque chose ?. La liste des articles consacrés au référencement est ici. Jean-Luc
×
×
  • Créer...