Aller au contenu

Théo B.

Hubmaster
  • Compteur de contenus

    431
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Théo B.

  1. Les RSS... Un lecteur rapide en JS et c'est bon P.S. : les include sont dangereux, mieux valent les fopen...
  2. Bienvenue à toi! Les gens viennent de loin pour le Hub maintenant !
  3. Tu passes par la méthode GET ou POST pour enregistrer les commentaires ? As-tu <form action="addguestbook" method="post">... ou <form action="addguestbook" method="get"> ? Si tu n'as pas spécifié l'attribut method dans ta balise <form> ou si l'attribut a la valeur get, je te conseille de changer pour la valeur post. Ensuite, remplace ton code addguestbook par ceci : <?php $host="localhost"; // Host name $username="username"; // Mysql username $password="password"; // Mysql password $db_name="name"; // Database name $tbl_name="guestbook"; // Table name // Connect to server and select database. mysql_connect("$host", "$username", "$password")or die("cannot connect server "); mysql_select_db("$db_name")or die("cannot select DB"); $datetime=date("y-m-d h:i:s"); //date time $sql="INSERT INTO $tbl_name(name, email, comment, datetime)VALUES('".$_POST['name']."', '".$_POST['email']."', '".$_POST['comment']."', '$datetime')"; $result=mysql_query($sql); //check if query successful if($result){ echo "Successful"; echo "<BR>"; echo "<a href='viewguestbook.php'>View guestbook</a>"; // link to view guestbook page } else { echo "ERROR"; } mysql_close(); ?> En gros, spécifies au serveur où il doit chercher les données. L'autre partie du code me semble correcte.
  4. Et le code PHP ? Ta table a l'air correcte...
  5. http://forum.freeglobes.net/viewtopic.php?id=3 C'était à ses débuts...
  6. Le <br> n'est pas très correct, il faut l'encadrer par CDATA non ? Dans mes feeds, je fais deux sauts de ligne normaux et ça passe bien dans les agrégateurs.
  7. PHP en version 2 ?! Peut-on voir le code ?
  8. Je l'avais courriélé, il m'a répondu qu'il avait juste calqué les CSS...
  9. Probablement puisqu'il est clair que pour que 182 visiteurs prennent presque 230Mo de BP (plus de 1Mo par visiteur!), il faut forcément qu'il y ait un téléchargement quelque part... Tu n'as pas accès à des statistiques détaillées ? Tu dois être bien placé sur des requêtes anglophones...
  10. Pour les formulaires, il s'agit en fait d'une image (difficilement déchiffrable par les bots) ou d'une phrase (totalement improbable) que l'utilisateur doit reproduire. Le bot n'ayant pas cette capacité, il n'y arrivera pas et son envoi ne sera pas validé. L'utilisateur ayant la capacité de lire des chiffres, il réussira à valider son envoi. Un petit aperçu de la phrase ici : http://bvwg.actulab.net/28-la-fin-des-resu...lementaires.seo (tout en bas de la page, t'as une phrase avant la validation) ou ici : http://www.atelierphp5.com/un-captcha-accessible.html pour parler du captcha. (Captcha en action : ) En revanche, je n'ai pas compris ton autre problème, sans doute à cause de ma couleur capillaire...
  11. Il te suffirait de mettre un captcha ou même un petit test du type "Quelle est la première lettre du mot : googlebot ?" Les bots sont rarement programmés pour répondre à ce genre de questions... (ou alors quelqu'un te vise en particulier)
  12. Ne pourrais-tu pas faire un système de frame en javascript ? Je crois me rappeler que c'est possible... Ainsi, le site pour "sans javascript" reste accessible aux moteurs et les personnes ayant javascript activé pourront avoir le plaisir de désactiver la musique...
  13. Il me semble qu'il s'agit d'un dédié, non ? Pourquoi ne pas changer directement max_execution_time dans php.ini ou écrire un script en C/Python/... pour accélerer l'import?
  14. Houhou, 700 BL en 3 semaines sans sandbox La petite barre verte va bientôt s'affoler! Merci Jerome de nous avoir signalé cette mise à jour... personnellement je désespérais de la voir arriver... P.S. : les MàJ du Pagerank, c'est tous les 6 mois non ?
  15. Si Google Crawl est passé le 12, le temps qu'il suive les liens et qu'il mette à jour son index, tes "pages satellites" seront indexées dans quelques jours. GoogleBot suit les liens (sauf si t'as mis un nofollow).
  16. Théo B.

    Les sessions en php

    Ce serait plus simple à comprendre avec le code
  17. Tout simplement que le tag cloud s'intègre normalement à une page de contenu, alors que sur la page de Fun, il n'y aura probablement pas de contenu, si ce n'est une liste de liens.
  18. Ou pire, comme une farmlink, s'il y a vraiment beaucoup de mot-clés...
  19. J'utilise maintenant Dreamweaver... C'est à la fois un bon WYSIWYG et un des meilleurs éditeurs de code (coloration, suggestions, fermeture des balises, etc.)! Très agréable, il rend le codage vraiment plus rapide...
  20. Un diplome sur quelque chose comme Google qui change tout le temps et dont on ne connait que peu de chose ? Je ne pense pas que ça soit vraiment utile... à moins d'apprendre des "secrets" (qui ne le resteront pas longtemps!), ce diplome n'a pas vraiment d'utilité je pense.
  21. Pourquoi pas un : User-agent: * Disallow : viewtopic.php? Dans le robots.txt pour interdire l'indexation du viewtopic.php? Et puis je pense que le duplicate content est aussi un petit mythe largement exagéré : il s'agit de deux pages d'un même site, et pas de site miroir, ça ne peut pas t'être très dommageable à mon avis (on voit ça d'ailleurs avec le Hub en deux versions, lofiversion et version normale).
  22. Il a ça dans son robots.txt : User-Agent: * Disallow: / Son site n'est donc, normalement, pas indexé (?).
  23. Moi j'ai utilisé les deux. Je t'avoue que côté simplicité de mise en place, thèmes, et modules je préfère Wordpress : - Très compatible (facilité d'installation) - Thèmes "explicites" et pas repoussants comme pour DC... - Modules simples et rapides à installer... alors que sous DC, avec leur manie de tout automatiser et de tout rendre propre, ça complique parfois les choses Toutefois, pour sa communauté et la richesse de son interface, j'utilise Dotclear 2. Concernant le SEO, je crois que les deux s'y prêtent bien. En revanche, Dotclear 2 est plus orienté "2.0", tu y trouveras donc un système de tags, de pings, des drags 'n drops, etc. J'ai utilisé les deux et aucun problème de spam. Il y a un antispam qui existe dès que tu installes Dotclear.
  24. C'est étrange, après avoir plutôt cartonné pendant 2/3 jours, mon site de parapluies vient aussi de subir une désindexation brutale... L'outil google webmasters ne me dit rien de spécial... Je suis juste passé d'une 40aine de pages à 3 pages indexées. Pourtant, aucun lâcher de BL spectaculaire, à la limite 4 ou 5 BL, mais des BL de qualité. C'est vraiment intrigant... espérons que ça ne durera pas (j'ai aussi disparu sur toutes les requêtes intéressantes...). /Edition : en effet, australien, c'est peut-être passager ou une "sandbox" spéciale dûe à une suroptimisation.
  25. Parce qu'un site qui fait 30Go de trafic par moi n'est pas fait pour avoir 2000 visites en 3 jours Ils ont prévu le CPU en conséquence du 30Go, or tu dépasses leurs attentes. Il est donc "normal" de leur point de vue de voir une hausse anormale du CPU.
×
×
  • Créer...