Aller au contenu

xunil

Hubmaster
  • Compteur de contenus

    138
  • Inscrit(e) le

  • Dernière visite

Messages postés par xunil

  1. Bonjour, je profite pour poser une question à xunil : ce code on le met n'importe où dans le fichier post.php ?

    (En fait, le fichier s'appelle posting.php, ou je me trompe ?)

    Le nom dépend du logiciel, c'est post pour punBB et posting pour phpBB.

    Je le mets juste avant que le message soit envoyé en base de données avec une requête SQL. Pour phpBB je le mets avant cette ligne:

    prepare_post($mode, $post_data, $bbcode_on, $html_on, $smilies_on, $error_msg, $username, $bbcode_uid, $subject, $message, $poll_title, $poll_options, $poll_length);

    Et cela a fonctionné parfaitement à ce jour.

  2. Je mets un filtre de ce genre dans le fichier post.php

    if(stristr($message, "via*ra") !== false)

    {

    $errors[] = $lang_post['Forbidden word'];

    }

    if(stristr($message, "po*rn") !== false)

    {

    $errors[] = $lang_post['Forbidden word'];

    }

    L'emplacement et la commande exacte dépendent du logiciel utilisé (ici phpBB).

    Edit: suppression mots indésirables!

  3. Difficile de mettre l'URL parce que c'est dynamique et à rallonge, mais il y a une notice tout au fond du guide du webmaster qui dit que l'on ne peut pas acheter ou vendre de lien pour manipuler le PR, mais que c'est permis si le lien est en nofollow ou sur une page avec une méta noindex ou nofollow.

    Ce n'est pas ce que cherchent les acheteurs de lien en général, c'est un fait.

  4. Ca n'a rien à voir avec les logs :nonono:

    Et bien... si, puisque les logs prennent en compte les visites des robots. Et justement les stats disent un peu n'importe quoi en ce moment et c'est parceque les visites des robots sont comptées plusieurs fois.

  5. Explications du responsable sur le forum OVH:

    on passe progressivlement les logs sur un nouveau systeme de stockage

    plus performances et plus grand. le probleme est qu'on ne peut pas

    arreter de calculer vos logs, il faut que tout soit accessible et

    qu'on continue à recevoir les logs, tout en sachant qu'il s'agit de

    plusieurs dizaines de To de données. C'est d'une lourdeur maximal les

    logs. Mais on avance surment.

  6. Pour la première question, faire un contrôle sur les données entrées est très facile mais cela dépend de ce que l'on contrôle, s'il faut faire des vérifications dans une base de données, il faudrait utiliser Ajax + PHP.

    Sinon, un exemple:

    HTML:

    onclick="mafonction(this)"

    JavaScript

    function mafonction(element)

    {

    var x = element.monid;

    if(x < 1 || x > 5) alert("la valeur doit être comprise entre 1 et 5");

    }

    Pour la seconde question, on peut utiliser un include, on ne perdra aucune donnée.

  7. Absolument pas d'accord ; si un nombre défini d'annuaires faisait loi, cela se saurait ! Je pense que les interventions de Jeanluc et de michaeljackvont dans ce sens.

    Je suis aussi d'accord avec Jeanluc et michaeljackvont. Je ne parle pas d'un nombre défini d'annuaires, mais de s'inscrire sur les meilleurs annuaires, vingt ou trente ce n'est pas la question.

    Ensuite si on fait une description très complète et différente pour chaque annuaire, ce n'est pas pareil que balancer le même texte sur tous les annuaires.

    Mais ce qui le plus déterminant je crois comme l'a dit alain-b, c'est le fait que l'on fasse un bond dans la position sur les résultats. Les sites que je connais et qui ont été sandboxés sont de gros sites qui sont passé en tête des résultats.

    Tant que vous restez en fond de classement, même si vous passez de la 10000 ième position à la 9000 ième, je ne pense pas que Google s'en soucie.

  8. mais c'est en contradiction avec la logique d'un site à vocation commerciale: plus on est référencé, plus on a de chance d'attirer des clients...

    Si l'on finit par être blacklisté, non ce n'est plus dans la logique. Il suffit de se référencer sur une vingtaine d'annuaires les plus connus, pour les autres, Google prohibe ce type de liens et n'en tient pas compte pour le classement dans les résultats.

    Les solutions faciles ne sont jamais les meilleures.

  9. Enfin, de toute façon a ce que tu dis, pour toi le web 2.0, c'est un site avec des couleurs flashi, des effets de reflets, des dégradés partout, plus de l'ajax. Et bien, tu es vraiment passé a coté de ce que c'est réellement, on a déjà été plusieurs a te l'expliquer.

    Quand a ta demo de la galerie asynchrone, c'est vraiment pas pertinent, que tu fasses le pré-chargement en CSS ou en soit disant asynchrone, cela n'apporte rien, quand je dis soit disant asynchrone, c'est tout bêtement qu'il est demandé de charger l'image au chargement de la page, au final, il est où le principe de l'asynchrone????

    Et pour info XMLHttpRequest existe depuis IE 5 soit depuis 1998

    J'ai dit ce qu'était le Web 2.0 pour moi:

    1) une plateforme avec des technologies

    2) le collaboratif

    3) une nouvelle économie.

    Je ne veux discuter de ce qu'est Wikipédia, évidemment il est collaboratif, je parle d'une page Wikipedia, son look (n'importe laquelle).

    Et pour le mode Asynchrone, non, tu n'a pas saisi (et Leonick non plus). Les images ne sont chargées avec la page, elle ne le sont pas non plus dynamiquement avec une commande write (car je suppose que c'est dynamique sinon pourquoi faire?), les images sont chargées une fois la page affichée et pendant que l'internaute lit le contenu.

    Donc chargement de la page rapide, et images disponibles quand on passe la souris sur une vignette (sauf si le lecteur est trop préssé).

    Par ailleurs, il ne fait pas comparer DHTML et Ajax. Ajax c'est DHTML + l'objet XMLHttpRequest qui permet de communiquer avec le serveur (dans les deux sens). C'est forcément un plus.

  10. Qu'importe, si le site correspond exactement aux attentes des utilisateurs ?

    En disant ça, tu ne résumes le "Web 2.0" qu'à la partir émergée de l'iceberg : l'interaction "piou-piou".

    La vraie prise de conscience qu'il y a eu récemment, est de faire participer l'internaute, non plus à la vie du site, mais au site lui-même.

    Le reste n'est que décoration.

    Ce n'est pas un débat sur Wikipedia, qu'il corresponde aux attentes ou pas n'est pas le problème, je veux juste donner un exemple de ce à quoi ressemblaient les anciens sites. Et de ce qu'ils apportaient comme fonctionnalités, autrement dit rien.

    Ensuite si on se donnait la peine de lire ce que j'écris... Ajax permet de charger des images pendant que le lecteur lit la page, vous ne pourrez jamais faire cela avec du DHTML.

    Pour faire quoi que ce soit en JavaScript il faut avoir les matériaux en mémoire, Ajax permet de les charger de façon asynchrone et c'est irremplaçable.

×
×
  • Créer...