Aller au contenu

ALeX!S

Hubmaster
  • Compteur de contenus

    111
  • Inscrit(e) le

  • Dernière visite

Messages postés par ALeX!S

  1. Regarde du côté de akismet si il existe un module pour ASP ... ou utilise l'API pour l'exploiter.

    C'est le meilleur système je pense ... tu envoies le post vers akismet qui te répond si c'est un spam ou non ... si c'est un spam, il suffit de le marquer comme tel et le mettre en attente d'une validation manuelle.

    C'est plutôt efficace et akismet est capable d'apprendre de ses erreurs. ;)

  2. Tu es surement chez infomaniak, j'ai trouvé ta réponse dans leur FAQ.

    Comment accéder par le web au répertoire des utilisateurs FTP supplémentaires ?

    Pour afficher le contenu d'un dossier de compte ftp il suffit de pointer son navigateur sur l'adresse:

    -http://www.mon_domaine.com/nom_d'utilisateur

    à condition d'avoir laissé le fichier .htaccess que nous avions mis par défaut en place; sans cela le signe "~" est indispendable:

    -http://www.mon_domaine.com/~nom_d'utilisateur

    Si vous avez supprimé ce fichier et que vous désirez y accéder à nouveau sans le "~" il vous faut placer un fichier .htaccess dans le répertoire /web principal du site(pas celui du compte utilisateur ftp) avec le contenu suivant:

    [LE CODE DE TON HTACCESS POSTE PLUS HAUT]

    Source ici

    1 minute sur Google à peut près :smartass:

  3. Une seule adresse pour répondre à tes interrogations : http://www.nas-forum.com/

    Je te conseille Synology. Même si avec un WD MyBookWorld (par exemple) il est possible d'une façon détournée d'accèder en ssh sur la box, et d'y installer ce genre de modules supplémentaires.

    A partir du moment ou le NAS est basé sur un Linux ... google devrait te renseigner sur la possibilité f (détournée ou non) d'y installer ce que tu désires.

    (Si tu veux un serveur PHP & MySQL, regarde quand même le côté hardware de ton NAS ... Synology fait par exemple des modèles "+" avec un proc plus costaud et plus de RAM)

  4. Cette balise meta, montre ta préférence quand à la fréquence de révision de tes pages.

    Elle n'oblige en rien un moteur à la respecter.

    Sinon tu imagines bien que tout le monde va mettre cette balise au minimum possible, afin d'être crawlé un maximum ... et les robots ne seraient plus suivre.

  5. Le début de mon fichier php qui fait les requêtes AJAX est le suivant :

    <?php 

    header('Content-type: text/html; charset=iso-8859-1');
    header('Cache-Control: no-cache, must-revalidate');
    header('Expires: Mon, 26 Jul 1997 05:00:00 GMT');

    Et pour effectuer des refresh j'utilise :

    new PeriodicalExecuter(requete, 60);

    En espérant que cela t'aide :nerd:

  6. Merci pour ton intervention dièse, ça commence à me rassurer !

    Comme je l'ai lu dans le forum google, et ailleurs, je crois que plusieurs personnes rencontres ce genre de problème. Ce qui me conforte dans l'idée que ce n'est pas un soucis "technique" de notre côté.

    Maintenant, google webmasters tools n'est évidement pas vital, mais c'est quand même un des seul endroit ou l'on trouve le plus d'informations utiles concernant google. Google qui n'est pas à négliger bien au contraire ...

  7. prototype + script.aculo.us et maintenant jQuery pour ma part.

    Attention prototype & jQuery c'est pas le grand amour, faut s'arranger pour qu'ils ne se tirent pas la gueule sur l'opérateur $.

    Sinon, je les utilises pour glisser - déposer des éléments, fait apparaitre des messages (avertissements, erreurs, ...) et pour alléger certaines manipulations.

    A côté de ça, un peu d'Ajax pour éviter certains rechargement de page inutile. :)

  8. Je suis pas contre un PR7, mais j'avoue que j'ai jamais dépassé le PR4 avec mes sites. J'ai un peu de mal à trouver le bon filon pour voir des bons backlinks.

    (Et comment ça se fait que le site www.tt-ert.be est visité tous les jours par google ? Je sais que la jeunesse et la primeur joue parfois, mais bon la il est plus tout jeune ... pourtant avec son PR0 il est très bien consulter par le googlebot).

  9. Et bien tu effectues la sauvegarde en ajax, si tu as une erreur mysql dans la page de traitement, tu renvoies cette erreur en réponse ajax.

    Dans ta fonction ajax tu récupères le retour, soit tu affiches "mise à jour réussie" si c'est ok, si tu as une erreur en retour, tu relances la mise à jour.

  10. Juste parce que je suis en plein dedans pour le moment...

    J'ajouterais juste que la fonction JS go(expr) ne sert à rien, ou presque, il existe déjà de quoi obtenir ce résultat ...

    Il suffit d'utiliser Sortable.sequence('id_element').join(",") au lieu de Sortable.serialize pour obtenir la liste voulue (ici : 1,2,3,4 , ...) avec ce que l'on veux dans le join bien sur :smartass:

  11. Un autre moyen très simple est disponible ...

    Il faut placer les fichiers sous la racine du serveur web ...

    Exemple :

    Via votre ftp vous avez la structure suivante

    /

    /www/

    /logs/

    etc ...

    / n'est pas accessible par http mais /www/ oui pour vos pages web...

    Il ne reste plus qu'a crée /mp3/ à la racine et utiliser les liens relatifs ( ../mp3/ à partir de /www/) pour acceder aux fichiers.

    De cette manière, ils ne seront pas téléchargeables en direct.

  12. Il faut créer le cookie sur le domaine uniquement et non pas avec le www qui est en fait un sous domaine.

    en travaillant sur .domaine.ext on peut avoir accès au cookie à partir de tous les sous domaines.

    ( C'est comme ça que j'ai pu travailler sur un cookie unique pour -www.monsite.ext et -forum.monsite.ext )

  13. Alors,

    Je pense que robots.txt est valable ...

    User-agent: *
    Disallow: /wp-admin/
    Disallow: /wp-includes/
    Disallow: /wp-content/plugins/
    Disallow: /wp-content/cache/
    Disallow: /wp-content/themes/
    Disallow: /greybox/
    Disallow: /xinu/
    Disallow: /stats
    Disallow: /contact
    Disallow: /tag
    Disallow: /search
    Disallow: /category/*
    Disallow: /page/*
    Disallow: /date/*
    Disallow: /comments/feed
    Disallow: /feed/$
    Disallow: /*/feed/$
    Disallow: /*/feed/rss/$
    Disallow: /*/trackback/$
    Disallow: /*/*/feed/$
    Disallow: /*/*/feed/rss/$
    Disallow: /*/*/trackback/$
    Disallow: /*/*/*/feed/$
    Disallow: /*/*/*/feed/rss/$
    Disallow: /*/*/*/trackback/

    User-agent: Googlebot-Image
    Disallow:
    Allow: /*

    User-agent: Mediapartners-Google*
    Disallow:
    Allow: /*

    Sitemap: http://blog.alcd.be/sitemap.xml.gz

    Tout est accepté sauf une (longue) liste de répertoire et autre contenu ... sauf pour adsense et google image qui ont un accès complet.

    De plus je stipule l'url de mon sitemap qui est mis à jour régulièrement.

    Du côté de google webmasters pas de changement, la date est toujours bloquée ... (et pas d'avertissement sur mon sitemap qui à mon robots ou à des redir ...)

    Une idée ?

×
×
  • Créer...