Aller au contenu

ALeX!S

Hubmaster
  • Compteur de contenus

    111
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par ALeX!S

  1. Regarde du côté de akismet si il existe un module pour ASP ... ou utilise l'API pour l'exploiter. C'est le meilleur système je pense ... tu envoies le post vers akismet qui te répond si c'est un spam ou non ... si c'est un spam, il suffit de le marquer comme tel et le mettre en attente d'une validation manuelle. C'est plutôt efficace et akismet est capable d'apprendre de ses erreurs.
  2. Par rapport à mes sites en signature : Blog : 21,57 $ (3100 affichages) Sport : 4,10 $ (5500 affichages) Animaux : 0,43 $ (2300 affichages) Sur les 30 derniers jours ... J'avoue ne pas encore avoir surveillé pour une quelconque optimisation les deux derniers sites.
  3. Tu es surement chez infomaniak, j'ai trouvé ta réponse dans leur FAQ. Source ici 1 minute sur Google à peut près
  4. _AT_Poludix ... 3 clics sur Google : http://www.bellamyjc.org/fr/internet.html#paramExplorer
  5. Une seule adresse pour répondre à tes interrogations : http://www.nas-forum.com/ Je te conseille Synology. Même si avec un WD MyBookWorld (par exemple) il est possible d'une façon détournée d'accèder en ssh sur la box, et d'y installer ce genre de modules supplémentaires. A partir du moment ou le NAS est basé sur un Linux ... google devrait te renseigner sur la possibilité f (détournée ou non) d'y installer ce que tu désires. (Si tu veux un serveur PHP & MySQL, regarde quand même le côté hardware de ton NAS ... Synology fait par exemple des modèles "+" avec un proc plus costaud et plus de RAM)
  6. Cette balise meta, montre ta préférence quand à la fréquence de révision de tes pages. Elle n'oblige en rien un moteur à la respecter. Sinon tu imagines bien que tout le monde va mettre cette balise au minimum possible, afin d'être crawlé un maximum ... et les robots ne seraient plus suivre.
  7. Le début de mon fichier php qui fait les requêtes AJAX est le suivant : <?php header('Content-type: text/html; charset=iso-8859-1'); header('Cache-Control: no-cache, must-revalidate'); header('Expires: Mon, 26 Jul 1997 05:00:00 GMT'); Et pour effectuer des refresh j'utilise : new PeriodicalExecuter(requete, 60); En espérant que cela t'aide
  8. Merci pour ton intervention dièse, ça commence à me rassurer ! Comme je l'ai lu dans le forum google, et ailleurs, je crois que plusieurs personnes rencontres ce genre de problème. Ce qui me conforte dans l'idée que ce n'est pas un soucis "technique" de notre côté. Maintenant, google webmasters tools n'est évidement pas vital, mais c'est quand même un des seul endroit ou l'on trouve le plus d'informations utiles concernant google. Google qui n'est pas à négliger bien au contraire ...
  9. prototype + script.aculo.us et maintenant jQuery pour ma part. Attention prototype & jQuery c'est pas le grand amour, faut s'arranger pour qu'ils ne se tirent pas la gueule sur l'opérateur $. Sinon, je les utilises pour glisser - déposer des éléments, fait apparaitre des messages (avertissements, erreurs, ...) et pour alléger certaines manipulations. A côté de ça, un peu d'Ajax pour éviter certains rechargement de page inutile.
  10. Difficile à dire comme ça. Il faudrais déjà regarder quel est/sont le(s) processus qui consomment autant de RAM. Et surement ensuite : pourquoi...
  11. Pour aborder le côté humain, un nom de domaine avec tirets est quand même plus clair que tout collé (sauf exceptions). L'idéal serait surement de prendre les deux, comme le propose dldstyle.
  12. Je suis pas contre un PR7, mais j'avoue que j'ai jamais dépassé le PR4 avec mes sites. J'ai un peu de mal à trouver le bon filon pour voir des bons backlinks. (Et comment ça se fait que le site www.tt-ert.be est visité tous les jours par google ? Je sais que la jeunesse et la primeur joue parfois, mais bon la il est plus tout jeune ... pourtant avec son PR0 il est très bien consulter par le googlebot).
  13. Et bien tu effectues la sauvegarde en ajax, si tu as une erreur mysql dans la page de traitement, tu renvoies cette erreur en réponse ajax. Dans ta fonction ajax tu récupères le retour, soit tu affiches "mise à jour réussie" si c'est ok, si tu as une erreur en retour, tu relances la mise à jour.
  14. Juste parce que je suis en plein dedans pour le moment... J'ajouterais juste que la fonction JS go(expr) ne sert à rien, ou presque, il existe déjà de quoi obtenir ce résultat ... Il suffit d'utiliser Sortable.sequence('id_element').join(",") au lieu de Sortable.serialize pour obtenir la liste voulue (ici : 1,2,3,4 , ...) avec ce que l'on veux dans le join bien sur
  15. marquito, ne te fie pas trop à la date indiquée par google pour son dernier passage. Il existe des cas ou c'est vraiment pas mis à jour du tout ( voir mon sujet : http://www.webmaster-hub.com/index.php?showtopic=36959 ) Utilise plutôt tes logs, ou un outils de tracking pour consulter les passages des robots. Et puis, bon courage pour ton site !
  16. Après quelques brèves recherches, je remarque que je suis effectivement pas le seul à rencontrer ce genre de problème : http://groups.google.com/group/Google_Webm...sfully+accessed
  17. Seneffe.be avait été conçu sur ce principe du temps ou je fessais partie du développement ... je remarque maintenant qu'il ne reste que peu de chose (menu gauche) sur cette nouvelle version.
  18. J'essaye de comprendre effectivement ... Surtout que j'ai plusieurs sites dans cet espace de gestion ... même si les structures sont différents, je fonctionne un peu de la même façon pour chaque ... Google par contre, on dirais pas
  19. Oh que oui ! Regarde sur les 31 derniers jours : http://www.google.be/search?hl=fr&q=si...be&as_qdr=m (Comme tous le monde maintenant, c'est de l'indexation quasi directe ...)
  20. Un autre moyen très simple est disponible ... Il faut placer les fichiers sous la racine du serveur web ... Exemple : Via votre ftp vous avez la structure suivante / /www/ /logs/ etc ... / n'est pas accessible par http mais /www/ oui pour vos pages web... Il ne reste plus qu'a crée /mp3/ à la racine et utiliser les liens relatifs ( ../mp3/ à partir de /www/) pour acceder aux fichiers. De cette manière, ils ne seront pas téléchargeables en direct.
  21. Il faut créer le cookie sur le domaine uniquement et non pas avec le www qui est en fait un sous domaine. en travaillant sur .domaine.ext on peut avoir accès au cookie à partir de tous les sous domaines. ( C'est comme ça que j'ai pu travailler sur un cookie unique pour -www.monsite.ext et -forum.monsite.ext )
  22. Il faut utiliser des délimiteurs il me semble ... RedirectPermanent ^/activite/article.php3?id_article=47$ http://www.mondomaine.com/sport-loisir-montagne-47.html (Je suis pas un pro donc je me plante peut être ...)
  23. Pour les billets de mon blog j'utilise la balise description afin de donner un aperçu du contenu ... chaque billet à un titre et une description différente (même des mots clés différents) C'est bien cette "description" qui se retrouve sur google dans les résultats !
  24. Alors, Je pense que robots.txt est valable ... User-agent: * Disallow: /wp-admin/ Disallow: /wp-includes/ Disallow: /wp-content/plugins/ Disallow: /wp-content/cache/ Disallow: /wp-content/themes/ Disallow: /greybox/ Disallow: /xinu/ Disallow: /stats Disallow: /contact Disallow: /tag Disallow: /search Disallow: /category/* Disallow: /page/* Disallow: /date/* Disallow: /comments/feed Disallow: /feed/$ Disallow: /*/feed/$ Disallow: /*/feed/rss/$ Disallow: /*/trackback/$ Disallow: /*/*/feed/$ Disallow: /*/*/feed/rss/$ Disallow: /*/*/trackback/$ Disallow: /*/*/*/feed/$ Disallow: /*/*/*/feed/rss/$ Disallow: /*/*/*/trackback/ User-agent: Googlebot-Image Disallow: Allow: /* User-agent: Mediapartners-Google* Disallow: Allow: /* Sitemap: http://blog.alcd.be/sitemap.xml.gz Tout est accepté sauf une (longue) liste de répertoire et autre contenu ... sauf pour adsense et google image qui ont un accès complet. De plus je stipule l'url de mon sitemap qui est mis à jour régulièrement. Du côté de google webmasters pas de changement, la date est toujours bloquée ... (et pas d'avertissement sur mon sitemap qui à mon robots ou à des redir ...) Une idée ?
×
×
  • Créer...