Aller au contenu

rat-du-net

Hubmaster
  • Compteur de contenus

    146
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par rat-du-net

  1. lol ben 244 086 Impressions de pages soit 412 291 Impressions d'ensemble d'annonces pour 240 clicks et 72.29$
  2. quand vous parlé de 250 000 pages vue par mois, ca veut dire 250 000 affichages de pub ? parceque on peut avoir 250 000 pages vues et seulement 2500 affichages de pub. Désolé si j'ai un peux de mal mais si c'est juste 250 000 pages vues, je me rend compte que je gagne rien du tout !!!!! lol
  3. pourquoi ne pas faire une page faites nous connaitre d'ou le visiteur ou le membre peut envoyer un mail preecris a un amis. Quelques membres sur mon site l'utilisent et j'ai eu quelques nouveaux membres. D'un coté, si le site est bien fait, ils donneront l'adresse a leurs amis quoi qu'il arrive, d'un autre coté, ce genre de formulaire n'est pas tres compliqué donc tu mets une chance de plus de ton coté.
  4. pour moi, ca a ete avant hier. j'ai pas eu 54000 pages d'indexé mais la visite de googlebot a visité plus de 10 000 pages alors que j'en ai 800 d'indéxé
  5. peut etre que le php n'est pas approprié pour faire un moteur de recherche aussi
  6. Oups je me suis trompé de type de liens <a href="./page1.html" class="mainmenu" onmouseover="return overlib('Texte.');" onmouseout="return nd();">Lien</a>
  7. ahhhahhh oui, mais je n'arriverais surement pas a le configurer aussi bien que toi lol
  8. Bonjour, je compte utiliser overlib sur mon site web qui permet de faire des petits trucs sympa au niveau des liens. Seulement les liens sont du type : <a href="javascript:void(0);" onMouseOver="return overlib('Oh ! Oh ! Surprise...');" onMouseOut="return nd();">Une fenêtre simple</a> Ma question est : Est ce que ce type de lien est suivit par un moteur de recherche type googlebot par exemple ?
  9. humm de toute facon, comme je fais des sauvegardes, du site et des logs apache tous les soirs que j'envois vers un serveur privé chez moi, je pensais analyser les stats sur mon serveur chez moi comme ca, y aura pas de probleme de surcharge au momment de l'analyse meme si le serveur est pas surchargé du tout lol. Que me conseils tu alors comme analyseur de stats log performant et si possible ayant fait ses preuves que je puisse dire avec tel logiciel de stats je fait tant de visiteurs parceque si on regarde webalizer et awstats il y a des differences de stats qui peuvent etre importantes quand meme enfin, je trouve.
  10. merci !!! c parfait !! je viens de verifier en venant sur mon site depuis un partenaire et je me vois bien dans les log reste plus qu'installer awstats pour qu'il gerer tous mes domaines mais c pas gagné en tout cas merci !!
  11. je peux donc supprimer le ficher d'erreur alors ?
  12. Bonjour, J'ai actuellement plusieurs sites installé avec des VHOST dans httpd.conf j'ai ca mais je suppose que c'est les directives pour mon DOCUMENT ROOT # ErrorLog: The location of the error log file. # If you do not specify an ErrorLog directive within a <VirtualHost> # container, error messages relating to that virtual host will be # logged here. If you *do* define an error logfile for a <VirtualHost> # container, that host's errors will be logged there and not here. # ErrorLog /var/log/apache/error.log # # LogLevel: Control the number of messages logged to the error_log. # Possible values include: debug, info, notice, warn, error, crit, # alert, emerg. # LogLevel warn # # The following directives define some format nicknames for use with # a CustomLog directive (see below). # LogFormat "%h %l %u %t \"%r\" %>s %b \"%{Referer}i\" \"%{User-Agent}i\" \"%{forensic-id}n\" %T %v" full LogFormat "%h %l %u %t \"%r\" %>s %b \"%{Referer}i\" \"%{User-Agent}i\" \"%{forensic-id}n\" %P %T" debug LogFormat "%h %l %u %t \"%r\" %>s %b \"%{Referer}i\" \"%{User-Agent}i\" \"%{forensic-id}n\"" combined LogFormat "%h %l %u %t \"%r\" %>s %b \"%{forensic-id}n\"" forensic LogFormat "%h %l %u %t \"%r\" %>s %b" common LogFormat "%{Referer}i -> %U" referer LogFormat "%{User-agent}i" agent # # The location and format of the access logfile (Common Logfile Format). # If you do not define any access logfiles within a <VirtualHost> # container, they will be logged here. Contrariwise, if you *do* # define per-<VirtualHost> access logfiles, transactions will be # logged therein and *not* in this file. # #CustomLog /var/log/apache/access.log common # # If you would like to have agent and referer logfiles, uncomment the # following directives. # #CustomLog /var/log/apache/referer.log referer #CustomLog /var/log/apache/agent.log agent # # If you prefer a single logfile with access, agent, referer and forensic # information (Combined Logfile Format) you can use the following directive. # CustomLog /var/log/apache/access.log combined et dans mes VHOST j'ai : <VirtualHost DOMAINE1> DocumentRoot /home/web/DOMAINE1 ServerName DOMAINE1 ServerAlias *.DOMAINE1 <Directory "/home/web/DOMAINE1"> allow from all Options +Indexes </Directory> ErrorLog /var/log/apache/erreur-DOMAINE1.log LogLevel warn TransferLog /var/log/apache/acces-DOMAINE1.log </VirtualHost> Mais actuellement lorsque j'annalyse mes logs avec un soft sous windows par exemple je n'ai pas les referers d'activé. Je suppose que j'ai oublié quelque chose. mettre TransferLog /var/log/apache/acces-DOMAINE1.log LogLevel Combined par exemple. Est ce qu'un loglevel warn pour les log d'erreur est reellement necessaire. Dans un futur proche, je souhaiterais installer awstats en multidomaine mais ca a pas l'air facil facil lol
  13. il n'est pas compilé en CLI, je l'ai installé avec un apt-get je crois que je vais essayer d'optimiser mon script pour qu'il envoit un seul mail en mettant les adresses mail en CCI. L'execution du script sera plus rapide et peut etre qu'il ne tournera plus en boucle
  14. j'ai un serveur dédié. si j'execute mon script en clickant sur le lien avec mon navigateur sa fonctionne mais dans un crontab il tourne en boucle...
  15. ah ouais, sa serait super bien !!! mais je ne sais pas faire de requette sql en .sh ni meme envoyer un mail donc ca limite deja pas mal
  16. il a tourné en boucle, c'est un script qui envoit un mail a mes membres et ils ont tous recu 6 mails le temps que j'arrete le script. Et je n'ai aucun script qui modifit l'heure du serveur a ce momment la. Par contre, il doit envoyer un peux pres 1500 mails les un apres les autres c'est pour ca que j'ai pensé qu'il n'avait peut etre pas pu finir d'executer le script et qu'il recommencait tout le temps. Bon, en 1h30 le temps que je m'en rende compte, il a envoyé 6x1500 mails ca peut aller mais heureusement que j'ai pu le voir
  17. Bonjour, Tous les 1er du mois a 00h00 j'execute une page php grace a wget que j'execute en crontab voici ma ligne de code : 0 0 1 * * wget -O /dev/null --http-user=USER --http-passwd=MDP URL_DE_LA_PAGE Le petit probleme est que le script s'est exectuté en boucle hier est ce que mon crontab est pas bon ? ou alors, pensez vous que si il n'arrive pas a finir d'executer le code php a cause de la limitation de 30s d'execution d'un script php il recommence en esperant que l'execution arrive a se terminer un jour ?
  18. merci !!! ca marche tres bien normalement, mes duplicate content devrais disparaitre enfin, j'espere...
  19. je viens de tester ca : $description = stripslashes(substr(str_replace("\n"," ",$chaine),0,300)); et j'ai un retour a la ligne dans mon code source
  20. Bonjour, pour avoir un titre different sur chacune de mes pages, je voudrais recuperer un morceau de la description que les membres font d'eux et quelques qualités et defauts qu'ils doivent remplir. je vais recuperer tous les champs les mettre bout a bout et couper la chaine au niveau du nombre de caracteres limite seulement, je ne sais pas comment faire pour la couper enfin, garder les 300 premiers caracteres par exemple il existe surement une fonction pour ca mais laquelle ? idem, ma description comporte des retours a la ligne dans ma base mais ca n'est pas des <br> on vois pas de balises html comment faire pour les supprimer et mettre toute la phrase sur une seul ligne ?
  21. en essayant mutt -s "mon sujet" -i mon_message.txt kelkun_AT_chezlui.com cela ne fonctionnait pas par contre en faisant : mutt -s "mon sujet" kelkun_AT_chezlui.com < fichier.txt je recois bien le contenu du fichier texte mais on peux pas envoyer le contenu d'une variable ou comme pour le sujet l'ecrire en dur parceque je souhaiterais envoyer un rapport au niveau de l'espace disque sur mon serveur par mail
  22. moi je dirais un compte gratuit et un compte payant qui donne acces a des options en plus. Comme ca, tout le monde est content. Tu peux eventuellement offrir des comptes payant pour montrer a quoi servent les options payante que tu proposes et donner envis aux memebres de payer le mois d'apres si il sagit d'un abonnement par exemple
  23. ouais, mais en fait, j'ai les commentaires aussi donc imaginons que la personne ait 10 photos et 30 commentaires sur sa fiche vu que j'affiche 5 commentaires par fiche ca fait 6 pages x 10 photos donc 60 pages pour un seul profil n'ayant pas ennorment de photos et pas enormement de commentaires. si j'arrive a faire indexer toutes les pages, j'arriverais a faire indexer au moin 100 000 pages
  24. pour faire un robot.txt, ca risque d'etre dur vu que les membres peuvent ajouter jusqu'a 50 photos et il y a de nouveaux inscris tous les jours et certains retire des photos, d'autres en ajoutent pas evident donc sinon, j'ai un titre et des meta differentes mais ca ne suffit pas. je vais donec essayer de mettre un meta robot qui empeche d'indexer les autres pages et faire un fichier texte avec les pages actuellement dans google pour les retirer. C'est vrai que du contenu different aurait été vraiment bien car sa m'aurait permis d'avoir enormement de pages indéxés en plus
  25. Bonjour, Les membres de mon site peuvent envoyer des photos et les visiteurs peuvent visualiser les photos les unes apres les autres. Le probleme est que pour visualiser deux photos par exemple, j'ai deux url differentes et que le contenu de la page est identique mis a part la photo. Comment faire pour que les pages n'apparaissent pas en duplicate content ? faut il que je mette un lien en javascript par exemple pour empecher google d'indexer les autres pages avec uniquement la photo differente ? comme ca, il n'indexera qu'une seul page par membre. et si c'est la solution, comment faire pour retirer toutes les pages que google a deja indexé et mis en duplicate content ??
×
×
  • Créer...