Aller au contenu

bokan

Actif
  • Compteur de contenus

    31
  • Inscrit(e) le

  • Dernière visite

Réputation sur la communauté

0 Neutre

Information du profil

  • Genre
    Homme
  1. Tout à fait d'accord, merci pour ton avis. Et sinon, sais-tu si directadmin peut être configuré pour profiter pleinement des SSD ?
  2. Salut, Avez-vous vus les nouveaux serveurs hybrides de OVH. Ils ont des disques SSD pour la vitesse et des SATA pour l'espace... le pied quoi ! Par contre je me pose des questions. Comment répartir les données sur les disques ? Je vois bien les bases de données et le temp sur les SSD d'un coté et les médias lourds sur les SATA de l'autre. Ca c'est facile. Mais concernant les fichiers constituant un site web (html, js, css, php...) comment les répartir ? Si le cache disque est intelligemment géré par le système la plupart des accès en lecture aux petits fichiers devraient se faire depuis le cache disque en RAM (Je me trompe ?). Si c'est le cas, un SSD n'apporte rien, ou pas grand chose. Si ce n'est pas le cas il faudrait pouvoir avoir des dossiers http sur le SSD, d'autres sur le SATA... Pas très compliqué à faire quand on config apache à la main. Mais est-ce que les interfaces comme plex et directadmin peuvent gérer ca correctement ? A votre avis, est-ce que ces serveurs sont intéressants ? Dans quels cas ?
  3. Je viens de voir ce sujet : http://www.webmaster-hub.com/topic/41908-comment-optimiser-lhebergement-dun-dossier-images-volumineux/page__p__273829__hl__nombre%20fichiers%20dossiers__fromsearch__1entry273829 J'avais pas pensé au FTP mais effectivement c'est aussi une bonne raison de dispatcher en plusieurs dossiers.
  4. Bonjour, Je développe une appli flash permettant d'uploader des images sur le serveur. Comme j'attends beaucoup de visites (on a eu 20 000 visites le premier jour, merci la pub) j'ai pris soin de dispatcher les fichiers uploadés dans plusieurs dossiers afin de ne pas dépasser 1000 fichiers par dossier. J'ai vu plusieurs appli qui prenaient ce genre de précaution (comme magento). Je me demande quel est le nombre optimum de fichiers à ne pas dépasser par dossier pour conserver des performances correctes, ne pas alourdir la gestion, respecter les limites du système et ne pas ralentir le serveur (chercher un fichier dans un dossier en contenant 50 000 me semble plus lourd que de descendre d'un dossier dans une arborescence). Je voulais avoir vos avis sur ce sujet assez pointu.
  5. Bonjour à tous, J'ai un serveur chez OVH que j'ai commandé l'été dernier. C'est un "EG 08 Reloaded Plus" 2x2,4Ghz 8go ram et 700Go de disque en raid1. J'ai récemment transféré le site d'un ami dessus : www.mydogispolite.com Son site était sur un hébergement mutualisé START 1G OVH et il tournait plus vite. Le serveur est peu utilisé par d'autres sites. Comment puis-je vérifier que tout fonctionne bien ? Comment comparer la puissance ?
  6. http://www.dedibox.fr/dedibox-pro/serveur_dedibox_pro.html Un XEON quadcore X3350 45nm (underclocké ?) 8Go de ram 2x1To Raid (hardware ou software ?) 2x1Gbit (vraiment ???) Tout ca pour 99.99 (soit 119.89 TTC) Ca donne envie. Quelqu'un a testé ? Qu'est ce que ca donne ? J'attends vos retours !
  7. Ce sera un petit coup d'APC opcache. Puis pour magento il parait que cette optimisation fait des merveilles.
  8. Ok, ok effectivement si les index sont bien choisi c'est plus efficace. Il faut que je trouve comment les définir précisément. Merci tout plein
  9. Bonjour, Je fais des sites sous Magento, il sont composé de centaines de petits fichiers php qu'il faut lire pour afficher une page. Sur un serveur mutualisé, quand le site n'a pas été vu depuis un moment, les fichiers sont sorti du cache disque et l'affichage de la première page est super long (environ 30s). J'ai un serveur dédié maintenant mais je craint que le problème reste le même. Est-t-il possible de gérer le cache disque de façon à ce que certains fichiers restent en permanance ? Existe-t-il des solutions alternatives comme créer un disque virtuel en ram ou je ne sais quoi d'autre ?
  10. Bonjour, J'ai ceci : - 5000 utilisateurs - 200 "objets" Chaque utilisateur est lié aux 200 objets soit 1 milion de liaisons. Les objets possèdent une date et il faut extraire la liste des objets d'un utilisateur dont la date est dépassée. Est ce qu'une requête sur 1M d'enregistrements ne serait pas très lente ? Comment optimiser ca ? Est-ce qu'un indexage correct suffit ou est-ce qu'il vaut mieux créer une table par utilisateur avec 200 lignes ? J'ai peur que si je commence à créer 5000 tables ça rame carrément. Merci
  11. Heu... ca m'interesse moi ! j'aime bien directAdmin. C'est où c'est combien ? on peut avoir ca sur un Superplan 08 RAID ? contacte moi ! merci
×
×
  • Créer...