Aller au contenu

valdo

Hubmaster
  • Compteur de contenus

    110
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par valdo

  1. j'ai travaillé en temps que stagiaire dans la société qui fournit ce produit. Le CMS en lui-même est basé sur une intégration XML, qui permet de suivre les liens. la gestion des utilisateurs est par ailleurs assez poussée, et l'interface trés graphique. le moteur fait tourner les sites de plusieurs d eleurs gros clients. par ailleurs, l'applet de rédaction sur laquelle j'ai travaillé gére les CSS (à moins qu'il y ai eu des bugs depuis que je suis parti: c'est moi qui ai rajouté la gestion des CSS). A tester, mais surtout à améliorer. L'intérêt est réel. Ce n'est pas un réel projet communautaire, mais plutôt un don sous la forme d'un projet GPL permettant de rassurer les clients. Laurent.
  2. Tiens, à ce propos, je suis à la recherche d'infos pour pouvoir finir un script qui reçoit des requêtes IPN avec l'API de WebServices. Avez-vous des références ?
  3. Sauf que cela ne sert à rien, pour ce que cherche Arlette. Valdo, qui connait bien Onyx
  4. les fichiers cache de safari sont stockées dans un format spécial. de plus sur mac les fichiers ne sont pas obligés d'avoir une extension de 3 lettres: inutile donc de chercher .htm. J'ai fait un dump de ces fichiers, et à mon humble avis ça va être dur de récupérer le moindre petit bout de code. Bonne journée. Valdo.
  5. Bonjour, dans le cadre de mon projet de recherche de maitrise, je suis amené a rédiger un document sur l'estimation de certaines caractéristiques d'un échantillon quelconque de données par la méthode bootstrap (une méthode d'estimation un peu calculatoire). Par affinité envers les techniques d'internet, je cherche à analyser certaines propriétés de fonctionnement d'un serveur web, afin de pouvoir prédire (à l'aide de techniques telles que les ARMA's ou les lissages exponentiels) la probabilité qu'un serveur web (ou de fichiers ou autres, l'important étant qu'il soit sur unix) plante tout de suite ou dans les 15 prochaines minutes ou heures. Dans ce cadre j'ai besoin de recueillir des données à l'aide d'un script (bash , perl ou php) ou de sondages sur l'estimation que font les visiteurs d'un site de la vitesse de celui-ci, le tout afin d'estimer la loi de répartition de la probabilité d'une mauvaise appréciation que pourraient avoir les visiteurs du fonctionnement du serveur ou du site, ou alors la loi de répartition de la probabilité d'un plantage ou d'un reboot nécessaire (manque de ram, plus de réponses, etc) Je cherche donc des idées, que vous pourriez me suggérer, par rapport aux diverses données que je pourrai collecter (uptime, charge, taille des bases de données, nombre d'utilisateurs d'un forum, visiteurs par minute, etc...) Ce serait donc pour établir un modèle et juger de la bonne qualité de ce modèle. Une fois ce projet fini (ce doit être fait pour Mars) je vous présenterai mes conclusions, en espérant que vous en fassiez bon usage. Qui est intéressé, pour me donner des idées ou pour héberger un tel script statistique ? Laurent
  6. Bon, je m'y connais un petit peu en référencement (pas tant que ça), et je cherche a choisir entre wordpress et dotclear. Mon principal critére est leur capacités mutuelles a être bien référencés dans google. 1: que ce soit dotclear ou wordpress, existe-t'il des templates permettant de mettre en oeuvre une architecture en toile d'araignée, avec des liens concentriques permettant d'augmenter le page rank local de la page principale ? 2: y a t'il des systèmes de statistiques intégrables à l'un des deux blogs ? 3: et enfin, quelles sont les possibilités en matière de plugins pour les deux architectures ? Je cherche a optimiser mon référencement, étant déjà indexé ds la dixième page pour "sexe", entre autres, et étant encore mieux placé pour d'autres requètes, dont "blog alain juppé". merci de disserter un peu, j'ai besoin de me faire une idée précise de ce dont j'ai besoin, étant déjà sur dotclear. Laurent.
  7. Pour accélérer une requète, il faut: 1) placer des index sur les champs qui sont accédés par le SELECT, notamment en cas de test d'égalité 2) diminuer la taille des champs, pour baisser le temps de calcul de l'index. 3) choisir le bon type pour chacun des champs. 4) mettre un cache MySQL conséquent 5) diminuer la taille de la structure renvoyée, en n'utilisant pas un * là ou on peut choisir une liste de colonnes 6) utiliser les transactions, en cas d'INSERT en chaine 7) avoir plusieurs procs 8) avoir de la RAM 9) éviter un serveur surchargé EDIT: Ah oui, éviter les passages fréquents entre PHP et MySQL, là ou une simple opération dans MySQL fait l'affaire. transférer des données du middleware à PHP, ça prends du temps. EDIT 2: Sans compter qu'il faut pas mettre + d'index qu'il n'en faut, sinon les INSERT prennent trop de temps Je crois qu'il y a à peu près tout Valdo
  8. Salut, si par exemple je m'intéresse à superb servers ou a iweb, je trouve qu'ils ont des serveurs moins cher avec plus de RAM, pour autant de bande passante qu'en france. Seul souci: ils pingent à 100ms contre 10 ms en france. A mon avis les <modération>américains</modération> sont loins d'être largués par les français, et je dirai plus le contraire. Moi a prix égal, je suis plus intéressé par une machine puissante que par une machine avec beaucoup de BP,d'autant plus que 1000 Go c'est déjà beaucoup beaucoup. Résultat: Pour 110 euros par mois, machine 1 Go de RAM, avec 120 de disque, pentium IV, avec 1To de BP. ceci est une offre réelle que j'ai trouvé chez iweb.ca Ensuite, alors qu'en france, ils proposent le plus souvent des serveurs sous linux, aux états-unis ils osent la différence, et présentent parfois du solaris et du freebsd. Pour finir, il y a pas mal d'hébergeurs alternatifs qui commencent a se créer en france, et qui proposent souvent des alternatives fiables aux quelques grands que sont ovh, etc... Pour plus d'infos, je vous conseille l'excellent http://www.webhostingtalk.com/ Laurent.
  9. Salut, Ouais. J'ai pas encore travaillé sur ce truc là. Sinon ya aussi spot image japon (pour Cariboo) je filerai des infos supplémentaires un peu plus tard. Laurent.
  10. Salut, je vous présente automne: http://automne.sourceforge.net et http://sourceforge.net/projects/automne/, un CMS collaboratif taillé sur mesure pour la rapidité et les grandes entreprises. Il équipe les sites du CNES http://www.cnes.fr/ de spotimage http://www.spotimage.fr/, du rectorat de Toulouse de la semvat http://www.semvat.fr et est compatible xhtml. son interface d'administration est user friendly et possède meme une applet java. son architecture est modulaire, ce qui signifie que vous pouvez rajouter vos propres contributions. Laurent
  11. Sans hésiter, du PHP et du JavaScript/Ecmascript avec du CSS. Laurent.
  12. Salut, juste au moment de leur introduction en bourse, les deux fondateurs de google ont accordé une einterview à playboy. Maintenant cela risque de les handicaper ou de faire monter les encheres, selon du point de vue ou l'on regarde. Z'en pensez quoi ? Laurent
  13. Salut, Moi ça dépends. je suis actuellement sur Mac, et dessus j'ai désinstallé IE qui sur mac est une grosse daube, meme si par certains cotés il fonctionne mieux que sur PC (les PNGs transparents par exemple, qui sont supportés). A l'université, sur le serveur d'enseignement, qui est un gros serveur octoprocesseur sous solaris, il y a possibilité d'utiliser une vieille version d'IE, mais de plus en plus d'étudiants choisissent d'utiliser opéra ou d'installer Mozilla Firebird, qui fonctionne très bien. Là ou je travaille, tous s'arrachent les cheveux quand ils voient que IE version Mac est moins compatible PC que la version Mac. C'est une agence web, et malgré tout ça, leur seule référence est Internet Explorer. La graphiste, que le directeur oblige à travailler sur mac, est une fana de PC, et se plaint tous les jours que IE c'est de la daube (sur mac), alors que mozilla firefox se trouve aussi sur le système (mais elle ne l'utilise jamais). résultat: mac c'est de la merde, parce que IE c'est de la merde sur mac, alors qu'il existe un gentil petit navigateur dont le nom est safari, et qui est fait par Apple. Perso, avec quelques développeurs, nous avons choisi de passer sur firefox alors que nous sommes sur pc, mais j'ai parfois l'impression d'être un peu seul. Dans mon association, les six pcs tournent avec firefox. Dans un tel cas de figure, qd les utilisateurs arrivent, ils ont plusieurs réactions: - "Mais où est l'icone d'internet explorer ?" - "C'est quoi ce logiciel avec des flammes ? je vais le désinstaller !" et une fois qu'ils ont utilisé: - "Vous avez fait quoi avec ces pcs ? ils sont vachement stables !" (ça c'est quand la personne n'utilise l'ordinateur que pour aller sur internet) Après il y a le cas particulier de l'ordinateur sur linux. Là ils ont pris aux pièges, parce qu'il y a 3 navigateurs dans la barre de taches. 30 minutes après avoir commencer de l'utiliser, ils n'arrivent toujours pas à les trouver (pourant ce n'est pas si dur de repérer une icone de planète aver des 01101010 dessus). Au moins sur linux je n'ai pas besoin de passer derrière pour vérifier si ils installent des navigateurs en trop, parce que toutes les installations se font avec les droits root. devant tant de crétinerie, la parade est d'enlever le mode administrateur aux users normaux, et de coller l'icone d'IE sur celui de mozilla. Et là plus personne ne s'aperçoit de la supercherie. Laurent.
  14. Salut, en ce qui concerne le back office, une chose est sure, il faut que je le fasse rapidement... en ce qui me concerne, pour la partie réseau il sera bcp plus facile pour moi ou d'autres de la faire en Java. cela est une certitude, d'autant plus que la sortie du JDK 1.5 nous facilitera la tache. Cependant dans le cadre de ce même projet, il faut aussi que les sites puissent s'autoindexer et répondre à des requetes du méta moteur. Pour cela il y a plusieurs approches. La plus élégante serait de développer un module DSO écrit pour Apache, donc à priori en C/C++, pour indexer une page localement dés le moment de sa visite, c'est à dire instantanément (les différences de version de page seront évaluées par une clé MD5). La seconde solution serait d'utiliser un script PHP, qui va créer un index optimisé, pour un forum par exemple (tel qu'IPB). Faisons le point: J'ai besoin d'une architecture en forme d'arbres, dont les arètes sont des liens entre les serveurs. 1. Partie méta moteur: Va recueillir les résultats (backend): peut etre écrit en java, puisque J2EE permet de multithreader facilement les requetes. Le tout sera stocké en cache par une base de données SQL, et devra tracer les doublons avec un système de cache pour accélérer le renvoi des résultats. Va les présenter: peut être écrit en JSP. (une approche alternative serait de faire un backend en C/C++, et un frontend en PHP) 2. Partie cliente: Va indexer les résultats. Déjà fait dans le cas de google ou d'un moteur de recherche déjà implanté. A faire dans le cas d'un site statique ou propulsé par PHP, mais sans fonction de recherche, via un module DSO d'apache (demande des compétences en C/C++, et en bases de données). Va écouter les requetes: soit par un port (intéressant dans le cas d'un démon), soit par une requete POST, si on doit passer par HTTP. (demande des compétences sur le protocole HTTP) Va envoyer les données: formate les données en XML, et les envoie sur le socket. (connaissance sur PHP et HTTP) 3. format de représentation des données. Je ne sais pas ce qu'il en est de XML-RPC, mais cela me semble etre un bon moyen d'échange. Va spécifier à la fois les classement d'une réponse dans l'index, le nombre de réponses, ainsi que le nombre de pages. Va signifier au méta moteur que telle page est invalide. Ce projet est très ambitieux, et à vrai dire, je compte le commencer en Java. l'idée étant de faire une architecture modulaire dans la mesure du possible. Ce sera en opensource, et je compte commencer par la partie spécification. Pour simplifier je commencerai par mettre le résulat de recherche dans un fichier et le téléchargerai depuis le serveur qui héberge le méta moteur. C'est cool, ça commence a prendre forme, je vais pouvoir pondre une specification d'ici peu de temps. UPDATE: et même quelques diagrammes UML. Bonheur ! Laurent, très excité.
  15. Salut, cependant je prévoyais de stocker les éléments dans une table en RAM de MySQL. De plus pour la modularité j'ai envie de faire appel à PHP 5. Bien sur ce que tu m'as dit me pousse aussi à utiliser Java mais d'un autre coté, il faut que la chose puisse être compatible avec un max de serveur, pour ne pas que l'initiative tombe à l'eau, et c'est pour ça que je pensais que PHP était une bonne idée. en fait mon idée est de fournir une spécification etun format standard d'échange de résultat de recherche et de l'exploiter de différentes manières, en partant toujours du même schéma UML, cela afin que mon moteur puisse autant servir pour interroger d'autres moteurs qu'interroger une liste d'IPB ou de PHP BB. L'idée revient à tisser des liens entre les moteurs de recherche, et pour ma part je ne suis pas sur qu'un dev "tout java" soit absolument la meilleure solution, d'autant plus que pas mal de programmeurs amateurs préfèrent PHP. D'un autre coté, je vois mal un programme en PHP ouvrir pleins de sockets avec pleins de serveurs et attendre les résultats en simultané. Du coup j'ai pensé a une autre possibilité qui serait de faire le dev en C/C++, avec un frontend en PHP. t'en pense quoi ? EDIT: Sans compter qu'il y a aussi la solution PERL. Laurent.
  16. il va ouvrir des sockets, et il y aura un traitement parallèle, avec pas mal d'éléments qui seront gardés en RAM. le tout doit être géré de manière abstraite, avec différents module spour chaque moteur de recherche. EDIT: Le tout sera éventuellement multi-server, mais cela ne fonctionnera pas en cluster, mais sous forme d'arbre de requetes et de renvoi de résultats, l'idée étant de paralléliser un maximum le résutlat sur des serveurs de domaines différents.
  17. Salut, merci de me faire une réponse argumentée, éventuellement étayée par des exemples, ceci étant nécessaire pour choisir entre les deux alternatives. C'est pour faire un méta moteur de recherche Laurent
  18. Clairement, oui. mais sinon pourquoi ne pas envoyer le lien vers le dump, en mettant le dump sur le serveur web dans une zone à authentification ?
  19. http://fr.groups.yahoo.com/group/rzr-fr/message/277 Si vous êtes interessé et connaisseur de l'environnement linux, vous pouvez tenter le coup. Laurent.
  20. En fait, je vais préciser mon point de vue. je cherche moi même à mettre en plus un système de gestion. je ne souhaite pas disposer d'un truc tout prêt. Seulement on m'a dit que FreeBSd tenait plus la charge avec PostgreSQL ou MySQL que Linux. On m'a dit qu'il était aussi possible d'y installer des panels. Donc je cherche aussi à développer un serveur performant. Mon deuxième désidérata est de pouvoir disposer d'une source d'updates à jour. le gestionnaire de package est donc primordial. De plus je cherche à ce que les gestionnaires de panel soit parfaitement intégrés au système et opensource. je souhaite quelque chose de sûr niveau sécurité, quelque chose qui tienne bien la charge, et dont le noyau soit simple à recompiler. Ayant eu affaire a mandrake 9, au système up2date ainsi qu'à yum, je me suis rendu compte qu'ils ne fonctionnaient pas de manière satisfaisante. la compilation est difficile a gérer avec les paquets RPM, et je n'ai pas que ça a faire que de compiler moi-même un paquet. Les mises à jour ne sont pas faites de manière régulière et pour moi il me semble que les dépendances ne doivent pas être cassées, donc il m'est impensable de vouloir installer dans /usr/local en compilant. D'un autre coté considérons gentoo qui à l'air d'être difficile à gérer si on ne connait pas linux, mais qui ne nous embete pas avec les dépendances inverses (génant si on ne dispose que d'une console via ssh) Considérons debian, dont le système dselect à l'air de bien fonctionner, et permettant la compilation on-the-fly. Considérons aussi FreeBSD et OpenBSD. Yahoo à l'air de fonctionner sur FreeBSD, ce n'est peut-être pas pour rien. FreeBSD permet de gérer certains utilitaires de shaping qui ne sont pas présents sur linux, cela ne serait-il pas utile pour créer des serveurs virtuels avec accès root, et éviter que certains utisateurs d'un hébergement ne s'accaparent toutes la bande passante ou tout le CPU, voire toute la mémoire ? Bien sûr on peu aussi choisir d'utiliser un origin 2000, avec solaris, ou des OS comme AIX. Mais ceux-là ont des licences. je cherche à me construire un environnement opensource, facile d'accès pour de futurs utlisateurs et sûr niveau fonctionnement, sans utilitaire superflus, sans ports ouverts par défaut. A mon avis, et après avoir eu accés a de nombreux dédiés, FreeBSD reste pour moi la solution la plus crédible. Si plus tard j'ai l'occasion d'acheter un serveur et de le palcer dans une armoire c'est ce que je choisirai. Laurent.
  21. Je pense que ta demande n'est pas encore assez précise. Dans un premier temps il faut que tu définisses quels sont tes problèmes, précisément. Dans un second temps il faut que tu nous dise ce dont tu as exactement besoin. Comprends bien qu'il est impossible de t'aider si tu ne précises pas plus ta demande. Laurent.
  22. Salut, Le site lui-même est très bien, mais pour tout ce qui concerne linux je vais voir sur IRC. Après si je vous pose la question c'est pour savoir quelles ont été vos expériences d'hébergement sur les différents systèmes. Laurent.
  23. Salut, Linux, BSD, quelle version de linux, quelle version de BSD ? Qu'est ce que vous conseillez, sachant que le plus important pour moi, est la qualité du code source de l'OS, la sécurité, la politique de mise à jour, etc... Qu'est ce qu'il n'est pa spossible d'installer sur un serveur web, que je peux installer sur FreeBSD ? Quelle est selon vous la meilleure version de linux a utliser pour un serveur web ? Laurent
  24. Mmmmh, d'après mes infos je crois qu'il est carrément possible de désactiver la présence du PHPSESSID depuis le php.ini, et de dire au client qu'il faut qu'il active les cookies pour lancer une session. Je pense qu'il est aussi possible d'utiliser la commande set_ini pour modifier les variables: session.use_cookies session.use_only_cookies et de les mettre respectivement à "1" et "1". EDIT: session.use_trans_sid doit aussi etre ègal à "0" pareil au moment du configure il faut s'assurer que le --enable-trans-sid n'est pas présent, sinon celui-ci est rajouté par défaut, ce qui est très génant. Après bien sur on peux faire un test sur le USER_AGENT, ce qui est souvent plus safe, mais non nécessaire si PHP est bien configuré. Laurent.
×
×
  • Créer...