Aller au contenu

valdo

Hubmaster
  • Compteur de contenus

    110
  • Inscrit(e) le

  • Dernière visite

Réputation sur la communauté

0 Neutre

À propos de valdo

  • Date de naissance 27/04/1981

Pour me contacter

  • Mon Site
    http://blog.le-valdo.com/

Information du profil

  • Localisation
    la ville rose
  1. j'ai travaillé en temps que stagiaire dans la société qui fournit ce produit. Le CMS en lui-même est basé sur une intégration XML, qui permet de suivre les liens. la gestion des utilisateurs est par ailleurs assez poussée, et l'interface trés graphique. le moteur fait tourner les sites de plusieurs d eleurs gros clients. par ailleurs, l'applet de rédaction sur laquelle j'ai travaillé gére les CSS (à moins qu'il y ai eu des bugs depuis que je suis parti: c'est moi qui ai rajouté la gestion des CSS). A tester, mais surtout à améliorer. L'intérêt est réel. Ce n'est pas un réel projet communautaire, mais plutôt un don sous la forme d'un projet GPL permettant de rassurer les clients. Laurent.
  2. Tiens, à ce propos, je suis à la recherche d'infos pour pouvoir finir un script qui reçoit des requêtes IPN avec l'API de WebServices. Avez-vous des références ?
  3. Sauf que cela ne sert à rien, pour ce que cherche Arlette. Valdo, qui connait bien Onyx
  4. les fichiers cache de safari sont stockées dans un format spécial. de plus sur mac les fichiers ne sont pas obligés d'avoir une extension de 3 lettres: inutile donc de chercher .htm. J'ai fait un dump de ces fichiers, et à mon humble avis ça va être dur de récupérer le moindre petit bout de code. Bonne journée. Valdo.
  5. Bonjour, dans le cadre de mon projet de recherche de maitrise, je suis amené a rédiger un document sur l'estimation de certaines caractéristiques d'un échantillon quelconque de données par la méthode bootstrap (une méthode d'estimation un peu calculatoire). Par affinité envers les techniques d'internet, je cherche à analyser certaines propriétés de fonctionnement d'un serveur web, afin de pouvoir prédire (à l'aide de techniques telles que les ARMA's ou les lissages exponentiels) la probabilité qu'un serveur web (ou de fichiers ou autres, l'important étant qu'il soit sur unix) plante tout de suite ou dans les 15 prochaines minutes ou heures. Dans ce cadre j'ai besoin de recueillir des données à l'aide d'un script (bash , perl ou php) ou de sondages sur l'estimation que font les visiteurs d'un site de la vitesse de celui-ci, le tout afin d'estimer la loi de répartition de la probabilité d'une mauvaise appréciation que pourraient avoir les visiteurs du fonctionnement du serveur ou du site, ou alors la loi de répartition de la probabilité d'un plantage ou d'un reboot nécessaire (manque de ram, plus de réponses, etc) Je cherche donc des idées, que vous pourriez me suggérer, par rapport aux diverses données que je pourrai collecter (uptime, charge, taille des bases de données, nombre d'utilisateurs d'un forum, visiteurs par minute, etc...) Ce serait donc pour établir un modèle et juger de la bonne qualité de ce modèle. Une fois ce projet fini (ce doit être fait pour Mars) je vous présenterai mes conclusions, en espérant que vous en fassiez bon usage. Qui est intéressé, pour me donner des idées ou pour héberger un tel script statistique ? Laurent
  6. Bon, je m'y connais un petit peu en référencement (pas tant que ça), et je cherche a choisir entre wordpress et dotclear. Mon principal critére est leur capacités mutuelles a être bien référencés dans google. 1: que ce soit dotclear ou wordpress, existe-t'il des templates permettant de mettre en oeuvre une architecture en toile d'araignée, avec des liens concentriques permettant d'augmenter le page rank local de la page principale ? 2: y a t'il des systèmes de statistiques intégrables à l'un des deux blogs ? 3: et enfin, quelles sont les possibilités en matière de plugins pour les deux architectures ? Je cherche a optimiser mon référencement, étant déjà indexé ds la dixième page pour "sexe", entre autres, et étant encore mieux placé pour d'autres requètes, dont "blog alain juppé". merci de disserter un peu, j'ai besoin de me faire une idée précise de ce dont j'ai besoin, étant déjà sur dotclear. Laurent.
  7. Pour accélérer une requète, il faut: 1) placer des index sur les champs qui sont accédés par le SELECT, notamment en cas de test d'égalité 2) diminuer la taille des champs, pour baisser le temps de calcul de l'index. 3) choisir le bon type pour chacun des champs. 4) mettre un cache MySQL conséquent 5) diminuer la taille de la structure renvoyée, en n'utilisant pas un * là ou on peut choisir une liste de colonnes 6) utiliser les transactions, en cas d'INSERT en chaine 7) avoir plusieurs procs 8) avoir de la RAM 9) éviter un serveur surchargé EDIT: Ah oui, éviter les passages fréquents entre PHP et MySQL, là ou une simple opération dans MySQL fait l'affaire. transférer des données du middleware à PHP, ça prends du temps. EDIT 2: Sans compter qu'il faut pas mettre + d'index qu'il n'en faut, sinon les INSERT prennent trop de temps Je crois qu'il y a à peu près tout Valdo
  8. Salut, si par exemple je m'intéresse à superb servers ou a iweb, je trouve qu'ils ont des serveurs moins cher avec plus de RAM, pour autant de bande passante qu'en france. Seul souci: ils pingent à 100ms contre 10 ms en france. A mon avis les <modération>américains</modération> sont loins d'être largués par les français, et je dirai plus le contraire. Moi a prix égal, je suis plus intéressé par une machine puissante que par une machine avec beaucoup de BP,d'autant plus que 1000 Go c'est déjà beaucoup beaucoup. Résultat: Pour 110 euros par mois, machine 1 Go de RAM, avec 120 de disque, pentium IV, avec 1To de BP. ceci est une offre réelle que j'ai trouvé chez iweb.ca Ensuite, alors qu'en france, ils proposent le plus souvent des serveurs sous linux, aux états-unis ils osent la différence, et présentent parfois du solaris et du freebsd. Pour finir, il y a pas mal d'hébergeurs alternatifs qui commencent a se créer en france, et qui proposent souvent des alternatives fiables aux quelques grands que sont ovh, etc... Pour plus d'infos, je vous conseille l'excellent http://www.webhostingtalk.com/ Laurent.
  9. Salut, Ouais. J'ai pas encore travaillé sur ce truc là. Sinon ya aussi spot image japon (pour Cariboo) je filerai des infos supplémentaires un peu plus tard. Laurent.
  10. Salut, je vous présente automne: http://automne.sourceforge.net et http://sourceforge.net/projects/automne/, un CMS collaboratif taillé sur mesure pour la rapidité et les grandes entreprises. Il équipe les sites du CNES http://www.cnes.fr/ de spotimage http://www.spotimage.fr/, du rectorat de Toulouse de la semvat http://www.semvat.fr et est compatible xhtml. son interface d'administration est user friendly et possède meme une applet java. son architecture est modulaire, ce qui signifie que vous pouvez rajouter vos propres contributions. Laurent
  11. Sans hésiter, du PHP et du JavaScript/Ecmascript avec du CSS. Laurent.
  12. Salut, juste au moment de leur introduction en bourse, les deux fondateurs de google ont accordé une einterview à playboy. Maintenant cela risque de les handicaper ou de faire monter les encheres, selon du point de vue ou l'on regarde. Z'en pensez quoi ? Laurent
  13. Salut, Moi ça dépends. je suis actuellement sur Mac, et dessus j'ai désinstallé IE qui sur mac est une grosse daube, meme si par certains cotés il fonctionne mieux que sur PC (les PNGs transparents par exemple, qui sont supportés). A l'université, sur le serveur d'enseignement, qui est un gros serveur octoprocesseur sous solaris, il y a possibilité d'utiliser une vieille version d'IE, mais de plus en plus d'étudiants choisissent d'utiliser opéra ou d'installer Mozilla Firebird, qui fonctionne très bien. Là ou je travaille, tous s'arrachent les cheveux quand ils voient que IE version Mac est moins compatible PC que la version Mac. C'est une agence web, et malgré tout ça, leur seule référence est Internet Explorer. La graphiste, que le directeur oblige à travailler sur mac, est une fana de PC, et se plaint tous les jours que IE c'est de la daube (sur mac), alors que mozilla firefox se trouve aussi sur le système (mais elle ne l'utilise jamais). résultat: mac c'est de la merde, parce que IE c'est de la merde sur mac, alors qu'il existe un gentil petit navigateur dont le nom est safari, et qui est fait par Apple. Perso, avec quelques développeurs, nous avons choisi de passer sur firefox alors que nous sommes sur pc, mais j'ai parfois l'impression d'être un peu seul. Dans mon association, les six pcs tournent avec firefox. Dans un tel cas de figure, qd les utilisateurs arrivent, ils ont plusieurs réactions: - "Mais où est l'icone d'internet explorer ?" - "C'est quoi ce logiciel avec des flammes ? je vais le désinstaller !" et une fois qu'ils ont utilisé: - "Vous avez fait quoi avec ces pcs ? ils sont vachement stables !" (ça c'est quand la personne n'utilise l'ordinateur que pour aller sur internet) Après il y a le cas particulier de l'ordinateur sur linux. Là ils ont pris aux pièges, parce qu'il y a 3 navigateurs dans la barre de taches. 30 minutes après avoir commencer de l'utiliser, ils n'arrivent toujours pas à les trouver (pourant ce n'est pas si dur de repérer une icone de planète aver des 01101010 dessus). Au moins sur linux je n'ai pas besoin de passer derrière pour vérifier si ils installent des navigateurs en trop, parce que toutes les installations se font avec les droits root. devant tant de crétinerie, la parade est d'enlever le mode administrateur aux users normaux, et de coller l'icone d'IE sur celui de mozilla. Et là plus personne ne s'aperçoit de la supercherie. Laurent.
  14. Salut, en ce qui concerne le back office, une chose est sure, il faut que je le fasse rapidement... en ce qui me concerne, pour la partie réseau il sera bcp plus facile pour moi ou d'autres de la faire en Java. cela est une certitude, d'autant plus que la sortie du JDK 1.5 nous facilitera la tache. Cependant dans le cadre de ce même projet, il faut aussi que les sites puissent s'autoindexer et répondre à des requetes du méta moteur. Pour cela il y a plusieurs approches. La plus élégante serait de développer un module DSO écrit pour Apache, donc à priori en C/C++, pour indexer une page localement dés le moment de sa visite, c'est à dire instantanément (les différences de version de page seront évaluées par une clé MD5). La seconde solution serait d'utiliser un script PHP, qui va créer un index optimisé, pour un forum par exemple (tel qu'IPB). Faisons le point: J'ai besoin d'une architecture en forme d'arbres, dont les arètes sont des liens entre les serveurs. 1. Partie méta moteur: Va recueillir les résultats (backend): peut etre écrit en java, puisque J2EE permet de multithreader facilement les requetes. Le tout sera stocké en cache par une base de données SQL, et devra tracer les doublons avec un système de cache pour accélérer le renvoi des résultats. Va les présenter: peut être écrit en JSP. (une approche alternative serait de faire un backend en C/C++, et un frontend en PHP) 2. Partie cliente: Va indexer les résultats. Déjà fait dans le cas de google ou d'un moteur de recherche déjà implanté. A faire dans le cas d'un site statique ou propulsé par PHP, mais sans fonction de recherche, via un module DSO d'apache (demande des compétences en C/C++, et en bases de données). Va écouter les requetes: soit par un port (intéressant dans le cas d'un démon), soit par une requete POST, si on doit passer par HTTP. (demande des compétences sur le protocole HTTP) Va envoyer les données: formate les données en XML, et les envoie sur le socket. (connaissance sur PHP et HTTP) 3. format de représentation des données. Je ne sais pas ce qu'il en est de XML-RPC, mais cela me semble etre un bon moyen d'échange. Va spécifier à la fois les classement d'une réponse dans l'index, le nombre de réponses, ainsi que le nombre de pages. Va signifier au méta moteur que telle page est invalide. Ce projet est très ambitieux, et à vrai dire, je compte le commencer en Java. l'idée étant de faire une architecture modulaire dans la mesure du possible. Ce sera en opensource, et je compte commencer par la partie spécification. Pour simplifier je commencerai par mettre le résulat de recherche dans un fichier et le téléchargerai depuis le serveur qui héberge le méta moteur. C'est cool, ça commence a prendre forme, je vais pouvoir pondre une specification d'ici peu de temps. UPDATE: et même quelques diagrammes UML. Bonheur ! Laurent, très excité.
×
×
  • Créer...