Aller au contenu

Spidetra

Hubmaster
  • Compteur de contenus

    326
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Spidetra

  1. Spidetra

    INSERT

    je ne pense pas : INSERT [LOW_PRIORITY | DELAYED | HIGH_PRIORITY] [IGNORE] [INTO] tbl_name [(col_name,...)] VALUES ({expr | DEFAULT},...),(...),... [ ON DUPLICATE KEY UPDATE col_name=expr, ... ] la syntaxe ne prend qu'une seule table et non pas une liste de table. Pour l'exemple j'ai pris la syntaxe mySQL, mais je pense que c'est pareil pour les autres SGBDR.
  2. GoogleBot Keep Out Je suis assez surpris par la méthode décrite par Matt Cutts dans ce billet pour interdire à GoogleBot d'indéxer une page. Par contre, je trouve le billet intéressant car il nous explique comment utiliser les wilcards dans un robots.txt pour contrôler l'indexation de GoogleBot. J'étais persuadé que les wilcards n'étaient pas pris en compte dans un robots.txt User-agent: Googlebot Disallow: *googlebot=nocrawl$
  3. regarde en bas de cette page : http://www.journaldunet.com/rubrique/url/index_url.shtml chaque semaine de nv litiges. Renseignes-toi auprès de l'afnic pour voir quelle est la procédure.
  4. Je t'offre un café Rassures-toi, j'avais même pas vu qu'il lisait dans un fichier. C'est ta solution qui me l'a montré. Pas réveillé non plus. Comme quoi, 2 cerveaux valent mieux qu'un
  5. Une première réponse possible : SELECT * FROM table WHERE champ IN ( XX, XX, XX, XX, XX ) Inspire toi de la solution de captain torche et génère la liste de ta clause IN en php. Là ou je ne suis pas d'accord avec captain torche : Ne jamais mettre une requête dans une boucle. Tu vas faire n requêtes, là ou une seule est suffisante. Maintenant : qu'est-ce que tu entend par infini ? Des millions de lignes dans le fichier, des milliers ou des centaines ?
  6. Je pense que tu cherches une mauvaise solution a un pb simple. C'est vraiment très très très rare d'avoir besoin de réorganiser une table comme tu viens de le faire. Ton pb se règle trés facilement en SQL : SELECT * FROM Table WHERE ( listes de conditions quelconques ) ORDER BY Nom LIMIT $1, $2 C'est l'impl"mentation classique d'un pager en mySQL. Et ça marche très bien. La syntaxe de ta requête SQL était fausse, et tu aurait dû commencer par la poster. Toujours choisir la solution la plus simple a un pb
  7. Ne touche pas à la structure de ta DB. Laisse ta clé primaire en auto-incrément. Ne te préoccupe pas de la manière ton SGBD insère et tri les enregistrements. Fais lui confiance te laisse le faire. Ta solution est très simple en SQL. SELECT * from TABLE ORDER BY Nom Cette solution ne te convient pas ? En fait je ne comprend pas trop ce que tu veux faire. De plus, si tu change les ID, et que ta table est lié à d'autres tables, tu va mettre toute ta base en vrac.
  8. A titre perso, je ne choisirai pas cette solution ! Un SGBDR est un système Relationnel C'est à dire un système optimisé pour gérer les relation entre les tables. Cette optimisation passe, entre autre, par la création des bons index sur les bons champs. 1. Imagine que tu désire supprimmer la catégorie n° 1. Avec un système normalisé une simple requête va te permettre de supprimmer toutes les liaisons entre tes jeux et cette catégorie. DELETE * FROM jeu_categorie WHERE IDCategorie = 1 Tu peux aussi gérer des triggers onDeleteCascade ou onUpdateCascade qui vont te permettre de maintenir la cohérence de ta DB. La gestion des triggers démarre avec mySQL 5.0. 2 Pour les pb de performances : => Il faut créer des index => Utilise un système de cache sur ton site 3. Commence d'abord par normaliser ta base de donnée. Ensuite, et seulement ensuite, tu peux dénormaliser ta table pour des raisons de performance ou de simplification. Il ne faut pas rester prisonier des règles de normalisation. Je ne sais pas si tu es en entreprise ou pas, mais essaye de prendre des bonnes habitudes de modélisation de tes bases de données.
  9. Pas de pb de performance si tu crée les index qui vont bien dans tes tables ( clé primaire et clé étrangère ) !
  10. NorSeb, t'as donné la solution tu as une relation de type many-to-many entre tes 2 tables
  11. Les moteurs de recherches n'utilisent pas un SGBD pour stocker et indexer les informations. Ils utilisent une structure connu sous le nom de : Inverted Index. Ce post essaye de décrire ce que je comprend de la structure d'un inverted index. J'espère que les zones d'ombres pourront être complété par les experts du Hub 1. Les fichiers qui composent un inverted index Un inverted index est composé de segments. Dans notre exemple nous avons un seul segment _0. Un segment est composé de différents fichiers. En particulier certains fichiers ont des extensions du type : .fnm, .tis, .frq, .prx Nous verrons un peu plus bas à quoi correspondent ces fichiers. Un des fichiers important de ce répertoire est le fichier segment. Ce fichier liste tout les segments présents dans notre inverted index. Dans notre exemple nous n'avons qu'un seul segment : _0 Le moteur de recherche va se baser sur ce fichier pour savoir quels sont les noms des fichiers d'index qu'il devrat manipuler. Dans notre exemple, ce sont les fichiers _0.fnm, _O.tis, _O.frq, _0.prx qui vont nous intéresser. Le fichier deletable contient des informations sur les documents qui ont été marqués pour suppression. Les fichiers ayant des extensions .fN ( N étant un nombre entre 0 et 8 dans notre exemple ) contiennent des informations sur les champs présents dans les documents indéxés. Dans notre exemple nous verrons que les 9 champs présents sont : anchor, content, dccreator, dctitle, host, site, tag, title, url 2. Le fichier .fnm : liste les noms des champs Ce fichier contient la liste de tout les champs composant l'inverted index. Vous pouvez voir que j'ai configuré mon crawler pour prendre en compte les méta Dublin Core ( dc:title et dc:creator ) Pour chacun de ces champs des flags indiquent les propriétés du champs : I, T, S, V I : Indexed => Le champ est indéxé T : Tokenized => Le champ est tokenize ( Découpé en mot ) S : Strored => Le champ est stocké V : Vector => ??? 3. Le fichier .tis : Dictionnaire des termes Ce fichier contient tout les termes de l'index. Un terme est un tuple contenant : Nom du champ et valeur du champ. Un terme de notre exemple : dctitle: XMLParser parse XMLData using Namespace and XPath Ce fichier contient aussi un document frequency. Cette valeur correspond au nombre de document du segment qui contiennent ce terme. 4. Les fichiers .frq et .prx : fréquences et positions des termes Ces deux fichiers listent les fréquences et les positions des termes dans l'ensemble des documents composant le segment. La structure d'un inverted index est un compromis entre deux chemin : - maximum de performance - minimum de ressources utilisées.
  12. un lien sur phlat : http://research.microsoft.com/adapt/phlat/default.aspx Search and Retrieval chez Microsoft
  13. La puissance économique de Microsoft fait encore peur aux milieux financiers. Dans les années 90, il suffisait que Microsoft décide de s'intéresser à un secteur, de racheter un ou deux acteurs économique, pour paralyser l'effort de R&D du secteur en question. Récemment ( fin février 2006 ), Georges Reyes évoquait les besoins financiers de Google. Comme par hasard, deux ou trois jours, plus tard Microsoft annonce qu'il vont "dévorer Google". Dans un contexte de guerre économique, une telle annonce peut paralyser les milieux financiers pendant quelques mois. ... ou alors Microsoft a vraiment embauché une armée de jeunes chercheur et mis en place un nouvel algo qui va déchirer sa race
  14. +1 pour robinsonvendredi si mysql5 possible.
  15. Choisit le code 2 Règle de base : on ne met jamais une requête SQL dans une boucle while ! En terme de performance c'est épouvantable. Pour ramener 50 lignes, tu vas faire 50 requêtes au lieu d'une seule. Si ta base est bien optimisé, aves les bons index, le code 2 devrait être plus performant. Compare les 2 solutions sur ton système. Tant que la charge de ton serveur ne sera pas trop importante, tout se passera bien. Et puis un jour tu chercheras à comprendre pourquoi ton appli ce met à ramer. J'impose la règle de base comme règle stricte de codage à tout mes développeurs. Comme tout règle elle souffre de quelques exceptions que nous cherchons à garder... exceptionelles
  16. Salut à tous, Je viens de connecter un serveur Tomcat à mon serveur Apache2 à l'aide de mod_jk. J'ai mappé une appli de test : JkMount /tomcat-docs default JkMount /tomcat-docs/* default => accés direct aux applis tomcat à partir d'apache http://localhost/tomcat-docs/ => ok ça marche. A partir du tutos sur webmaster-hub, j'ai écris le .htaccess suivant : Options +FollowSymlinks RewriteEngine On RewriteRule ^$ tomcat-docs [L] RewriteRule ^nexistepas\.html$ trouve.html [L] La seconde règle marche très bien. La page affiché : trouve.html L'adresse dans le navigateur : nexistepas.html La première règle ne fonctionne pas très bien : La page affiche : /tomcat-docs => ça c'est ok L'adresse dans la navigateur : /tomcat-docs => ça c'est pas ok J'aimerai gardé comme adresse : http://localhost/ Est-ce que ma règle est fausse ? Est-ce que c'est dû à la connection entre Apache et Tomcat ? merci à tous.
  17. oui, mais très cher. Si tu trouve en gratuit je suis preneur. Des sociétés comme Cnet vont te vendre des données plutot orienté hiTech. Les budgets sont en dizaines de milliers d'euros.
  18. J'obtiens le même résultat sur 7 DC différent. Je ne suis quands même pas le seul à voir ça
  19. J'ai eu les mêmes résultats avec un autre PC ! Un spyWare qui attaquerait spécifiquement les adWords de certains annonceurs ?
  20. non, il n'y a pas de liens cliquable ( je parle des adWords sur la colonne de droite ) : [EDIT]Exemple supprimé[/EDIT]
  21. Que pensez-vous de ce genre de résultats pour les adWords Google : XXXXXXXXXXXX regardez les annonces d'un comparateur de prix et d'un site de ventes auxc enchères. Des liens commerciaux sans liens ! Quel intérêt pour Google ? Quel intérêt pour les annonceurs ? J'ai fait un post sur WRI qui est passé totalement inaperçu, ça ne choque que moi ? Ce genre de technique est-elle connue et habituelle pour les référenceurs ? Une relation quelconque avec le Pulling Google dont parle Cendrillon ? Un bug adWords ?
  22. SELECT * FROM input_stocl_tbl WHERE article_id NOT IN ( SELECT * FROM article_tbl ) te donne toutes les lignes de input_stocl_tbl qui ne sont pas dans article_tbl.
  23. Merci, Monique pour la traduction française de l'article de Tim O'Reilly et pour ta liste de liens. J'avais eu une note catastrophique à ce test ! J'suis pas encore prêt pour faire ma révolution 2.0
  24. Web 2.0 selon Tim O'Reilly Et pour ceux qui sont un peu brouillés avec l'anglais, la traduction en français : Modèles de conception et d'affaires pour la prochaine génération de logiciels
×
×
  • Créer...