Aller au contenu

Siddartha

Hubmaster
  • Compteur de contenus

    748
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Siddartha

  1. Je veux bien bêta tester l'outil et te faire un retour de mes impressions sur son utilisation. Le programme a l'air sympa
  2. w0w, on va essayer de reprendre tout ca point par point .. Est ce quelque chose t'empeche de customiser ton CMS voire SPIP directement pour avoir des metas qui correspondent exactement au contenu des pages que tu généras ? Euh ok, mais les métas ne feront pas tout ton référencement. Ce n'est qu'une infime partie qui est prise en compte par Google, cela doit representer moins de 1% de ce qu'il prend en compte pour positionner un site. Du coup, est ce réellement utile de passer du temps à résoudre un problème qui n'en est pas un ? Je rejoins complètement cet avis. Pour la génération de métadonnés, je conseillerais le tuning de CMS mais comme dit plus haut, c'est perdre beaucoup de temps pour pas grand chose. Concernant les Dublin Core, cela fait au moins 5 ans que j'en entends parler, et nous avons là une vrai spécification qui permettrait de faire un joli ménage dans les outils de recherche couplé à de l'algo classique actuel. Mais malheureusement, et je ne sais pour quelles raisons, les DC n'ont jamais eu le succès qu'elles méritaient (les balises) La conclusion est un peu rapide à mon goût si quand on parle de robot, on parle de spider ou crawler des outils de recherche. Le h1 est effectivement trés bien pris en compte par google, pour les autres hx, rien ne prouve qu'elles sont efficaces et prises en compte et je n'ai jamais réussi à démontrer que h1+h2+h4 était plus performant qu'un vil h1, un <p> + un vieux <b> à la place d'un <strong>. C'est uniquement mon expérience de référenceur qui parle .. En effet, ca ne coute pas grand chose, et en plus, même si elles ne sont pas prises en comptes comme ce qu'elles sont réellement : des DC, données d'indexation, elles ont en tous les cas l'avantage de créer du contenu supplémentaire qui, lui, est bien lu par Google et pris en compte comme du texte classique. Conclusion encore trop hative à mon goût (toujours dans une optique de référencement). Le troll était déjà lancé Denis Pour répondre à ta question, tout simplement car une page structurée et valide ne correspond pas aux critères de sélection et surtout de classement d'outils de recherche majeurs, notamment des outils comme Google. Ainsi, à contenu identique, une page w3c ready aura un classement inférieur à une page search engine ready qui va utilisé un <b> plutôt qu'un <strong> car le <b> donne de biens meilleurs résultats qu'un strong. De même, les vieilles balises FONT complètement obsolète sont tout autant d'indications qu'on donne à Google pour lui faire comprendre, selon sa manière de trier les résultats aujourd'hui, que si on rajoute un font à cette partie du texte, c'est qu'elle est importante. Chose qu'il incapable de détecter aujourd'hui avec un div ou tout autre attribut qui bénéficierait d'un style précis via son ID ou son CLASS. Pour finir, je rejoins complètement l'avis de LaurentDenis, lorsqu'il explique que les robots des moteurs de recherche ont été conçu pour exploiter des documents invalides (les crawlers ou spiders sont encore des navigateurs de version 1 bien que quelques améliorations leur ont été apporté. Par exemple, les liens JS ne sont pris en compte par Google et suivi que depuis 3 mois, et pourtant ou est la difficulté de suivre ces liens ?). Il est donc encore trés théorique et surtout utopique de penser qu'un Google pourrait arriver aujourd'hui à 'comprendre' un document valide. Pour cela, il faudrait d'abord que les spécialistes de la sémantique s'accordent vraiment sur le vrai bon usage de chacunes des balises existantes, et apparemment, ne serait ce qu'en lisant ce post, ce n'est pas encore le cas (voir ex de Laurent du h1 vs dfn). Comme le dit trés bien Laurent (décidément ), Google n'exploite pas encore ses possibilités et ne va même pas aujourd'hui dans ce sens. Par contre, il est clair que les potentialités de ce côté en terme d'indexation et de pertinence en utilisant la sémantique au sens d'un code propre, valide et bien structuré serait certainement la clé de la pertinence des résultats de demain, et ce, quasi sans faille. En conclusion, un site valide c'est trés bien, mais il faut laisser le temps aux outils de recherche d'apprendre la sémantique et l'accessibilité pour pouvoir vous en servir en référencement
  3. Pour trouver, télécharger et tester toutes les distros linux existantes, vous avez aussi l'excellent http://www.linuxiso.org/ ! [LE_PLUS_VIEUX_TROLL_INFORMATIQUE] Pour ma part, j'ai commencé par une redhat, testé ensuite la mandrake qui ne m'a pas plu car trop grand public et j'aime bien avoir les mains sous le capot, résultat aujourd'hui définitivement Debian à défaut de Solaris Par contre, j'ai aussi envie de tenté la slackware dont j'ai eu de nombreux echos positifs. [/LE_PLUS_VIEUX_TROLL_INFORMATIQUE]
  4. Siddartha

    Mysql Type BLOB

    Ca marche ! Excellentissime, merci Anonymus !!
  5. Siddartha

    Mysql Type BLOB

    Ci-joint la structure de ma table : CREATE TABLE `sites_posting` ( `id_post` int(4) NOT NULL auto_increment, `categorie` enum('news','articles') NOT NULL default 'news', `url` varchar(100) NOT NULL default '', `titre` varchar(100) NOT NULL default '', `corps` varchar(255) NOT NULL default '', `date` date NOT NULL default '0000-00-00', PRIMARY KEY (`id_post`), KEY `categorie` (`categorie`,`url`,`titre`,`corps`), KEY `date` (`date`) ) TYPE=MyISAM; L'instruction que j'utilise dans PhpMyadmin pour passer le champ 'corps' en BLOB est : ALTER TABLE `sites_posting` CHANGE `corps` `corps` BLOB NOT NULL
  6. Siddartha

    Mysql Type BLOB

    Bonjour, Dans une des tables de ma base contenant des articles, j'ai voulu passer le champ qui contient tout le corps des articles de type VARCHAR à BLOB pour pouvoir me permettre d'insérer des articles plus conséquents. Résultat : #1170 - BLOB column 'corps' used in key specification without a key length Que je mettre une key length ou pas ne change pas cette erreur. Y'a t-il des spécifications particulières pour ce type de champs ? Merci !
  7. Clair ! C'est fou ce qu'on se sent perdu sans pouvoir faire ses recherches habituelles sur Google, je me suis senti comme nu pendant quelques heures !!!
  8. Effectivement, Mydomm.m et mydoom.o, nouvelle variante de ce virus semble être mis en cause directement par les responsables de Google et Yahoo. Yahoo! News C'est bien le ddos qui a ralenti tous ces services, néanmoins, les attaques sur les dns avant la saturation étaient aussi peut être un test grandeur nature de la 'performance' de ces attaques. Aprés les virus et autres ddos, les dns poisoning seront les prochaines plaies de l'Internet .. Imaginez un virus qui changent tous les hosts de pcs infectés pour faire de la translation 127.0.0.1 google.com ... (thx Abisko ) Pour ma part, je trouve le jour trop bien choisi et les sites en cause vraiment bien ciblées avec un timing excellent pour que ce soit une simple coïncidence
  9. Argh pardon Dan !!! L'euphorie du géant qui s'écroule .. j'ai fait planté toutes les machines aussi dans cette euphorie en testant Google
  10. Plus grave que ca, ca se passe dans le monde entier et sur toutes les versions de Google .. Je penche sérieusement pour l'hypothèse d'un DDOS ou d'un problème sérieux de réseaux. De mon côté, je note des ralentissements trop inhabituels sur beaucoup trop de sites, en plus de Google.
  11. Merci Denis pour ces liens, je reviens de xulfr.org, et tout ce qu'il contient a l'air vraiment intéressant. Il ne reste plus qu'à parcourir les docs pour voir jusqu'ou on peut aller avec Xul Thx !
  12. Ben c'est pour ca qu'il faudrait apprendre à developper ses propres API Firefox, aprés tu peux mettre ce que tu veux comme fonctionnalités dedans
  13. Pourquoi ne pas essayer de mettre en place ton propre cryptage ? Cherches tu des ressources sur la cryptologie ? Si oui, plutôt que des sites web, je te conseille un bon gros bouquin dans cet esprit là : http://www.commentcamarche.net/livre/?cat=136 Si tu cherches quelque chose de plus précis, dis moi, j'essaierais de t'aider selon mes connaissances dans ce domaine particulier.
  14. Simple, discret, efficace .. je passe aussi définitivement sous Firefox Quelqu'un saurait comment sont developpés ces fonctionnalités ? (Xul ?) Ou aurait des liens sur des ressources là dessus, ca m'intéresse pas mal pour, pourquoi pas, développer mes propres modules Firefox, ca serait la cerise sur le gâteau, mais c'est aussi ca l'open source Yeah !!!
  15. Et M... !!! Moi qui comptait me reposer ce week end ... En tous cas, bravo pour l'outil BL Dan, c'est grâce à lui que j'ai vu la maj ce matin Ca te dérangerait si on faisait tourner un shellscript toutes les heures sur cette page ? Bon, trève de plaisanterie, effectivement les BL <4 sont bien présents avec la commande link:. Mais je ne vois pas encore de gros changements de mon côté dans les résultats. Je dois encore un peu attendre que ca se propage vu que mon google chez moi est toujours à la bourre par rapport aux autres (merci mon fai )
  16. Bonjour, Peux tu vérifier en faisais un Ctrl+Alt+Supp si tu as un process de ce type en cours : 2d6246634be13a11fc75d71a03f12659.exe Si oui, tu dois : 1-noter son nom exact 2-l'effacer de ton disque dur en faisant une recherche dessus. 3-Lancer la base de register Demarrer/Exécuter, regedit puis Entrée. Tu fais un Ctrl+F, tu met le nom du virus ou du fichier exécutable que tu as trouvé, et tu effaces toutes les entrées faisant mention à ce fichier /virus dans la base de registres. Cela devrait résoudre ton problème. ++
  17. Par ex à la fin de ton httpd.conf : NameVirtualHost IP_DE_TON_SERVEUR <VirtualHost IP_DE_TON_SERVEUR> ServerName promotions.zebestof.com DocumentRoot "/usr/local/apache/htdocs/promotions" DirectoryIndex index.TON_EXTENSION </VirtualHost> Et c tout Tu peux aussi rajouter d'autres options dans ce VirtualHost, pour aller plus loin, tu as la doc Apache http://httpd.apache.org
  18. Hello Ca serait bien que tu nous colles le début de ton fichier httpd.conf ici avec les instructions Virtual Host ici si tu veux un petit coup de main
  19. A priori, il est trés faible, preuve en est pour le weblog utilisé par Apocalx et moi pendant la compétition, ou nous avons simplement dupliqué les billets du blog contenus dans la base sql et reproduit en simple pages basiques html pour en faire une sorte de weblog light. Nous avons tous les deux une version light qui change seulement à une image prés et une structure de texte différente. Tout est encore en ligne sur Google, vous pouvez consulter à loisir. Et Google ne nous a pénalisé aucune de ces pages. Au contraire, elles sont mêmes, pour ma part, mieux rafraîchies et plus régulièrement que les originales
  20. Bonjour Turulillo, Et bienvenue sur le Hub ! Oui et non, je n'ai plus les chiffres en tête mais il me semble que du coup, c'est plus de 30.000 liens sortants qui ont fait leur apparition dans les caches de Google .. Je doute que les pages liées par ce biais aient toutes faits un lien vers le Hub, et ce, sur simple demande de Dan Donc on ne peut pas parler de véritable réciprocité dans ce lacher massif de liens sortants. Si on suit ce principe, cela implique que faire des liens sortants vers de sites, qui plus est, sont plus elevé en terme de popularité vont du coup avoir tendance à perdre des positions. Alors qu'aujourd'hui, c'est plutôt l'effet inverse que j'ai pu observé pour ma part. Faire des liens sortants vers des sites bénéficiant des premières positions a tendance à augmenter mon ranking Quand à l'arborescence, les posts sont réalisés dans des urls de ce type : http://www.webmaster-hub.com/index.php?sho...=40entry35084 Pour moi, et je ne vois pas comment Google pourrait le voir autrement, cela s'apparente plutôt à des pages de premier niveau
  21. Bonjour, Si quelqu'un a des entrées, je suis intéressé aussi pour tester ces communautés de communautés Merci d'avance au bon samaritain(e) !
  22. 1- Pourquoi sécuriser un environnement informatisé. 1.1 Bilan des attaques annuelles (Nbs, couts des préjudices) 1.2 Schéma économique des sociétés de sécu en France (nbre, évolution, part de marché, etc.) 2-Vulnérabilités les plus répandues cf. http://www.sans.org/top20/#threats 2.1 Failles Unix 2.2 Failles Win 3- Mise en place d'une politique de sécurité 3.1 Quelles données protéger, à quel prix et pourquoi ? ou "La valeur de l'information vaut-elle le montant investit en soft et hardware pour protéger cette même information". 3.2 Techniques et structure de réseau à mettre en place (politique de firewall, dmz, utilisateurs, de droits d'accès, etc) 3.3 Former la 'faille' humaine (Expliquer aux utilisateurs une bonne utilisation de leur outil de travail sans qu'ils mettent en péril la société ou d'autres utilisateurs) S'il faut un point précis, trés poussé niveau technique, le truc intéressant serait de montrer pourquoi les buffer overflow sont légions, mais également aujourd'hui dépassés. La découverte d'un nouveau type de faille, il y a quelques mois déjà ayant supplanté ce type d'attaques et étant largement plus dangereuses lorsqu'elles seront répandues : les stack overflows. Expliquer les concepts, et en quoi ces stacks sont plus dangeureux.
  23. Si c'est le cas, et ce ne saurait être autrement à moyen terme, dans la logique de Google, ce calcul en temps réel va permettre beaucoup plus de réactivité et d'avoir aussi un contenu le plus à jour possible en temps réel .. On croit rêvé quand on entend çà .. mais Google nous a habitué à l'excellence .. et ils ne s'arrêtent plus ! Bravo à eux D'un autre côté, ce calcul en temps réel va surement permettre à beaucoup d'entre nous d'en apprendre encore plus sur Google en le testant, et surtout en pouvant réaliser des tests beaucoup plus rapidement. Bref, risque d'y avoir un peu de sport pour Google les premiers temps
  24. C'est déprimant .. ce script marche encore parfaitement On peut même plus bidouiller en fait et c'est la faute à Dan tout ca
  25. Oula ! les moyennes des loads averages sont trés mauvaises .. au dela de 5 normalement, le serveur ne doit quasi plus répondre .. Meme ces chiffres ne sont pas bon : 7:34pm up 4 days, 9:30, 2 users, load average: 3.18, 1.17, 0.56 Apparemment, d'aprés tes process, c'est bien le daemon mysql qui chie mais pourquoi, j'en ai aucune idée, a part peut être un problème de configuration. (Autre piste, as tu des sessions sur ces scripts ?) Notre grand maître Unix ici présent, j'ai nommé Dan, pourra surement plus t'aider que moi sur ce coup encore une fois
×
×
  • Créer...