Aller au contenu

Dudu

Hubmaster
  • Compteur de contenus

    4 021
  • Inscrit(e) le

  • Dernière visite

Messages postés par Dudu

  1. Salut

    Plusieurs questions:

    • Quand tu dis en local.. tu es bien sur un serveur local (localhost, typiquement), avec Apache installé ?
    • Tu utilises quel système d'exploitation ? Le fait que tu mentionnes IE me fait penser que c'est Windows, mais tu travailles peut-être sur deux ordis différents.
      • Si tu utilises Safari sur Mac OS X, tu utilises les versions d'Apache et de PHP intégrées ? Ou un package tout fait ?
      • Si tu utilises Safari sur Windows, quel package utilises-tu pour avoir un serveur local ? WAMP ?

  2. Le prix, c'est effectivement 350€ pour 2000 pages soit 0,19€ la page, mais sur des volumes plus élevés on descend à 5 cents la page. le ratio prix/page info fournies reste correct ;-)
    Effectivement, c'est déjà mieux :)

    Concernant W3C link checker pour l'avoir notamment testé sur notre site Id Nova, nous avons constaté la mauvaise gestion des urls relatives. Nous avions également noté ce problème sur d'autres sites.
    Je viens justement de le tester sur idnova.fr et effectivement j'ai plein d'erreurs.

    Effectivement, elles sont liées à une mauvaise gestion des urls relatives... de votre part.

    Pour rappel: un lien relatif visant le même répertoire s'écrit ./page-cible.html

    Un lien relatif visant le répertoire parent s'écrira ../page-cible.html

    Or, sur la page d'accueil (où par définition il n'y a pas de répertoire parent) vos liens relatifs sont du style ../plan-du-site.php ce qui est une erreur.

    Les navigateurs font la correction d'eux-mêmes. w3c Link Checker ne corrige pas votre erreur, lui.

    Je veux bien croire que Link Checker ait des bugs, mais sur votre site il n'en a pas.

    (en étant un peu mauvaise langue, j'oserais presque dire que c'est étrange qu'IDBot n'ait rien remarqué à ce sujet)

    PS: oui oui, j'ai bien compris que vous m'invitiez à tester la démo :P

  3. Bonjour Stéphane, et bienvenue sur le Hub :)

    Bonsoir à tous,

    Je me permets d'intervenir, je suis le responsable du logiciel ID Bot, et je souhaiterais apporter quelques remarques par rapport aux différents commentaires ci-dessus.

    Tout d'abord, merci d'être venu en personne défendre votre produit.

    Comme j'ai été un des plus virulents acteurs du lynchage sus-cité, je me permets de vous répondre à mon tour.

    Vous avez tous cité des logiciels gratuits qui permettent effectivement de fournir des informations que l'on retrouve dans ID Bot.

    Mais lancer ces outils prend du temps...

    Là-dessus, je suis d'accord. Tout rassembler en un seul outil est clairement votre point fort.

    Effectivement investir 350€ à titre perso pour récupérer ces informations n'est pas forcement justifié, mais pour une société, ce montant est dérisoire compte tenu du temps qu'il faudrait pour tout vérifier.
    350 € ? Ce n'est pas ce que j'ai lu.

    J'ai lu 350 € pour 2000 pages. Et ça, désolé mais ça change tout.

    Radicalement.

    Vous avez cité différents logiciel, Google Webmaster tools, ou encore un script php afin d'analyser les logs, mais dans ces cas précis vous êtes passifs par rapport à votre site. Dans un cas c'est google qui vous indique l'erreur dans l'autre c'est un client voir pire un prospect.
    J'ai aussi cité Apache et son fichier log d'erreurs.

    Apache, c'est le système de mon serveur. Ce n'est ni Google (à qui définitivement je ne confierais pas la moindre de mes données), ni un client, ni un prospect.

    Pour avoir testé Xenu ou W3C Link Checker, ces logiciels gèrent très mal les liens absolus, et voient des erreurs, la ou il n'y en a pas.
    Xenu je ne connais pas, donc attardons-nous sur w3c Link Checker.

    Je n'ai jamais vu ou entendu parler d'une mauvaise gestion des liens absolus. Mais je vous crois sur parole (sérieusement).

    En revanche, vous avez aiguisé ma curiosité donc je serais volontiers preneur d'un exemple.

    À bientôt ;)

  4. Merci Kioob, ça commence à éclairer ma lanterne.

    Mais des phrases telles que "It runs a suite of compression methods and strategies and selects the parameters that yield the smallest output file." (trouvée dans la doc d'OptiPNG) me laisse quand même sur ma faim: quelles stratégies, et quelles méthodes ?

    Car si à l'avenir, je pouvais créer directement des images les plus optimisées possible et bien ça m'éviterait de créer mes images comme avant, PUIS ENSUITE d'utiliser Smushit ou OptiPNG.

    Ce serait un gain de temps.

  5. Salut

    C'est en Javascript aussi comme Google Analytics ? Il serait bien que des sociétés telles que Google et Yahoo! (qui sont aussi des moteurs de recherche) puissent nous permettre de pouvoir tracker les bots des moteurs...

    En tous cas, si ça peut bouleverser un tant soit peu l'hégémonie de Google, ce n'est pas un mal: la concurrence avantage toujours le client final.

  6. Salut

    Outil intéressant, j'ai gagné quelques précieux octets. Ce n'est pas grand chose mais les petits ruisseaux font les grandes rivières, dit-on.

    2 questions néanmoins:

    • Peut-on "smusher" une page entière (ou un site entier) depuis le site smushit.com directement, donc sans l'extension Firefox ? Hé oui, je n'utilise pas Firefox.
    • C'est peut-être un peu hors-sujet mais je serais curieux de savoir les coulisses de ce truc: en gros, quel travail est fait sur nos images ? et comment peut-on garder une image identique et de même qualité en la faisant baisser de poids, parfois de manière importante ? Un pro de l'imagerie qui saurait m'éclairer ?

    J'ai tenté de trouver réponse à ces deux questions sur leur site, mais on y trouve très peu d'infos.

  7. Salut

    Effectivement Invision Power Board est très bien. Son premier concurrent, vBulletin, est très bon aussi.

    Le revers de la médaille, c'est qu'ils ont les inconvénients de leurs avantanges: ils sont très complets, trop complets. Par exemple, le panneau d'administration de chacun des deux ressemble à s'y méprendre au tableau de bord d'un Airbus: il y a des tas d'options partout, et un novice s'y perd facilement.

    Donc il faut prévoir un temps d'adaptation avant de lancer le forum en production.

    PhpBB, je ne connais pas vraiment. Mais il semble que la version 3 soit de bonne facture. C'est en tous cas ce que davidm (grand connaisseur en systèmes de publication s'il en fallait un) affirme ici: Un forum avec une administration claire, un bon contrôle sur le design et un package fonctionnel bien pensé : ça existe ?, ... après de longues recherche j'ai redécouvert... phpBB 3.0 !

    Un critère non négligeable dans ton choix: vBulletin est payant (et cher), IPB pareil. PhpBB a l'avantage de la gratuité.

  8. Salut

    Ça dépend: que veux-tu faire de cette page lorsqu'on y accède sans faire de recherche d'artiste ?

    Dire bonjour, ou bien afficher par défaut tous les artistes ?

    Dans le premier cas, il manque un else dans ton code php. Dans lequel tu définis que lorsqu'il n'y a pas de variables POST envoyées, tu affiches un message de ton choix.

  9. Salut

    Aïe. Le problème ne va pas être d'optimiser ton site pour un navigateur en particulier (ce qui est une mauvaise idée de toute façon).

    Il va surtout falloir que tu optimises ton site pour qu'il ne donne pas l'impression d'avoir été écrit en 1991. Le code Javascript utilisé par ton menu déroulant est celui-ci:

    function voir(calque)
    {
    if(NS4)
    {
    document.layers[calque].visibility = 'visible';
    }
    if(IE4)
    {
    document.all[calque].style.visibility = 'visible';
    }
    }

    Donc en gros, tu testes pour savoir si le navigateur est Internet Explorer 4, auquel cas tu envoies une directive propriétaire Microsoft.

    Et si le navigateur est Netscape 4, alors tu envoies une directive propriétaire Netscape.

    Petit cours d'histoire rapide:

    Internet Explorer en est à la version 8. Autant dire que la version 4 est bien loin.

    Quant au pauvre Netscape, il a été racheté par AOL il y a quelques années. Et puisque les petits alchimistes d'AOL ont l'habitude de transformer l'or en plomb, et bien Netscape n'existe plus (ici le certificat de décès).

    Je ne sais pas comment tu as codé ce site... à la main ? avec un logiciel ? En tous cas, le code est à revoir depuis zéro: j'ai l'impression d'avoir rajeuni de dix ans. Les cadres, les spacer.gif, les détections IE/NS, les tableaux, les pop-ups, les onmouseover/onmouseout, les map/area... tout y est.

    Désolé pour le feedback aussi négatif, mais merci pour ce petit coup de nostalgie ;)

    PS: sur Safari non plus, ton menu déroulant ne s'affiche pas (le contraire m'eût étonné).

  10. Salut

    SQL est un langage très simple.

    • SELECT va "sélectionner" quelque chose dans la base.
    • * indique qu'on cherche "tout ce qu'il y a dans une table".
    • FROM te permet de cibler dans quelle table tu vas sélectionner "tout ce qu'il y a dans la table". Dans ton cas, tu chercheras "tout ce qu'il y a dans la table mp3".
    • WHERE te permet d'affiner la recherche via une condition. Par exemple: "SELECT * FROM mp3 WHERE `dudu` = 1" va sélectionner toutes les entrées de la table mp3, mais uniquement celles où le champ "dudu" a la valeur "1"

    Revenons à ta requête.

    Quand tu n'as pas de recherche effectuée (donc sur ta première page), ton script lance cette requête SQL erronée:

    SELECT * FROM mp3 WHERE

    ce qui donne en traduction française:

    "sélectionner toutes les entrées de la table mp3, mais uniquement celles où..."

    Ben oui, mais où quoi ? tu n'indiques aucune condition ensuite !

    Il faut donc enlever ce WHERE et ne le mettre dans la requête que lorsque tu effectues une recherche d'artiste.

    Tu gardes juste "SELECT * FROM mp3" tout seul. Ou peut-être avec une clause "LIMIT 0, 30" si tu as beaucoup d'artistes.

  11. Salut

    Forcément, si tu essaies d'installer une extension Firefox sur Explorer 7, tu vas attendre longtemps avant que ça marche :rolleyes:

    Et une telle extension n'existe pas à ma connaissance sur d'autres navigateurs, donc y compris Explorer.

    PS: ne change pas de dealer, c'est de la bonne.

  12. Salut

    Moi aussi sur un Wordpress, Google m'a indexé des fichiers de configuration et de fonctions.

    Par chance, ils n'apparaissent qu'avec la commande "site:" et pas lors de recherches "normales".

    Solution simple: après avoir vérifié qu'aucun lien ne pointait vers ces fichiers (mais comment diable Google les a-t-il trouvé?) j'ai simplement stoppé l'indexation de ces fichiers via robots.txt

    (et effectivement, les moteurs aiment beaucoup Wordpress. Je ne m'en plains pas.)

  13. Salut

    La détection d'erreurs sur les gros sites est un enjeu important. L'outil ID bot me semble y répondre.

    Reste à chacun d'évaluer le ration utilité/coût pour son business.

    Qu'on ne se méprenne pas sur mon propos.

    Que la détection d'erreurs sur les gros sites soit un enjeu important : bien sûr.

    Qu'IDBot y réponde: c'est exact.

    Et que chacun évalue le ratio utilité/coût pour son business: ok, encore une fois.

    Là où je tique, c'est qu'il existe la même chose en gratuit, et qui fonctionne parfaitement.

    À savoir, ton log d'erreurs qui gentiment te liste jour par jour le type d'erreurs, sur quelle page c'est arrivé, l'IP et l'UA du visiteur, les date et heure. Et en plus c'est directement géré par le serveur, ce qui évite d'avoir un outil externe qui s'amuse à re-crawler toutes les pages pour un résultat identique.

    En plus de ça, comme si ça ne suffisait pas, le service checklink du validateur w3c vérifie les 404, et ne rechigne pas devant de gros sites aux nombreuses pages.

    Donc c'est un peu réinventer la roue, en la faisant payer (cher).

    Je n'ai jamais rechigné à payer des logiciels innovants, j'écris d'ailleurs ce message depuis un navigateur payant reservé à un marché de niche, et dont les mises-à-jour majeures (sauf sécurité) sont payantes; tout ça parce qu'il a des fonctions innovantes.

    Dans le cas d'IDBot, je ne vois pas vraiment la nécessité de s'encombrer ni d'un coût supplémentaire, ni d'un visiteur supplémentaire qui ne fait que crawler le site en boucle page par page pour y détecter ce que mon serveur détecte déjà gratuitement, plus efficacement, et avec moins de bande passante.

    Mais si tu vois cette nécessité et que je suis dans l'erreur, éclaire-moi car vraiment je n'arrive pas à voir un besoin absolu dans l'achat de ce logiciel.

  14. la nouvelle émission de Julien Courbet sur France2 m'a contacté pour un reportage et recherche d'ailleurs des journalistes qui ont eu des problèmes avec leurs garagistes en région parisienne
    Julien Courbet recherche des journalistes ? :D

    Désolé, la coquille était trop belle: je n'ai pas pu m'en empêcher.

    En tous cas, félicitations: je vois que tu en es à ta huitième revue de presse. 01Net, Trafic FM, Le Monde, Warning, AutoPlus, Réponse à tout, Télématin, et maintenant Micro Hebdo.

    Que du beau monde. La classe ! :thumbsup:

    Bonne continuation.

  15. Salut

    Non, pas nécessairement.

    Il est possible à quiconque de modifier son User-Agent. Donc si moi j'ai envie de le masquer, ou si un robot malveillant a envie de le masquer: c'est la même chose.

    Pour détecter un robot malveillant, regarde plutôt si l'IP vient d'un pays "sensible": sans le moindre racisme, mais des visiteurs coréens sur un site franco-français, c'est douteux d'autant que beaucoup d'attaques proviennent de ce(s) pays. Ce n'est pas le seul bien sûr, et tous les internautes coréens ne sont pas non plus de dangereux "hacktivistes" ;)

    Vérifie aussi la fréquence des visites d'un même visiteur: un robot malveillant a souvent tendance à visiter beaucoup de pages par minute (voire par seconde pour certains).

    L'absence d'User-Agent peut confirmer certains soupçons pré-existants, mais ce n'est pas une preuve dans l'absolu.

  16. Salut

    Pareil, je suis un peu surpris.

    D'une, le côté référencement est très léger puisque je lis sur le site idbot.fr:

    La version d'ID Bot que nous proposons aujourd'hui est un outil complet destiné aux webmasters et webmarketeurs souhaitant développer des sites de qualité, sans erreur et dans le respect des règles W3C.

    Je vais aller expliquer à thick et à Jeff que le référencement passe avant tout par le respect des règles w3c, ça va les faire marrer un moment...

    De deux, je ne me vois pas débourser 350 euros toutes les 2000 pages pour obtenir un outil qui existe ailleurs gratuitement (certes de manière séparée comme le fait remarquer KnockedMaster).

    Exemple:

    • La gestion des 404 ? http://validator.w3.org/checklink
    • La gestion des autres erreurs ? mon fichier log d'erreurs que me fournit mon hébergeur en temps réel.
    • Les redirections ? http://www.webmaster-hub.com/outils/http-viewer.php
    • La recherche d'objet ? Euh... la fonction recherche de mon logiciel FTP ??
    • La densité de mots-clés ? Je m'en contrefiche, mais il existe un milliard de sites qui te proposent ça: c'est quelques lignes de PHP.
    • Quant aux balises title et meta description, et aux attributs alt: je me sens assez grand pour pouvoir gérer ça tout seul.

    Verdict: je n'adhère pas, désolé. Mais merci pour l'info quand même ;)

  17. Salut

    Fais une recherche dans tes logs d'accès (habituellement les hébergeurs te laissent les consulter sans problème) et regarde ce que tu vois en référant.

    S'il n'y a pas de référant, ou si celui-ci est d'un site tiers, alors oui il y a de fortes chances que ce soit des programmes automatisés qui utilisent les méthodes décrites ci-dessus.

  18. Salut

    Je t'arrête tout de suite: quasiment personne ne verra jamais ton pop-up.

    En effet, en 2008, tout le monde ou presque est désormais équipé d'un navigateur intégrant un anti pop-up.

    (d'autant plus que le code soumis si gentiment par un internaute est franchement horrible, mais ce n'est pas le sujet)

    2 solutions me viennent à l'esprit:

    • Utiliser une bibliothèque JS (les plus connues sont jQuery, MooTools, Prototype, entre autres) et insérer une sorte de post-it contenant ton message, qui masquerait temporairement le reste de la page
    • Ne pas chercher ni la complexité, ni les effets avec des guirlandes qui clignotent, des bouboules qui défilent, et des pop-up qui surgissent de nulle part. Et tout simplement écrire dans le corps de ta page un simple paragraphe avec ton texte explicatif.

    En tous cas, c'est sûr que les pop-ups en "onLoad" (c'est-à-dire sans que le visiteur ait fait l'action de cliquer quelque part pour générer l'affichage de la pop-up) ne s'afficheront jamais chez une majorité écrasante de tes visiteurs.

    Ce genre de pop-up était très utilisé dans les années passées pour afficher de la publicité, et les navigateurs se sont dotés d'"anti pop-up" pour éradiquer définitivement ce phénomène.

×
×
  • Créer...