Aller au contenu

Cariboo

Membre+
  • Compteur de contenus

    3 376
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Cariboo

  1. Histoire d'en rajouter une couche, je signale quand même que le Hub dispose d'un "salon" pour discuter de choses diverses et variées. On aurait pu aussi bien l'appeler "café", cela n'aurait rien changé. Donc le café existe, il s'appelle le "salon de webmaster-hub". Certains vont se détendre au café avec les potes, d'autres préfèrent passer au salon Nous on va dans le salon, mais chacun fait comme il veut Maintenant, que signifierait un "café libre ?". Si on parle d'un espace non modéré, c'est exclu sur le Hub. Certains pensent que le fait de laisser tout le monde faire n'importe quoi, c'est ça la liberté. Mais il en va sur le Hub comme dans la Société : la liberté des uns s'arrête ou commence celle des autres, donc les "fâcheux", les "agressifs", ceux qui insultent, manquent de respect, violent les lois et règlements, diffament, répandent de fausses informations etc.... n'auront pas la liberté de nuire à d'autres membres ou d'autres personnes sur le Hub. Si on parle d'un espace dans lequel on peut parler de n'importe quoi : c'est non aussi. Il y'a une thématique claire sur le Hub, déjà parfois tellement vaste qu'il est difficile de s'y retrouver. Alors inutile de polluer nos pages avec des discussions qui n'ont rien à voir avec l'informatique. Nous sommes très attachés à l'aspect communautaire sur le Hub, et s'il y'a une chose qui marche bien ici, c'est bien le fonctionnement en "communauté". Or pour qu'une communauté fonctionne, il vaut mieux insister sur ce qui rapproche les gens que sur ce qui les divise... Ce qui nous rapproche, c'est l'intérêt pour tout ce qui tourne autour du "webmastering". Pas Ségolène et Nico, la Star'ac, les lois anti-tabacs, j'en passe... Mais ce n'est pas pour autant que tout est interdit dans le "salon", bien au contraire. On préfère juste parler de ce qui nous passionne, plutôt que des sujets qui fâchent
  2. Je rappelle que Google invite les webmasters à ajouter l'attribut nofollow dans ces liens... Il doit y avoir une bonne raison En clair, si on peut éviter d'avoir ses pages remplies de liens "off topic", ou (et surtout) bombardées de liens d'origine inconnue et éventuellement considérées comme spammy, c'est beaucoup, beaucoup mieux. Des liens "publicitaires" bien contextualisés ne posent pas de problèmes majeurs par contre.
  3. La plupart de ces systèmes sont au mieux "borderline", en général ils ne correspondent pas aux règles de qualité fixées par Google. D'autres encore sont à fuir absolument.
  4. Pour le web-marketing, mieux vaut avoir de bonnes bases de connaissances économiques et financières, et en communication / marketing que des connaissances techniques. Les meilleurs profils sont donc des marketeurs qui ont appris la technique, la conversion de purs techniciens aux arcanes du marketing est moins simple en général. A titre perso, j'ai fait Sciences Po, et je suis à la fois le DSI et le "chef de projet internet" dans ma boîte. Bref n'aie aucun complexe... Je connais les profs du PULV, la formation est excellente. Par contre côté reconnaissance par les boîtes, ces formations sont souvent trop récentes pour que cela joue vraiment.
  5. Quel mode d'invocation utilises tu ? Local, distant, distant avec javascript, xml-rpc ... ?
  6. Pourtant cela marche très bien... Il faut que tu puisses changer le code d'invocation de tes bannières dynamiquement (en php ou en asp) en fonction de la personne loggée... Exemple : tu mets le paramètre ?what=MUSICIEN dans l'appel de phpadsnew A partir de là, tu associes la bannière que tu veux cibler au mot clé MUSICIEN et le tour est joué.
  7. C'est effectivement lié à leurs cursus mixte (MBA).
  8. Oui tu as raison de signaler ce blog qui est bourré d'informations de première main. Depuis quelques temps, Google multiplie ses blogs d'infos, et de facto diffuse beaucoup plus d'infos depuis quelques mois que GoogleGuy en plusieurs années sur Webmasterworld.
  9. Euh... where is the money ? Quel est le CA de ton site ? Car si tu ne vends rien en l'état actuel des choses, ton site c'est des charges et rien en face. Quand à la base sans optin et sans qualification précise, c'est impossible à exploiter.
  10. On trouve aussi des contre exemples nombreux. "Corrélation n'est pas raison". Il ne faut jamais perdre de vue que sur une requête ultraconcurrentielle, les sites sont tous optimisés, et donc on trouve plus d'url rewriting dans ces sites là aussi à cause de cela... L'url rewriting est un outil. On peut mal ou bien utiliser cet outil. Un url rewriting mal fait nuit au référencement. Certains CMS ou moteurs de blogs produisent un url rewriting bavard ou mal fichu. Les mots clés dans l'url sont un plus, mais ce n'est ni absolument nécessaire et en aucun cas suffisant. Et l'interaction entre la présence de ces mots clés dans l'url, le domaine, le title, la balise H1 et le contenu textuel est assez complexe, cela doit inciter à une certaine prudence.
  11. Voila la méthode implémentée par ARNO de l'équipe de développement de SPIP que j'ai testé avec succès. En effet les filtres "image" de spip génèrent des png avec une transparence alpha, ils font donc changer le "comportement" d'IE pour qu'il gère correctement la transparence alpha. La méthode utilisée est la même que le PNG behavior proposé par Dudu, sauf que c'est expliqué en français. Afficher-du-PNG-24-dans-MSIE Voila le code du fichier htc utilisé : <public:component> <public:attach event="onpropertychange" onevent="propertyChanged()" /> <script> var supported = /MSIE (5\.5)|[6789]/.test(navigator.userAgent) && navigator.platform == "Win32"; var realSrc; var blankSrc = "rien.gif"; if (supported) fixImage(); function propertyChanged() { if (!supported) return; var pName = event.propertyName; if (pName != "src") return; // if not set to blank if ( ! new RegExp(blankSrc).test(src)) fixImage(); }; function fixImage() { // get src var src = element.src; // check for real change if (src == realSrc) { element.src = blankSrc; return; } if ( ! new RegExp(blankSrc).test(src)) { // backup old src realSrc = src; } // test for png if ( /\.png$/.test( realSrc.toLowerCase() ) ) { // set blank image element.src = blankSrc; // set filter element.runtimeStyle.filter = "progid:DXImageTransform.Microsoft.AlphaImageLoader(src='" + src + "',sizingMethod='image')"; } } </script> </public:component> Cela fonctionne parfaitement avec les différentes versions d'IE que j'ai testées (5.5, 6 et 7).
  12. Je ne suis pas surpris qu'ils n'en parlent pas. Il y'a quelque temps, les "interrogés" auraient sans doute parlé du Hub. Mais sûrement pas maintenant.
  13. Soit ton outil n'est pas adapté, soit tu manques tout bonnement de bande passante...
  14. Non ! 3 sec par mail ! Quel est le logiciel/script que tu utilises ?
  15. Je ne peux que confirmer la tendance générale des réponses qui ont été données et notamment la réponse de Thick... Ces techniques de webmarketing sont très efficaces mais nécessitent beaucoup, beaucoup de savoir faire pour obtenir des résultats tangibles. Et il n'y a pas de recette miracle, tout doit être adapté à ton site et à ta cible. Notre newsletter compte à présent 302 000 abonnés par exemple. Sans cela, je crois que l'on arriverait pas à notre audience actuelle. Mais c'est six ans de travail, les 6 premiers mois, on avait que quelques milliers d'abonnés. Je crois de plus en plus aux techniques de marketing viral. Je les intègre de plus en plus dans mes stratégies. Là aussi, c'est beaucoup de savoir faire, et il ne faut pas avoir peur de faire quelques bides.
  16. Smartadserver est un... adserver (un gestionnaire de bannières). C'est donc une application en ASP que tu loues pour héberger tes campagnes publicitaires. Ce n'est pas une régie ! C'est un outil. Et disons le, cet outil est réservé à des sites ayant des moyens certains.
  17. Pas de problème pour le type d'application que tu prévois de faire... C'est à dire générer une nouvelle image une seule fois. Certains développeurs créent des scripts qui génèrent des images à la volée, GD est donc lancé à chaque appel de page, et même parfois plusieurs fois ! Là, oui, cela met le serveur à genoux.
  18. Comme promis, je viens de publier le 4e et dernier volet de l'article sur le "web sémantique". Dans cette dernière partie, j'aborde la façon dont les outils de recherche peuvent se servir (ou ne pas se servir) du web sémantique. J'explique notamment pourquoi les moteurs de recherche généralistes comme Google ne veulent pas entendre parler du web sémantique pour l'instant (avec des propos interprétés parfois comme "hostiles" alors qu'ils sont simplement pour moi frappés au coin du bon sens). Mais aussi comment le web sémantique fait une apparition remarquée et efficace chez les marchands du temple (les affreux revendeurs de solutions payantes aux entreprises, pas open source pour un sou), suscitant quelques haussements de sourcil chez les défenseurs d'un web sémantique universel, gratuit et incarnation du web 3.0.
  19. Merci, c'est toujours encourageant. Je publierai le dernier sur le web sémantique demain. Ensuite on va attaquer des sujets qui intrigueront beaucoup plus de gens, à savoir une présentation plus détaillée des méthodes de statistiques linguistiques utilisées dans les outils de recherche... (oui je fais un peu de teasing...)
  20. Attention on a bien dit que l'audience n'était pas intégrée dans la formule du pagerank... Ce qui ne veut pas dire que Google ne tient aucun compte - de la fréquentation des sites - ou du nombre de clics sur les résultats pour affiner son algo (dont le pagerank n'est qu'une partie). Il est clair que, s'ils le font (ce qui n'est pas certain) cela ne joue pas un grand rôle. Ce qui est certain c'est qu'ils mesurent régulièrement les clics sur les pages de résultat pour tester leur qualité.
  21. J'avoue que cette formulation est "influencée" par le contexte. Tant qu'il n'y aura pas d'outils de manipulation de RDF et d'OWL en standard dans IE et Windows, il y'a peu de chances que le web sémantique fasse une percée fantastique. C'est le sens du début de la phrase, en appelant un chat un chat. Quand je dis que Google semble se satisfaire du web actuel... Cette phrase laisse supposer que Google peut changer le world wide web. C'est de plus en plus vrai, et c'est la volonté déclarée de Google de faire évoluer le web dans une direction qui l'arrange. Mais dans le même temps, l'influence de Google a en réalité des limites certaines, et Google est bien obligé de faire avec le web tel qu'il est ! J'aurais donc dû écrire que Google est bien obligé de travailler sur une version du web qui n'est pas le web sémantique. Maintenant, je pense qu'il est faux de dire que Google se satisfait du web tel qu'il est dans l'absolu. S'ils peuvent obtenir quelques modifications utiles, ils ne diront pas non. Il est clair par contre qu'ils ne croient pas dans le web sémantique. Non pas d'ailleurs qu'ils ne trouvent pas l'idée intéressante, c'est juste qu'ils ne croient pas que demain, suffisamment de sites seront "sémantiques" pour que cela mérite qu'on étudie de nouvelles manières de chercher dans ces sites. Qui plus est, leur expérience du spam les conduit à penser que, même si tous les sites sont stockés sous formes de triplets RDF, ils devront continuer à extraire des infos du contenu plutôt que de faire confiance aux métadonnées... L'approche de Google est pragmatique et ne fait pas confiance à la nature humaine. Celle de Berners Lee est incontestablement plus optimiste sur la possibilité de voir certaines choses changer... Ce sont deux visions de la société fondamentalement différentes en fait. C'est pour cela que les "clans" ont autant de mal à se comprendre.
  22. Je profite de l'occasion donnée par Appollo pour refaire une mise au point. D'abord le "score" de la petite barre verte n'est pas celui utilisé dans l'algorithme du classement des pages. Il s'agit de la photographie de l'un des ranks (il y'a probablement plusieurs notes stockées) à un instant t. Au moment où ce score est visible, on voit une note qui n'est déjà plus forcément celle de la page. En plus, l'échelle du pagerank est logarithmique, deux sites soit disant à PR 5 n'ont en fait pas le même rank, l'un peut avoir une note 10 fois supérieure à l'autre ! S'il est exact que la petite barre verte a moins de signification qu'autrefois, le pagerank a toujours une importance réelle dans l'algo. Il a surtout baissé dans l'estime des webmasters qui brûlent aujourd'hui ce qu'ils ont adoré hier. Quand je dis "importance réelle", je ne dis pas que c'est le critère le plus important, car l'importance d'une page ne la rend pas pertinente sur une requête donnée. Les critères importants sont donc ceux qui donnent une similarité, une proximité, entre la requête et la page. Sinon pour te répondre lite_ws : 1. l'audience n'est absolument pas prise en compte 2. les ranks sont calculés à la volée, dès que les pages sont dans l'index elle ont reçu un rank. Par contre, la barre verte n'est mise à jour que de temps en temps (il faut attendre des semaines pour que cela bouge) Pour le reste, suit les conseils d'Appollo, et fais quelques recherches, le hub et le web regorgent d'infos sur le pagerank. Tu peux aussi faire un tour dans la partie publications, tu trouveras des articles de Dan complets sur le sujet.
  23. Lol ... Dommage pour ceux qui ont une livebox et qui ne savent pas modifier leurs paramètres de pare feu. Je sens que leur hotline va mériter son nom (hot, ca va chauffer )
  24. Le problème messieurs les référenceurs professionnels, c'est que ce forum est lu par des débutants ou des webmasters qui ne sont pas des spécialistes du référencement. Loin de faire comprendre des enjeux aux néophytes, cette formule va être prise pour argent comptant. Nous disposons des "clés" qui nous permettent de faire la part des choses, ce n'est pas le cas des newbies. Le spectacle que nous donnons tend surtout à laisser croire que le référencement n'est qu'une affaire d'avis, or ce n'est pas toujours vrai. Il y'a des vérités objectives dans ce domaine, Dieu merci... Cette formule est fausse, d'abord que l'auteur annonce d'emblée qu'elle est imaginaire et approximative. Elle popularise des pseudo-critères, comme la densité de mots clés, qui sont dangereux à manipuler car les fréquences de termes sont en général pondérées. Elle parle de "page quality" qui est un concept particulièrement fumeux. Elle accorde trop d'importance aux critères de "link popularity", quasiment pas aux critères de contenu. Ou alors il faudra m'expliquer comment une page avec un pagerank de zéro peut arriver devant une page avec un pagerank de cinq sur une requête (et des pages de résultats comme cela on en trouve plein). Elle mélange des critères calculés à la volée, avec des critères précalculés... J'en ai encore quelques autres en réserve. Franchement, je suis choqué que certains d'entre vous en principe dotés d'une véritable expérience dans le domaine du référencement ne voient pas le problème. Et apportent du crédit à une "formule" qui pondère des concepts fumeux. Comme je l'ai déjà dit à certains, pas de problème pour avoir un échange d'arguments sur les critères de Google. Mais pas dans un sujet sur une formule que l'on crédibiliserait. Ce sujet est dorénavant fermé.
  25. Je publie aujourd'hui le 3e volet de l'article sur le web sémantique. Le web sémantique : utopie condamnée ou révolution en marche ? J'aborde donc la polémique qui fait rage autour du web sémantique. Certains considèrent en effet comme totalement utopique l'idée selon laquelle un jour tous les webmasters coderont leurs informations à la manière du web sémantique, et comme encore plus utopique l'idée qu'ils ajouteront des métadonnées "correctes". D'autres pensent que c'est avenir du web. Cela tourne clairement à la querelle de chapelles. Une querelle peut-être dépassée, à l'heure ou des applications commerciales du web sémantique apparaissent dans les entreprises ! Au grand dam de certains de ses promoteurs, d'ailleurs
×
×
  • Créer...